
L'application Koko est utile pour fournir un soutien émotionnel aux personnes dans le besoin, en utilisant Intelligence artificielle (IA) sans en informer les patients. Au total, 4 000 patients ont été vus sans l'information qu'ils étaient consultés par une machine.
La découverte n'a été faite que lorsque Rob Morris, co-fondateur de Twitter, a révélé qu'il a effectué une sorte de recherche avec la nouvelle fonction. En communiquant cela au public, Morris semblait ravi que son projet se déroule bien, mais il a reçu de sévères critiques.
voir plus
Google développe un outil d'IA pour aider les journalistes à…
L'iPhone original de 2007 non ouvert se vend à près de 200 000 $; savoir...
Le co-fondateur de Twitter a expliqué qu'environ 30 000 messages ont été partagés avec les clients, en utilisant GPT-3, qui est la base de ChatGPT, une sorte d'Intelligence Artificielle.
Il s'agissait d'un test qui violait directement ce qui est autorisé par le département américain de la santé. Il s'agissait d'une recherche pour la nouvelle fonction, mais les patients devaient être avertis de l'utilisation du
Après l'annonce sur Twitter de l'utilisation de l'intelligence artificielle, Morris a été vivement critiqué par les internautes. Koko travaille comme une aide pour les personnes qui ont besoin d'un traitement psychologique et recherchent un soutien directement auprès de professionnels via l'application.
Mener un test technologique est considéré comme contraire à l'éthique, comme les utilisateurs de Twitter eux-mêmes l'ont averti. Des professionnels qui mènent également des recherches dans le domaine de la santé ont prouvé que c'était une attitude à ne pas adopter.
Dans une tentative de se défendre, Morris a souligné que ces tests ne seraient que pour l'entreprise et qu'il n'y aurait aucune divulgation des résultats obtenus. Après avoir pris sa défense, un médecin qui a également participé aux évaluations a souligné que la manière dont la recherche était menée exposait des personnes vulnérables.
Les résultats des tests, selon Morris, ont reçu de meilleures notes lorsque les requêtes ont été effectuées par l'IA. L'Intelligence Artificielle utilisée était la GPT-3, capable de reproduire les textes d'autres personnes et de provoquer une grande imprécision dans les données choisies.
Une fois que les patients ont pris conscience qu'ils recevaient des réponses toutes faites, ils ont perdu tout intérêt.
Amateur de films et de séries et de tout ce qui touche au cinéma. Un curieux actif sur les réseaux, toujours connecté aux informations sur le web.