La aplicación Koko es útil para dar apoyo emocional a personas necesitadas, haciendo uso de Inteligencia artificial (IA) sin informar a los pacientes. En total, 4.000 pacientes fueron atendidos sin la información de que fueron consultados por una máquina.
El descubrimiento solo se hizo cuando Rob Morris, cofundador de gorjeo, reveló que realizó una especie de investigación con la nueva función. Al comunicar esto al público, Morris parecía emocionado de que su proyecto fluyera bien, pero recibió duras críticas.
vea mas
Google desarrolla una herramienta de IA para ayudar a los periodistas en…
El iPhone original de 2007 sin abrir se vende por casi $200,000; saber...
El cofundador de Twitter explicó que se compartieron unos 30.000 mensajes con los clientes, utilizando GPT-3, que es la base de ChatGPT, una especie de Inteligencia Artificial.
Esta fue una prueba que violó directamente lo permitido por el Departamento de Salud de los Estados Unidos. Era una investigación para la nueva función, pero era necesario advertir a los pacientes sobre el uso de la
tecnología.Tras el anuncio en Twitter sobre el uso de la Inteligencia Artificial, Morris fue fuertemente criticado por los internautas. Koko funciona como una ayuda para las personas que necesitan tratamiento psicológico y buscan apoyo directamente de los profesionales a través de la aplicación.
Realizar una prueba tecnológica se considera poco ético, como han advertido los propios usuarios de Twitter. Profesionales que también realizan investigaciones en el área de la salud comprobaron que esa era una actitud que no se debe tomar.
En un intento por defenderse, Morris señaló que estas pruebas serían solo para la empresa y que no habría divulgación de los resultados obtenidos. Después de salir en su defensa, un médico que también participó en las evaluaciones señaló que la forma en que se llevó a cabo la investigación expuso a las personas vulnerables.
Los resultados de las pruebas, según Morris, recibieron mejores calificaciones cuando AI realizó las consultas. La Inteligencia Artificial utilizada fue la GPT-3, capaz de reproducir textos ajenos y provocar gran inexactitud en los datos elegidos.
Una vez que los pacientes se dieron cuenta de que estaban obteniendo respuestas preparadas, perdieron interés.
Amante del cine y las series y todo lo que implica el cine. Un curioso activo en las redes, siempre conectado a la información de la web.