Die Koko-Anwendung ist nützlich, um Menschen in Not emotionale Unterstützung zu bieten Künstliche Intelligenz (IA) ohne die Patienten zu informieren. Insgesamt wurden 4.000 Patienten ohne die Information behandelt, dass sie von einer Maschine konsultiert wurden.
Die Entdeckung wurde erst gemacht, als Rob Morris, Mitbegründer von Twitter, gab bekannt, dass man mit der neuen Funktion eine Art Recherche durchgeführt habe. Als Morris dies der Öffentlichkeit mitteilte, schien er begeistert zu sein, dass sein Projekt gut vorankam, erntete jedoch scharfe Kritik.
Mehr sehen
Google entwickelt KI-Tool, um Journalisten bei… zu helfen
Ungeöffnetes Original-iPhone von 2007 wird für fast 200.000 US-Dollar verkauft; wissen...
Der Mitbegründer von Twitter erklärte, dass etwa 30.000 Nachrichten mit Kunden geteilt wurden, und zwar mithilfe von GPT-3, das die Grundlage von ChatGPT, einer Art künstlicher Intelligenz, darstellt.
Dies war ein Test, der direkt gegen die vom US-Gesundheitsministerium zugelassenen Vorschriften verstieß. Es handelte sich um eine Forschung für die neue Funktion, aber die Patienten mussten vor der Verwendung gewarnt werden
Nach der Ankündigung auf Twitter über den Einsatz künstlicher Intelligenz wurde Morris von Internetnutzern heftig kritisiert. Koko arbeitet als Hilfsmittel für Menschen, die eine psychologische Behandlung benötigen und über die Anwendung direkt Unterstützung von Fachleuten suchen.
Die Durchführung eines Technologietests gilt als unethisch, wie Twitter-Nutzer selbst gewarnt haben. Fachleute, die auch im Gesundheitsbereich forschen, haben bewiesen, dass diese Einstellung nicht akzeptiert werden sollte.
In einem Versuch, sich zu verteidigen, wies Morris darauf hin, dass diese Tests nur für das Unternehmen seien und dass die erzielten Ergebnisse nicht offengelegt würden. Nachdem er sich selbst verteidigt hatte, wies ein Arzt, der auch an den Untersuchungen beteiligt war, darauf hin, dass die Art und Weise, wie die Forschung durchgeführt wurde, schutzbedürftige Menschen gefährdete.
Laut Morris erhielten Testergebnisse bessere Bewertungen, wenn Abfragen von KI durchgeführt wurden. Die verwendete künstliche Intelligenz war die GPT-3, in der Lage, die Texte anderer Leute zu reproduzieren und große Ungenauigkeiten in den ausgewählten Daten zu verursachen.
Als den Patienten bewusst wurde, dass sie vorgefertigte Antworten erhielten, verloren sie das Interesse.
Liebhaber von Filmen und Serien und allem, was mit Kino zu tun hat. Ein aktiver Neugieriger in den Netzwerken, immer verbunden mit Informationen über das Internet.