Aplicația Koko este utilă pentru a oferi sprijin emoțional persoanelor aflate în nevoie, folosindu-se Inteligenţă artificială (IA) fără informarea pacienţilor. În total, 4.000 de pacienți au fost văzuți fără informația că au fost consultați de un aparat.
Descoperirea a fost făcută doar când Rob Morris, co-fondatorul stare de nervozitate, a dezvăluit că a efectuat un fel de cercetare cu noua funcție. Când a comunicat acest lucru publicului, Morris părea încântat de faptul că proiectul său decurge bine, dar a primit critici dure.
Vezi mai mult
Google dezvoltă un instrument AI pentru a ajuta jurnaliştii din...
iPhone-ul original nedeschis din 2007 se vinde cu aproape 200.000 USD; stiu...
Cofondatorul Twitter a explicat că aproximativ 30.000 de mesaje au fost distribuite clienților, folosind GPT-3, care stă la baza ChatGPT, un fel de Inteligență Artificială.
Acesta a fost un test care a încălcat direct ceea ce este permis de Departamentul de Sănătate al SUA. A fost o cercetare pentru noua funcție, dar pacienții trebuiau avertizați cu privire la utilizarea
După anunțul pe Twitter despre utilizarea inteligenței artificiale, Morris a fost puternic criticat de internauți. Koko funcționează ca ajutor pentru persoanele care au nevoie de tratament psihologic și caută sprijin direct de la profesioniști prin intermediul aplicației.
Efectuarea unui test tehnologic este considerată lipsită de etică, după cum au avertizat înșiși utilizatorii Twitter. Profesioniștii care efectuează și cercetări în domeniul sănătății au dovedit că aceasta a fost o atitudine care nu trebuie luată.
În încercarea de a se apăra, Morris a subliniat că aceste teste vor fi doar pentru companie și că nu vor fi dezvăluite rezultatele obținute. După ce a ieșit în propria apărare, un medic care a participat și la evaluări a subliniat că modul în care au fost efectuate cercetările a expus persoane vulnerabile.
Rezultatele testelor, potrivit lui Morris, au primit evaluări mai bune atunci când interogările au fost efectuate de AI. Inteligența artificială folosită a fost GPT-3, capabilă să reproducă textele altora și să provoace o mare inexactitate în datele alese.
Odată ce pacienții au devenit conștienți că primesc răspunsuri gata făcute, și-au pierdut interesul.
Iubitor de filme și seriale și de tot ceea ce implică cinema. Un curios activ pe rețele, mereu conectat la informații despre web.