De Koko-applicatie is handig voor het bieden van emotionele steun aan mensen in nood, gebruik makend van Kunstmatige intelligentie (IA) zonder de patiënten te informeren. In totaal werden 4.000 patiënten gezien zonder de informatie dat ze door een machine werden geraadpleegd.
De ontdekking werd pas gedaan toen Rob Morris, mede-oprichter van twitteren, onthulde dat het een soort onderzoek deed met de nieuwe functie. Toen hij dit aan het publiek communiceerde, leek Morris opgewonden dat zijn project goed liep, maar hij kreeg harde kritiek.
Bekijk meer
Google ontwikkelt AI-tool om journalisten te helpen bij…
Ongeopende originele iPhone uit 2007 wordt verkocht voor bijna $ 200.000; weten...
De mede-oprichter van Twitter legt uit dat er zo'n 30.000 berichten zijn gedeeld met klanten, met behulp van GPT-3, de basis van ChatGPT, een soort kunstmatige intelligentie.
Dit was een test die rechtstreeks in strijd was met wat is toegestaan door het Amerikaanse ministerie van Volksgezondheid. Het was een onderzoek voor de nieuwe functie, maar de patiënten moesten worden gewaarschuwd voor het gebruik van de
technologie.Na de aankondiging op Twitter over het gebruik van kunstmatige intelligentie kreeg Morris veel kritiek van netizens. Koko werkt als hulpmiddel voor mensen die behoefte hebben aan psychologische behandeling en via de applicatie rechtstreeks ondersteuning zoeken bij professionals.
Het uitvoeren van een technologische test wordt als onethisch beschouwd, zoals Twitter-gebruikers zelf hebben gewaarschuwd. Professionals die ook onderzoek doen op gezondheidsgebied bewezen dat dit een houding is die niet moet worden ingenomen.
In een poging zichzelf te verdedigen, wees Morris erop dat deze tests alleen voor het bedrijf zouden zijn en dat de behaalde resultaten niet openbaar zouden worden gemaakt. Een arts die ook meedeed aan de evaluaties wees erop dat de manier waarop het onderzoek werd uitgevoerd kwetsbare mensen blootlegde.
Testresultaten kregen volgens Morris betere beoordelingen wanneer zoekopdrachten werden uitgevoerd door AI. De gebruikte kunstmatige intelligentie was de GPT-3, in staat om andermans teksten te reproduceren en grote onnauwkeurigheden in de gekozen gegevens te veroorzaken.
Toen patiënten zich eenmaal bewust werden dat ze kant-en-klare antwoorden kregen, verloren ze hun interesse.
Liefhebber van films en series en alles wat met cinema te maken heeft. Een actieve nieuwsgierigheid op de netwerken, altijd verbonden met informatie over internet.