EN OpenAI, ChatGPT's moderselskab, står over for dage med administrativ ustabilitet med dets skaber, Sam Altman, der kommer og går.
Som om det ikke var nok, kom der oplysninger frem, der kort før afskedigelse af Altman, som siden er blevet genindsat, modtog selskabets bestyrelse en anmeldelse alarmerende.
se mere
Nestlé annoncerer diversificering af Chamyto Box-linjen i det nordøstlige
Snart vil Vivo tilbyde 5G-forbindelse via fast internet; vide mere!
I dokumentet påpegede forskere, at et AI-program kaldet Q* eller Q-Star, som bliver udviklet parallelt, kunne udgøre en alvorlig risiko for menneskehedens stabilitet i fremtid.
Ifølge nyhedsbureauet Reuters, som udgav disse oplysninger, bruger Q* omfattende regnekraft til grundlæggende at besvare matematiske spørgsmål på fundamentalt niveau.
Ved første øjekast var forskerne, der udviklede teknologien, begejstrede for at hun kan svare på spørgsmål på relativt kort tid og fuldstændigt autonom.
Faren, som denne nye kunstige intelligens repræsenterer, ligger dog ikke i denne grundlæggende konceptualisering. Selv simple regnemaskiner kan trods alt udføre mindre komplicerede matematiske operationer.
Det, der virkelig bekymrede eksperter, er måden Q-Star reagerer på deres spørgsmål. I stedet for at bruge statiske beregningsmønstre, som de binære koder for konventionelle regnemaskiner, bruger AI unikke mønstre i hvert svar, det giver.
Med andre ord kan Q* give flere forskellige svar på hvert spørgsmål, der stilles foran det, hvilket giver plads til "opfindelser" og endda levering af vildledende data.
(Billede: Freepik/reproduktion)
På trods af den nuværende fanfare er denne adfærd observeret hos Q-Star ikke ny i kunstig intelligens.
Andre intelligente chatbots, inklusive din egen ChatGPT, er allerede blevet "fanget på fersk gerning" i fejl, der opstår fra deres egen træningsmetode.
Generelt er AI'er trænet til at være nøjagtig som en menneskelig hjerne. Med andre ord skal de analysere den information, de får, for at forsøge at identificere mønstre og arbejde på dem. Det er denne logik, der tillader os, mennesker, at lære og videregive viden.
Men at delegere en sådan "ræsonnement" magt til maskiner kunne skabe en farlig præcedens for en slags "oprør" mod menneskeheden.
Dette skyldes, at intet forhindrer en kunstig intelligens i at konkludere, gennem en analyse af mønstre enhver, at menneskeheden er en trussel, eller at en bestemt person skal elimineres, for eksempel.
Værre end det, AI'er kan bruges af kriminelle til at begå forbrydelser, blande sig i politiske og kommercielle beslutninger, plette folks billeder osv.
For at "snavse" billedet af en bestemt person skal du blot give AI'en negativ information om den pågældende person. På den anden side kan chatbots som ChatGPT på en eller anden måde instrueres til at påvirke folk til at overholde dette eller hint politiske aspekt.
Efterhånden som kunstig intelligens udvikler sig og breder sig på tværs af alle sektorer af samfundet, skal bekymringer omkring dens etiske og fredelige brug være i centrum for diskussionen.
Målet med AI bør være at drive menneskeheden til sit næste niveau, ikke at hjælpe kriminelle eller tjene som et våben til yderligere at destabilisere menneskelige relationer.
Uddannet i Historie og Human Resources Technology. Han brænder for at skrive og lever i dag drømmen om at arbejde professionelt som Web Content Writer, skrive artikler i flere forskellige nicher og formater.