EN OpenAI, ChatGPTs morselskap, står overfor dager med administrativ ustabilitet med det som kommer og går til skaperen, Sam Altman.
Som om ikke det var nok, kom det frem informasjon om at kort tid før oppsigelse av Altman, som siden har blitt gjeninnsatt, mottok selskapets styre en rapport foruroligende.
se mer
Nestlé kunngjør diversifisering av Chamyto Box-linjen i nordøst
Snart vil Vivo tilby 5G-tilkobling via fast internett; vite mer!
I dokumentet påpekte forskere at et AI-program kalt Q*, eller Q-Star, som blir utviklet parallelt, kan utgjøre en alvorlig risiko for stabiliteten til menneskeheten i framtid.
I følge nyhetsbyrået Reuters, som ga ut denne informasjonen, bruker Q* omfattende beregningskraft til å svare på grunnleggende matematiske spørsmål.
Ved første øyekast ble forskerne som utviklet teknologien begeistret over faktum at hun kan svare på spørsmål på relativt kort tid og fullstendig autonome.
Faren som denne nye kunstige intelligensen representerer, ligger imidlertid ikke i denne grunnleggende konseptualiseringen. Tross alt kan selv enkle kalkulatorer utføre mindre kompliserte matematiske operasjoner.
Det som virkelig skremte eksperter er måten Q-Star svarer på spørsmålene deres. I stedet for å bruke statiske beregningsmønstre, som de binære kodene til konvensjonelle kalkulatorer, bruker AI unike mønstre i hvert svar den gir.
Med andre ord kan Q* gi flere forskjellige svar på hvert spørsmål som stilles foran det, noe som gir rom for "oppfinnelser" og til og med levering av villedende data.
(Bilde: Freepik/reproduksjon)
Til tross for den nåværende fanfaren, er denne oppførselen observert på Q-Star ikke ny i verden av kunstig intelligens.
Andre intelligente chatbots, inkludert din egen ChatGPT, har allerede blitt "tatt på fersk gjerning" i feil som skyldes deres egen treningsmetode.
Generelt sett er AI-er opplært til å være nøyaktig som en menneskelig hjerne. Med andre ord må de analysere informasjonen de får for å prøve å identifisere mønstre og jobbe med dem. Det er denne logikken som lar oss, mennesker, lære og videreformidle kunnskap.
Men å delegere slik "resonnement"-makt til maskiner kan skape en farlig presedens for et slags "opprør" mot menneskeheten.
Dette er fordi ingenting hindrer en kunstig intelligens i å konkludere, gjennom en analyse av mønstre enhver, at menneskeheten er en trussel, eller at en viss person må elimineres, for eksempel.
Verre enn det, AI-er kan brukes av kriminelle til å begå forbrytelser, blande seg inn i politiske og kommersielle beslutninger, skjemme folks bilder osv.
For å "skitne" bildet av en bestemt person, bare gi AI-en negativ informasjon om den personen. På den annen side kan chatbots som ChatGPT bli instruert på en eller annen måte for å påvirke folk til å følge dette eller det politiske aspektet.
Ettersom kunstig intelligens utvikler seg og sprer seg over alle sektorer av samfunnet, må bekymringer rundt dens etiske og fredelige bruk stå i sentrum for diskusjonen.
Målet med AI bør være å drive menneskeheten til neste nivå, ikke å hjelpe kriminelle eller tjene som et våpen for å destabilisere menneskelige forhold ytterligere.
Utdannet i historie og personalteknologi. Lidenskapelig opptatt av å skrive, lever han i dag drømmen om å jobbe profesjonelt som Web Content Writer, skrive artikler i flere forskjellige nisjer og formater.