A OpenAI, het moederbedrijf van ChatGPT, wordt geconfronteerd met dagen van administratieve instabiliteit door het komen en gaan van de maker, Sam Altman.
Alsof dat nog niet genoeg was, kwam informatie aan het licht dat kort voor de Na het ontslag van Altman, die inmiddels is hersteld, ontving de raad van bestuur van het bedrijf een rapport alarmerend.
Bekijk meer
Nestlé kondigt diversificatie aan van de Chamyto Box-lijn in het noordoosten
Binnenkort biedt Vivo 5G-verbinding via vast internet; meer weten!
In het document wezen onderzoekers erop dat er een AI-programma genaamd Q* of Q-Star bestaat parallel ontwikkeld, zou een ernstig risico kunnen vormen voor de stabiliteit van de mensheid in de wereld toekomst.
Volgens persbureau Reuters, dat deze informatie heeft vrijgegeven, gebruikt Q* uitgebreide rekenkracht om wiskundige vragen op fundamenteel niveau te beantwoorden.
Op het eerste gezicht waren de onderzoekers die de technologie ontwikkelden enthousiast over de feit dat ze vragen in relatief korte tijd en volledig kan beantwoorden autonoom.
Het gevaar dat deze nieuwe kunstmatige intelligentie met zich meebrengt, schuilt echter niet in deze fundamentele conceptualisering. Zelfs eenvoudige rekenmachines kunnen immers minder ingewikkelde wiskundige bewerkingen uitvoeren.
Wat experts echt verontrustte, is de manier waarop Q-Star op hun vragen reageert. In plaats van statische rekenpatronen te gebruiken, zoals de binaire codes van conventionele rekenmachines, gebruikt AI unieke patronen in elk antwoord dat het geeft.
Met andere woorden: Q* kan op elke vraag die hem wordt gesteld meerdere verschillende antwoorden geven, wat ruimte laat voor ‘uitvindingen’ en zelfs het verstrekken van misleidende gegevens.
(Afbeelding: Freepik/reproductie)
Ondanks de huidige ophef is dit bij Q-Star waargenomen gedrag niet nieuw in de wereld van de kunstmatige intelligentie.
Andere intelligente chatbots, inclusief die van jou ChatGPT, zijn al “op heterdaad betrapt” bij mislukkingen die voortkwamen uit hun eigen trainingsmethode.
Over het algemeen worden AI’s getraind om precies op het menselijk brein te lijken. Met andere woorden, ze moeten de informatie die ze krijgen analyseren om te proberen patronen te identificeren en eraan te werken. Het is deze logica die ons, mensen, in staat stelt kennis te leren en door te geven.
Het delegeren van een dergelijk ‘redeneringsvermogen’ aan machines zou echter een gevaarlijk precedent kunnen scheppen voor een soort ‘rebellie’ tegen de mensheid.
Dit komt omdat niets een kunstmatige intelligentie belet om conclusies te trekken door middel van een analyse van patronen niemand, dat de mensheid een bedreiging vormt, of dat een bepaald persoon geëlimineerd moet worden voorbeeld.
Erger nog: AI's kunnen door criminelen worden gebruikt om misdaden te plegen, zich te bemoeien met politieke en commerciële beslissingen, het imago van mensen te bezoedelen, enz.
Om het imago van een bepaalde persoon ‘vervuilen’, voorzie je de AI simpelweg van negatieve informatie over die persoon. Aan de andere kant kunnen chatbots zoals ChatGPT op de een of andere manier worden geïnstrueerd om mensen te beïnvloeden om zich aan een of ander politiek aspect te houden.
Naarmate kunstmatige intelligentie zich verder ontwikkelt en zich over alle sectoren van de samenleving verspreidt, moeten zorgen over het ethische en vreedzame gebruik ervan centraal in de discussie staan.
Het doel van AI moet zijn om de mensheid naar een hoger niveau te tillen, niet om criminelen te helpen of als wapen te dienen om menselijke relaties verder te destabiliseren.
Afgestudeerd in Geschiedenis en Human Resources Technologie. Gepassioneerd door schrijven, leeft hij vandaag de dag de droom om professioneel te werken als webcontentschrijver, waarbij hij artikelen schrijft in verschillende niches en formaten.