A OpenAI, ChatGPT mātesuzņēmums, saskaras ar administratīvās nestabilitātes dienām, ko radījis tā izveidotājs Sems Altmans.
It kā ar to nebūtu pietiekami, atklājās informācija, ka īsi pirms plkst Altmana atlaišanu, kurš kopš tā laika ir atjaunots, uzņēmuma direktoru padome saņēma ziņojumu satraucoši.
redzēt vairāk
Nestlé paziņo par Chamyto Box līnijas dažādošanu ziemeļaustrumos
Drīzumā Vivo piedāvās 5G savienojumu, izmantojot fiksēto internetu; zini vairāk!
Dokumentā pētnieki norādīja, ka tiek izveidota AI programma ar nosaukumu Q* jeb Q-Star attīstīta paralēli, varētu radīt nopietnus draudus cilvēces stabilitātei nākotnē.
Saskaņā ar ziņu aģentūru Reuters, kas izplatīja šo informāciju, Q* izmanto plašu skaitļošanas jaudu, lai būtībā atbildētu uz fundamentālā līmeņa matemātikas jautājumiem.
No pirmā acu uzmetiena pētniekus, kas izstrādā tehnoloģiju, sajūsmināja fakts, ka viņa var atbildēt uz jautājumiem salīdzinoši īsā laikā un pilnībā autonoma.
Tomēr briesmas, ko rada šis jaunais mākslīgais intelekts, nav saistītas ar šo pamata konceptualizāciju. Galu galā pat vienkārši kalkulatori var veikt mazāk sarežģītas matemātiskas darbības.
Ekspertus patiešām satrauc tas, kā Q-Star atbild uz viņu jautājumiem. Tā vietā, lai izmantotu statiskus aprēķinu modeļus, piemēram, parasto kalkulatoru bināros kodus, AI katrā sniegtajā atbildē izmanto unikālus modeļus.
Citiem vārdiem sakot, uz katru jautājumu, kas tiek likts priekšā, Q* var sniegt vairākas dažādas atbildes, kas atstāj vietu “izgudrojumiem” un pat maldinošu datu sniegšanai.
(Attēls: Freepik/reprodukcija)
Neskatoties uz pašreizējo fanfaru, šī Q-Star novērotā uzvedība mākslīgā intelekta pasaulē nav nekas jauns.
Citi viedie tērzēšanas roboti, tostarp jūsu ChatGPT, jau ir “pieķerti” neveiksmēs, kas radušās viņu pašu treniņu metodes dēļ.
Vispārīgi runājot, AI ir apmācīti būt tieši tādiem pašiem kā cilvēka smadzenes. Citiem vārdiem sakot, viņiem ir jāanalizē viņiem sniegtā informācija, lai mēģinātu noteikt modeļus un strādāt pie tiem. Tieši šī loģika ļauj mums, cilvēkiem, mācīties un nodot tālāk zināšanas.
Tomēr šādas "spriešanas" pilnvaras deleģēšana mašīnām varētu radīt bīstamu precedentu sava veida "sacelšanās" pret cilvēci.
Tas ir tāpēc, ka nekas neliedz mākslīgajam intelektam izdarīt secinājumus, analizējot modeļus jebkura, ka cilvēce ir drauds, vai ka noteikta persona ir jālikvidē, jo piemērs.
Vēl ļaunāk, noziedznieki AI var izmantot, lai veiktu noziegumus, iejauktos politiskos un komerciālos lēmumos, aptraipītu cilvēku tēlu utt.
Lai “sasmērētu” noteiktas personas tēlu, vienkārši sniedziet AI negatīvu informāciju par šo personu. No otras puses, tādiem tērzēšanas robotiem kā ChatGPT var kaut kādā veidā ietekmēt cilvēkus, lai viņi ievērotu šo vai citu politisko aspektu.
Mākslīgajam intelektam attīstoties un izplatoties visos sabiedrības sektoros, diskusiju centrā ir jābūt bažām par tā ētisku un miermīlīgu izmantošanu.
AI mērķim vajadzētu būt virzīt cilvēci uz nākamo līmeni, nevis palīdzēt noziedzniekiem vai kalpot par ieroci, lai vēl vairāk destabilizētu cilvēku attiecības.
Beidzis Vēstures un cilvēkresursu tehnoloģijas. Aizraujoties ar rakstīšanu, viņš šodien īsteno sapni profesionāli strādāt par tīmekļa satura rakstītāju, rakstot rakstus vairākās dažādās nišās un formātos.