A OpenAI, matično podjetje ChatGPT, se sooča z dnevi upravne nestabilnosti zaradi prihodov in odhodov njegovega ustvarjalca, Sama Altmana.
Kot da to ne bi bilo dovolj, je v javnost prišla informacija, da je malo pred razrešitvi Altmana, ki je bil medtem ponovno na položaju, je upravni odbor družbe prejel poročilo alarmantno.
Poglej več
Nestlé napoveduje diverzifikacijo linije Chamyto Box na severovzhodu
Kmalu bo Vivo ponudil 5G povezavo prek fiksnega interneta; vedi več!
V dokumentu so raziskovalci poudarili, da program umetne inteligence, imenovan Q* ali Q-Star, ki je v teku razviti vzporedno, bi lahko predstavljali resno tveganje za stabilnost človeštva v prihodnost.
Po navedbah tiskovne agencije Reuters, ki je objavila te informacije, Q* uporablja obsežno računsko moč, da v bistvu odgovori na matematična vprašanja temeljne ravni.
Na prvi pogled so bili raziskovalci, ki razvijajo tehnologijo, navdušeni nad dejstvo, da zna odgovoriti na vprašanja v relativno kratkem času in v celoti avtonomna.
Vendar pa nevarnost, ki jo predstavlja ta nova umetna inteligenca, ne leži v tej osnovni konceptualizaciji. Navsezadnje lahko tudi preprosti kalkulatorji izvajajo manj zapletene matematične operacije.
Kar je strokovnjake resnično vznemirilo, je način, kako Q-Star odgovarja na njihova vprašanja. Namesto uporabe statičnih vzorcev izračuna, kot so binarne kode običajnih kalkulatorjev, AI uporablja edinstvene vzorce v vsakem odgovoru, ki ga da.
Z drugimi besedami, Q* lahko poda več različnih odgovorov na vsako postavljeno vprašanje, kar pušča prostor za »iznajdbe« in celo podajanje zavajajočih podatkov.
(Slika: Freepik/reprodukcija)
Kljub trenutnemu fanfaram to vedenje, opaženo pri Q-Star, ni novost v svetu umetne inteligence.
Drugi inteligentni chatboti, vključno z vašim ChatGPT, so že bili »ujeti na delu« pri neuspehih, ki izhajajo iz lastne metode usposabljanja.
Na splošno so umetne inteligence usposobljene tako, da so popolnoma podobne človeškim možganom. Z drugimi besedami, analizirati morajo informacije, ki so jim bile dane, da bi poskušali prepoznati vzorce in delati na njih. Ta logika nam, ljudem, omogoča učenje in posredovanje znanja.
Vendar pa bi prenos takšne moči »razumevanja« na stroje lahko postavil nevaren precedens za neke vrste »upor« proti človeštvu.
To je zato, ker nič ne preprečuje umetni inteligenci, da bi zaključila z analizo vzorcev koli, da je človeštvo grožnja ali da je treba določeno osebo odstraniti, za primer.
Še huje, umetno inteligenco lahko uporabljajo kriminalci za storitve kaznivih dejanj, vmešavanje v politične in poslovne odločitve, očrnitev podobe ljudi itd.
Če želite "umazati" podobo določene osebe, preprosto posredujte AI negativne informacije o tem posamezniku. Po drugi strani pa lahko chatbotom, kot je ChatGPT, na nek način damo navodila, da vplivajo na ljudi, da se držijo tega ali onega političnega vidika.
Ker umetna inteligenca napreduje in se širi v vse sektorje družbe, morajo biti pomisleki glede njene etične in miroljubne uporabe v središču razprave.
Cilj umetne inteligence bi moral biti popeljati človeštvo na naslednjo raven, ne pa pomagati kriminalcem ali služiti kot orožje za nadaljnjo destabilizacijo medčloveških odnosov.
Diplomiral iz zgodovine in kadrovske tehnologije. Navdušen nad pisanjem, danes živi sanje o poklicnem delu kot pisec spletnih vsebin in piše članke v več različnih nišah in formatih.