A OpenAI, compania-mamă a ChatGPT, se confruntă cu zile de instabilitate administrativă odată cu ieșirile și venirile creatorului său, Sam Altman.
De parcă nu ar fi de ajuns, au ieșit la iveală informații care cu puțin timp înainte de demiterea lui Altman, care de atunci a fost repus, consiliul de administrație al companiei a primit un raport alarmant.
Vezi mai mult
Nestlé anunță diversificarea liniei Chamyto Box în nord-est
În curând, Vivo va oferi conexiune 5G prin internet fix; afla mai multe!
În document, cercetătorii au subliniat că un program de inteligență artificială numit Q*, sau Q-Star, este în curs dezvoltat în paralel, ar putea reprezenta un risc grav pentru stabilitatea umanității în viitor.
Potrivit agenției de presă Reuters, care a lansat aceste informații, Q* folosește o putere de calcul extinsă pentru a răspunde practic la întrebări matematice de nivel fundamental.
La prima vedere, cercetătorii care au dezvoltat tehnologia au fost încântați de faptul că poate răspunde la întrebări într-un timp relativ scurt și complet autonom.
Cu toate acestea, pericolul pe care îl reprezintă această nouă Inteligență Artificială nu stă în această conceptualizare de bază. La urma urmei, chiar și calculatoarele simple pot efectua operații matematice mai puțin complicate.
Ceea ce i-a alarmat cu adevărat pe experți este modul în care Q-Star răspunde la întrebările lor. În loc să folosească modele de calcul statice, cum ar fi codurile binare ale calculatoarelor convenționale, AI folosește modele unice în fiecare răspuns pe care îl oferă.
Cu alte cuvinte, Q* poate da mai multe răspunsuri diferite la fiecare întrebare care i se pune în fața, ceea ce lasă loc pentru „invenții” și chiar pentru furnizarea de date înșelătoare.
(Imagine: Freepik/reproducție)
În ciuda fanfarei actuale, acest comportament observat la Q-Star nu este nou în lumea Inteligenței Artificiale.
Alți chatbot inteligenți, inclusiv al dvs ChatGPT, au fost deja „prinși în flagrant” în eșecuri care decurg din propria lor metodă de antrenament.
În general, IA sunt antrenate să fie exact ca un creier uman. Cu alte cuvinte, ei trebuie să analizeze informațiile care li se oferă pentru a încerca să identifice tipare și să lucreze asupra lor. Această logică este cea care ne permite nouă, ființelor umane, să învățăm și să transmitem cunoștințe.
Cu toate acestea, delegarea unei astfel de puteri de „raționare” către mașini ar putea crea un precedent periculos pentru un fel de „răzvrătire” împotriva umanității.
Asta pentru că nimic nu împiedică o Inteligență Artificială să concluzioneze, printr-o analiză a tiparelor orice, că umanitatea este o amenințare, sau că o anumită persoană trebuie eliminată, pentru exemplu.
Mai rău decât atât, IA pot fi folosite de criminali pentru a comite infracțiuni, a interveni în decizii politice și comerciale, a păta imaginile oamenilor etc.
Pentru a „murdar” imaginea unei anumite persoane, pur și simplu furnizați AI-ului informații negative despre acel individ. Pe de altă parte, chatboții precum ChatGPT pot fi instruiți într-un fel să influențeze oamenii să adere la acest sau acel aspect politic.
Pe măsură ce Inteligența Artificială avansează și se răspândește în toate sectoarele societății, preocupările legate de utilizarea ei etică și pașnică trebuie să fie în centrul discuției.
Scopul AI ar trebui să fie acela de a propulsa umanitatea la următorul său nivel, nu de a ajuta criminalii sau de a servi drept armă pentru a destabiliza și mai mult relațiile umane.
Licențiat în Istorie și Tehnologia Resurselor Umane. Pasionat de scris, astăzi trăiește visul de a lucra profesional ca Web Content Writer, scriind articole în mai multe nișe și formate diferite.