A OpenAI, „ChatGPT“ patronuojančiai įmonei, susiduriama su administracinio nestabilumo dienomis dėl jos kūrėjo Samo Altmano atsiradimo ir išėjimo.
Lyg to būtų negana, paaiškėjo informacija, kad prieš pat atleidus į pareigas Altmaną, bendrovės direktorių valdyba gavo pranešimą nerimą keliantis.
Žiūrėti daugiau
„Nestlé“ praneša apie „Chamyto Box“ linijos įvairinimą šiaurės rytuose
Netrukus „Vivo“ pasiūlys 5G ryšį fiksuotu internetu; žinoti daugiau!
Dokumente tyrėjai atkreipė dėmesį į tai, kad kuriama dirbtinio intelekto programa Q* arba Q-Star vystėsi lygiagrečiai, gali kelti rimtą pavojų žmonijos stabilumui ateitis.
Pasak naujienų agentūros Reuters, kuri paskelbė šią informaciją, Q* naudoja didelę skaičiavimo galią, kad iš esmės atsakytų į pagrindinio lygio matematinius klausimus.
Iš pirmo žvilgsnio mokslininkus, kuriančius technologiją, sužavėjo faktas, kad ji gali atsakyti į klausimus per gana trumpą laiką ir visiškai autonominis.
Tačiau pavojus, kurį kelia šis naujas dirbtinis intelektas, slypi ne šioje pagrindinėje koncepcijoje. Juk net ir paprasti skaičiuotuvai gali atlikti ne tokius sudėtingus matematinius veiksmus.
Ekspertus tikrai suneramino tai, kaip Q-Star reaguoja į jų klausimus. Užuot naudoję statinius skaičiavimo modelius, pavyzdžiui, įprastų skaičiuotuvų dvejetainius kodus, AI kiekviename pateiktame atsakyme naudoja unikalius šablonus.
Kitaip tariant, Q* gali pateikti kelis skirtingus atsakymus į kiekvieną prieš jį pateiktą klausimą, o tai palieka vietos „išradimams“ ir net klaidinančių duomenų pateikimui.
(Nuotrauka: Freepik / reprodukcija)
Nepaisant dabartinės fanfaros, toks Q-Star pastebėtas elgesys nėra naujas dirbtinio intelekto pasaulyje.
Kiti intelektualūs pokalbių robotai, įskaitant jūsų ChatGPT, jau buvo „pagauti“ dėl nesėkmių, kylančių dėl jų pačių treniruočių metodo.
Paprastai tariant, AI yra išmokyti būti lygiai taip pat, kaip žmogaus smegenys. Kitaip tariant, jie turi išanalizuoti jiems suteiktą informaciją, kad galėtų nustatyti modelius ir su jais dirbti. Būtent ši logika leidžia mums, žmonėms, mokytis ir perduoti žinias.
Tačiau tokios „protavimo“ galios delegavimas mašinoms galėtų sukurti pavojingą precedentą savotiškam „maištam“ prieš žmoniją.
Taip yra todėl, kad niekas netrukdo dirbtiniam intelektui daryti išvadą, analizuojant modelius bet, kad žmonija kelia grėsmę arba kad tam tikrą asmenį reikia pašalinti pavyzdys.
Dar blogiau, kad AI gali panaudoti nusikaltėliai, kad padarytų nusikaltimus, kištųsi į politinius ir komercinius sprendimus, suterštų žmonių įvaizdį ir pan.
Norėdami „suteršti“ tam tikro asmens įvaizdį, tiesiog pateikite AI neigiamą informaciją apie tą asmenį. Kita vertus, tokiems pokalbių robotams kaip „ChatGPT“ gali būti nurodyta tam tikru būdu paveikti žmones, kad jie laikytųsi to ar kito politinio aspekto.
Dirbtiniam intelektui tobulėjant ir plintant visuose visuomenės sektoriuose, diskusijų centre turi būti susirūpinimas dėl etiško ir taikaus jo naudojimo.
AI tikslas turėtų būti pastūmėti žmoniją į kitą lygį, o ne padėti nusikaltėliams ar būti ginklu toliau destabilizuoti žmonių santykius.
Baigė istorijos ir žmogiškųjų išteklių technologijų studijas. Aistringas rašymas, šiandien jis gyvena svajone dirbti profesionaliai kaip žiniatinklio turinio rašytojas, rašydamas straipsnius keliomis nišomis ir formatais.