A OpenAI, ChatGPT emaettevõte, seisab silmitsi haldusliku ebastabiilsusega, mille looja Sam Altman on minev ja minev.
Nagu sellest veel vähe oleks, tuli ilmsiks teave, et vahetult enne Altmani vallandamisest, kes on vahepeal ennistatud, sai ettevõtte juhatus aruande murettekitav.
näe rohkem
Nestlé teatab Chamyto Boxi liini mitmekesistamisest kirdes
Peagi hakkab Vivo pakkuma 5G ühendust fikseeritud interneti kaudu; tea rohkem!
Dokumendis juhtisid teadlased tähelepanu sellele, et tehisintellekti programm nimega Q* ehk Q-Star, mis on käimas paralleelselt arendatud, võib kujutada tõsist ohtu inimkonna stabiilsusele tulevik.
Selle teabe avaldanud uudisteagentuuri Reutersi sõnul kasutab Q* ulatuslikku arvutusvõimsust, et vastata põhimõtteliselt põhitaseme matemaatika küsimustele.
Esmapilgul olid tehnoloogiat arendavad teadlased põnevil tõsiasi, et ta suudab küsimustele vastata suhteliselt lühikese aja jooksul ja täielikult autonoomne.
Kuid oht, mida see uus tehisintellekt endast kujutab, ei seisne selles põhikontseptsioonis. Lõppude lõpuks suudavad isegi lihtsad kalkulaatorid teha vähem keerulisi matemaatilisi tehteid.
Mis eksperdid tõeliselt ärevaks teeb, on see, kuidas Q-Star nende küsimustele vastab. Selle asemel, et kasutada staatilisi arvutusmustreid, nagu tavaliste kalkulaatorite binaarkoode, kasutab AI igas vastuses unikaalseid mustreid.
Ehk Q* võib igale ettepandavale küsimusele anda mitu erinevat vastust, mis jätab ruumi “leiutistele” ja isegi eksitavate andmete esitamisele.
(Pilt: Freepik/reproduktsioon)
Vaatamata praegusele kärale pole see Q-Staris täheldatud käitumine tehisintellekti maailmas uus.
Muud intelligentsed vestlusrobotid, sealhulgas teie enda oma ChatGPT, on juba oma treeningmeetodist tulenevate tõrgete käest “tabatud”.
Üldiselt on AI-d treenitud olema täpselt nagu inimese aju. Teisisõnu peavad nad analüüsima neile antud teavet, et proovida tuvastada mustreid ja nendega töötada. Just see loogika võimaldab meil, inimestel, õppida ja teadmisi edasi anda.
Sellise "arutlusjõu" delegeerimine masinatele võib aga luua ohtliku pretsedendi omamoodi "mässuks" inimkonna vastu.
Seda seetõttu, et miski ei takista tehisintellektil mustrite analüüsi kaudu järeldusi tegemast mis tahes, et inimkond on oht või et teatud inimene tuleb kõrvaldada näide.
Veelgi hullem on see, et kurjategijad saavad AI-d kasutada kuritegude toimepanemiseks, poliitilistesse ja ärilistesse otsustesse sekkumiseks, inimeste maine rikkumiseks jne.
Teatud inimese kuvandi "määrimiseks" esitage tehisintellektile lihtsalt selle isiku kohta negatiivne teave. Teisest küljest saab vestlusroboteid nagu ChatGPT anda mingil moel, et mõjutada inimesi sellest või teisest poliitilisest aspektist kinni pidama.
Kuna tehisintellekt areneb ja levib kõigis ühiskonnasektorites, peavad selle eetilise ja rahumeelse kasutamisega seotud probleemid olema arutelu keskmes.
Tehisintellekti eesmärk peaks olema viia inimkond oma järgmisele tasemele, mitte aidata kurjategijaid või olla relv inimsuhete edasiseks destabiliseerimiseks.
Lõpetanud ajaloo ja personalitehnoloogia eriala. Kirglikult kirjutamise vastu elab ta täna unistust töötada professionaalselt veebisisu kirjutajana, kirjutades artikleid mitmes erinevas nišis ja vormingus.