Voditelji iz OpenAI, organizacija, odgovorna za razvoj ChatGPT, pozivajo k regulaciji "superinteligentnih" inteligenc.
Zagovarjajo ustanovitev regulatornega organa, podobnega Mednarodni agenciji za energijo Atomska energija za zaščito človeštva pred tveganji ustvarjanja inteligence, ki je sposobna razveljavitev.
Poglej več
Google razvija orodje AI za pomoč novinarjem pri...
Neodprt originalni iPhone iz leta 2007 se prodaja za skoraj 200.000 $; vedeti...
V kratki izjavi, objavljeni na spletni strani podjetja, soustanovitelja Greg Brockman in Ilya Sutskever skupaj z izvršnim direktorjem Samom Altmanom, poziva k ustanovitvi mednarodnega regulativnega organa, ki bi začel delo na področju avtentikacije obveščevalnih sistemov umetno.
Predlog je namenjen izvajanju revizij, preskusov skladnosti z varnostnimi standardi in izvajanju omejitev na ravni uvajanja in varnosti. Cilj teh ukrepov je zmanjšati eksistencialno tveganje, povezano s temi sistemi, in skušati zaščititi človeštvo pred morebitnimi nevarnostmi.
Več desetletij so raziskovalci poudarjali tveganja, ki so potencialno povezana s superinteligenco, kjer smo dejansko videli razvoj. Ker pa razvoj umetne inteligence hitro napreduje, ta tveganja postajajo vse bolj konkretna.
O Center za varnost AI (CAIS) s sedežem v ZDA se posveča zmanjševanju družbenih tveganj, povezanih z umetno inteligenco, in je identificiral osem kategorij tveganja, ki se štejejo za "katastrofalne" in "eksistencialne", povezane z razvojem umetne inteligence primer. Obstajajo resna tveganja in smo jim izpostavljeni.
Možno si je predstavljati, da bodo v naslednjih 10 letih sistemi AI dosegli raven specializiranih veščin na več področjih in postali tako produktivni kot nekatera največja podjetja danes, kot strokovnjaki na OpenAI.
Ta hiter razvoj umetne inteligence lahko znatno preoblikuje številne industrije, hkrati pa ohranja učinkovitost in avtomatizacijo v številnih produktivnih dejavnostih.
Glede potencialnih prednosti in zaščite velja superinteligenca za naprednejšo tehnologijo. močnejši od tistih, s katerimi se je človeštvo spopadalo v preteklosti, je zapisano v sporočilu voditeljev.
Obstaja možnost občutno uspešnejše prihodnosti, vendar je bistveno skrbno obvladovati tveganja, povezana z uresničitvijo tega scenarija. Ob soočenju z možnostjo eksistencialnih tveganj, kot so zapisali v zapisu, je ključnega pomena zavzeti proaktivno držo, ne pa le odzivati se na nastale situacije.
V neposrednem kontekstu skupina poudarja potrebo po "določeni ravni koordinacije" med podjetji, ki se ukvarjajo z naprednimi raziskavami. v umetni inteligenci, da bi zagotovili nemoteno integracijo vedno močnejših modelov v družbi, s posebno prednostjo varnost.
Takšno usklajevanje bi lahko vzpostavili s pobudami ali kolektivnimi pogodbami, ki želijo omejiti napredek zmogljivosti umetne inteligence. Ti pristopi bi bili ključni za zagotovitev, da je razvoj umetne inteligence dovoljen na nadzorovan in odgovoren način, ob upoštevanju povezanih tveganj.
Ljubiteljica filmov in serij ter vsega kar je povezano s kinom. Aktiven radovednež na omrežjih, vedno povezan z informacijami o spletu.