Čelnici OpenAI, organizacija odgovorna za razvoj ChatGPT-a, pozivaju na regulaciju "superinteligentnih" inteligencija.
Zalažu se za stvaranje regulatornog tijela sličnog Međunarodnoj agenciji za energiju Atomska energija za zaštitu čovječanstva od rizika stvaranja inteligencije sposobne za poništavanje.
vidi više
Google razvija AI alat za pomoć novinarima u...
Neotvoreni originalni iPhone iz 2007. prodaje se za gotovo 200.000 dolara; znati...
U kratkoj izjavi objavljenoj na web stranici tvrtke, suosnivači Greg Brockman i Ilya Sutskever, zajedno s CEO-om Samom Altmanom, pozivaju na stvaranje međunarodnog regulatornog tijela koje bi pokrenulo rad na autentifikaciji obavještajnih sustava Umjetna.
Prijedlog ima za cilj provođenje revizija, testova usklađenosti sa sigurnosnim standardima i provedbu ograničenja u razmjeni i sigurnosnim razinama. Ove mjere imaju za cilj smanjiti egzistencijalni rizik povezan s ovim sustavima, nastojeći zaštititi čovječanstvo od potencijalnih opasnosti.
Već nekoliko desetljeća istraživači su naglašavali rizike potencijalno povezane sa superinteligencijom, gdje smo zapravo vidjeli evoluciju. Međutim, kako razvoj umjetne inteligencije brzo napreduje, ti rizici postaju sve konkretniji.
O Centar za AI sigurnost (CAIS), sa sjedištem u SAD-u, posvećen je ublažavanju društvenih rizika povezanih s umjetnom inteligencijom i identificirao je osam kategorija rizika koji se smatraju "katastrofalnim" i "egzistencijalnim" u vezi s razvojem umjetne inteligencije primjer. Postoje ozbiljni rizici i mi smo im izloženi.
Moguće je zamisliti da će u sljedećih 10 godina sustavi umjetne inteligencije dosegnuti razinu specijaliziranih vještina u nekoliko domena i postati produktivni kao neke od najvećih korporacija danas, kao stručnjaci u OpenAI.
Ova brza evolucija umjetne inteligencije ima potencijal značajno transformirati mnoge industrije uz održavanje učinkovitosti i automatizacije u mnogim proizvodnim aktivnostima.
U smislu potencijalnih prednosti i zaštite, superinteligencija se smatra naprednijom tehnologijom. moćniji od onih s kojima se čovječanstvo suočavalo u prošlosti, stoji u poruci čelnika.
Postoji izgled za znatno prosperitetniju budućnost, ali bitno je pažljivo upravljati rizicima uključenim u postizanje ovog scenarija. Suočeni s mogućnošću egzistencijalnih rizika, kako su izvijestili u bilješci, ključno je zauzeti proaktivan stav, umjesto samo reagirati na situacije kako se pojave.
U neposrednom kontekstu, grupa naglašava potrebu za "određenom razinom koordinacije" između tvrtki uključenih u napredna istraživanja. u AI, kako bi se osigurala glatka integracija sve moćnijih modela u društvu, s posebnim prioritetom na sigurnosti.
Takva bi se koordinacija mogla uspostaviti kroz inicijative ili kolektivne ugovore kojima se nastoji ograničiti napredak sposobnosti umjetne inteligencije. Ti bi pristupi bili ključni za osiguravanje da je razvoj umjetne inteligencije dopušten na kontroliran i odgovoran način, uzimajući u obzir rizike koji su uključeni.
Zaljubljenik u filmove i serije i sve što uključuje kino. Aktivan znatiželjnik na mrežama, uvijek povezan s informacijama o webu.