Vedoucí představitelé OpenAI, organizace zodpovědná za vývoj ChatGPT, požadují regulaci „superinteligentních“ inteligencí.
Zasazují se o vytvoření regulačního orgánu podobného Mezinárodní energetické agentuře Atomová energie k ochraně lidstva před riziky vytvoření inteligence schopné zkáza.
vidět víc
Google vyvíjí nástroj AI, který má novinářům pomoci v…
Neotevřený původní iPhone z roku 2007 se prodává za téměř 200 000 $; vědět...
V krátkém prohlášení zveřejněném na webových stránkách společnosti spoluzakladatelé Greg Brockman a Ilya Sutskever spolu s generálním ředitelem Samem Altmanem: vyzvat k vytvoření mezinárodního regulačního orgánu, který by zahájil práci na ověřování zpravodajských systémů umělý.
Cílem návrhu je provádění auditů, testů shody s bezpečnostními standardy a provádění omezení v úrovni nasazení a zabezpečení. Tato opatření mají za cíl snížit existenční riziko spojené s těmito systémy ve snaze ochránit lidstvo před potenciálním nebezpečím.
Již několik desetiletí výzkumníci zdůrazňují rizika potenciálně spojená se superinteligencí, kde jsme skutečně viděli vývoj. Jak však vývoj AI rychle postupuje, tato rizika jsou stále konkrétnější.
Ó Centrum pro bezpečnost AI (CAIS) se sídlem v USA se věnuje zmírňování společenských rizik spojených s umělou inteligencí a identifikovala osm kategorií rizik považovaných za „katastrofické“ a „existenční“ související s rozvojem umělé inteligence příklad. Existují vážná rizika a jsme jim vystaveni.
Je možné si představit, že v příštích 10 letech dosáhnou systémy AI úrovně specializovaných dovedností v několika oblastech a stát se tak produktivními jako některé z největších společností současnosti, jako odborníci na OpenAI.
Tento rychlý vývoj umělé inteligence má potenciál významně transformovat mnoho průmyslových odvětví při zachování efektivity a automatizace v mnoha produktivních činnostech.
Z hlediska potenciálních výhod a ochrany je superinteligence považována za pokročilejší technologii. mocnější než ty, se kterými se lidstvo vypořádalo v minulosti, uvedl poselství vůdců.
Existuje vyhlídka na výrazně prosperující budoucnost, ale je nezbytné pečlivě řídit rizika spojená s dosažením tohoto scénáře. Tváří v tvář možnosti existenčních rizik, jak uvedli v poznámce, je zásadní zaujmout proaktivní postoj, spíše než jen reagovat na situace, které nastanou.
V bezprostředním kontextu skupina zdůrazňuje potřebu „určité úrovně koordinace“ mezi společnostmi zapojenými do pokročilého výzkumu. v AI, s cílem zajistit hladkou integraci stále silnějších modelů do společnosti, se zvláštní prioritou bezpečnostní.
Taková koordinace by mohla být zavedena prostřednictvím iniciativ nebo kolektivních smluv, které se snaží omezit rozvoj schopností umělé inteligence. Tyto přístupy by byly klíčové pro zajištění toho, aby byl vývoj umělé inteligence povolen kontrolovaným a odpovědným způsobem s ohledem na související rizika.
Milovník filmů a seriálů a všeho, co kinematografie zahrnuje. Aktivní zvědavec na sítích, vždy připojený k informacím o webu.