Lídri z OpenAI, organizácia zodpovedná za vývoj ChatGPT, požadujú reguláciu „superinteligentných“ inteligencií.
Obhajujú vytvorenie regulačného orgánu podobného Medzinárodnej energetickej agentúre Atómová energia na ochranu ľudstva pred rizikami vytvorenia schopnej inteligencie rušenie.
pozrieť viac
Google vyvíja nástroj AI na pomoc novinárom v…
Neotvorený pôvodný iPhone z roku 2007 sa predáva za takmer 200 000 dolárov; vedieť...
V krátkom vyhlásení zverejnenom na webovej stránke spoločnosti spoluzakladatelia Greg Brockman a Ilya Sutskever spolu s generálnym riaditeľom Samom Altmanom: vyzvať na vytvorenie medzinárodného regulačného orgánu, ktorý by inicioval prácu na overovaní pravosti spravodajských systémov umelé.
Návrh sa zameriava na vykonávanie auditov, testov súladu s bezpečnostnými normami a implementáciu obmedzení pri zavádzaní a úrovniach bezpečnosti. Cieľom týchto opatrení je znížiť existenčné riziko spojené s týmito systémami, pričom sa snažia chrániť ľudstvo pred potenciálnymi nebezpečenstvami.
Už niekoľko desaťročí výskumníci upozorňujú na riziká potenciálne spojené so superinteligenciou, kde sme skutočne videli evolúciu. Ako však vývoj AI rýchlo napreduje, tieto riziká sú čoraz konkrétnejšie.
O Centrum pre bezpečnosť AI (CAIS) so sídlom v USA sa venuje zmierňovaniu spoločenských rizík spojených s umelou inteligenciou a identifikovala osem kategórií rizík považovaných za „katastrofické“ a „existenčné“ v súvislosti s rozvojom AI príklad. Existujú vážne riziká a my sme im vystavení.
Je možné si predstaviť, že v nasledujúcich 10 rokoch dosiahnu systémy AI úroveň špecializovaných zručností v niekoľkých doménach a stať sa tak produktívnymi ako niektoré z najväčších súčasných korporácií, ako odborníci na OpenAI.
Tento rýchly vývoj AI má potenciál výrazne transformovať mnohé odvetvia pri zachovaní efektivity a automatizácie v mnohých produktívnych činnostiach.
Z hľadiska potenciálnych výhod a ochrany sa superinteligencia považuje za pokročilejšiu technológiu. mocnejšie než tie, s ktorými sa ľudstvo v minulosti vysporiadalo, uvádza sa v posolstve lídrov.
Existuje vyhliadka na výrazne prosperujúcejšiu budúcnosť, ale je nevyhnutné starostlivo riadiť riziká spojené s dosiahnutím tohto scenára. Tvárou v tvár možnosti existenčných rizík, ako informovali v poznámke, je kľúčové zaujať proaktívny postoj, namiesto toho, aby ste len reagovali na vzniknuté situácie.
V bezprostrednom kontexte skupina zdôrazňuje potrebu „určitej úrovne koordinácie“ medzi spoločnosťami zapojenými do pokročilého výskumu. v AI, aby sa zabezpečila hladká integrácia čoraz silnejších modelov do spoločnosti, s osobitnou prioritou bezpečnosť.
Takáto koordinácia by sa mohla vytvoriť prostredníctvom iniciatív alebo kolektívnych zmlúv, ktoré sa snažia obmedziť rozvoj schopností umelej inteligencie. Tieto prístupy by boli kľúčové na zabezpečenie toho, aby bol vývoj AI povolený kontrolovaným a zodpovedným spôsobom, berúc do úvahy súvisiace riziká.
Milovník filmov a seriálov a všetkého, čo kinematografiu patrí. Aktívny zvedavec na sieťach, vždy pripojený k informáciám o webe.