Education for all people
Închide
Meniul

Navigare

  • 1 An
  • Anul 5
  • Literaturile
  • Limba Portugheză
  • Romanian
    • Russian
    • English
    • Arabic
    • Bulgarian
    • Croatian
    • Czech
    • Danish
    • Dutch
    • Estonian
    • Finnish
    • French
    • Georgian
    • German
    • Greek
    • Hebrew
    • Hindi
    • Hungarian
    • Indonesian
    • Italian
    • Japanese
    • Korean
    • Latvian
    • Lithuanian
    • Norwegian
    • Polish
    • Romanian
    • Serbian
    • Slovak
    • Slovenian
    • Spanish
    • Swedish
    • Thai
    • Turkish
    • Ukrainian
    • Persian
Închide

OpenAI susține reglementarea AI pentru a asigura siguranța umană

Liderii de OpenAI, organizația responsabilă de dezvoltarea ChatGPT, solicită reglementarea inteligențelor „suprainteligente”.

Aceștia susțin crearea unui organism de reglementare similar cu Agenția Internațională pentru Energie Energia atomică pentru a proteja umanitatea împotriva riscurilor de a crea o inteligență capabilă de desfacerea.

Vezi mai mult

Google dezvoltă un instrument AI pentru a ajuta jurnaliştii din...

iPhone-ul original nedeschis din 2007 se vinde cu aproape 200.000 USD; stiu...

Într-o scurtă declarație postată pe site-ul companiei, co-fondatorii Greg Brockman și Ilya Sutskever, împreună cu CEO-ul Sam Altman, solicită crearea unui organism internațional de reglementare care să inițieze activitatea de autentificare a sistemelor de informații artificial.

Propunerea vizează efectuarea de audituri, teste de conformitate cu standardele de securitate și implementarea restricțiilor la nivelurile de implementare și securitate. Aceste măsuri urmăresc reducerea riscului existențial asociat acestor sisteme, urmărind să protejeze umanitatea de potențiale pericole.

De câteva decenii, cercetătorii au evidențiat riscurile potențial asociate cu superinteligența, unde am văzut de fapt o evoluție. Cu toate acestea, pe măsură ce dezvoltarea AI avansează rapid, aceste riscuri devin din ce în ce mai concrete.

O Centrul pentru Siguranță AI (CAIS), cu sediul în SUA, se dedică atenuării riscurilor societale asociate cu inteligența artificială și a identificat opt categorii de risc considerate „catastrofale” și „existențiale” legate de dezvoltarea IA, de către exemplu. Există riscuri grave și suntem expuși la ele.

Liderii OpenAI solicită reglementarea AI

Este posibil să ne imaginăm că, în următorii 10 ani, sistemele AI vor atinge un nivel de competență specializată în mai multe domenii și deveniți la fel de productivi ca unele dintre cele mai mari corporații de astăzi, ca experți la OpenAI.

Această evoluție rapidă a AI are potențialul de a transforma semnificativ multe industrii, menținând în același timp eficiența și automatizarea în multe activități productive.

În ceea ce privește potențialele avantaje și protecție, superinteligența este considerată o tehnologie mai avansată. puternic decât cei cu care s-a confruntat umanitatea în trecut, au spus mesajul liderilor.

Există perspectiva unui viitor semnificativ mai prosper, dar este esențial să gestionăm cu atenție riscurile implicate în realizarea acestui scenariu. Confruntați cu posibilitatea riscurilor existențiale, după cum au informat ei într-o notă, este esențial să adoptați o postură proactivă, în loc să răspundeți doar la situațiile pe măsură ce apar.

În contextul imediat, grupul subliniază necesitatea unui „un anumit nivel de coordonare” între companiile implicate în cercetarea avansată. în AI, pentru a asigura o integrare lină a modelelor din ce în ce mai puternice în societate, cu o prioritate specială pe Securitate.

O astfel de coordonare ar putea fi stabilită prin inițiative sau contracte colective care urmăresc să limiteze progresul capacității AI. Aceste abordări ar fi esențiale pentru a ne asigura că dezvoltarea IA este permisă într-un mod controlat și responsabil, ținând cont de riscurile implicate.

Iubitor de filme și seriale și de tot ceea ce implică cinema. Un curios activ pe rețele, mereu conectat la informații despre web.

Tânăra se trezește în interiorul autobuzului și ceea ce vede o lasă fără cuvinte
Tânăra se trezește în interiorul autobuzului și ceea ce vede o lasă fără cuvinte
on Jul 29, 2023
Noroc în dragoste: horoscopul chinezesc este FOARTE pozitiv pentru ACESTE 3 zodii în perioada 2-8 octombrie!
Noroc în dragoste: horoscopul chinezesc este FOARTE pozitiv pentru ACESTE 3 zodii în perioada 2-8 octombrie!
on Oct 02, 2023
Expertul dezvăluie cum să obții un loc de muncă bun și iată ce s-a spus!
Expertul dezvăluie cum să obții un loc de muncă bun și iată ce s-a spus!
on Jul 29, 2023
1 AnAnul 5LiteraturileLimba PortughezăHarta Minții CiuperciHarta Mentală ProteineMatematicaMaterna IiMaterieMediu InconjuratorPiața Forței De MuncăMitologie6 AniMatriteCrăciunȘtiriȘtiri EnemNumericCuvinte Cu CParlendasîmpărtășind AfricaGânditoriPlanuri De LecțiiAnul 6PoliticăPortughezăPostări Recente Postări AnterioareArcPrimul Razboi MondialPrincipal
  • 1 An
  • Anul 5
  • Literaturile
  • Limba Portugheză
  • Harta Minții Ciuperci
  • Harta Mentală Proteine
  • Matematica
  • Materna Ii
  • Materie
  • Mediu Inconjurator
  • Piața Forței De Muncă
  • Mitologie
  • 6 Ani
  • Matrite
  • Crăciun
  • Știri
  • Știri Enem
  • Numeric
Privacy
© Copyright Education for all people 2025