
I leader di OpenAI, l'organizzazione responsabile dello sviluppo di ChatGPT, chiedono la regolamentazione delle intelligenze "superintelligenti".
Sostengono la creazione di un organismo di regolamentazione simile all'Agenzia internazionale dell'energia Energia atomica per proteggere l'umanità dai rischi di creare un'intelligenza capace di annullare.
Vedi altro
Google sviluppa uno strumento AI per aiutare i giornalisti in...
L'iPhone originale del 2007 non aperto viene venduto per quasi $ 200.000; Sapere...
In una breve dichiarazione pubblicata sul sito Web dell'azienda, i co-fondatori Greg Brockman e Ilya Sutskever, insieme al CEO Sam Altman, chiedere la creazione di un organismo di regolamentazione internazionale per avviare il lavoro di autenticazione dei sistemi di intelligence artificiale.
La proposta mira a effettuare audit, test di conformità con gli standard di sicurezza e l'attuazione di restrizioni nei livelli di spiegamento e sicurezza. Queste misure mirano a ridurre il rischio esistenziale associato a questi sistemi, cercando di proteggere l'umanità da potenziali pericoli.
Per diversi decenni, i ricercatori hanno evidenziato i rischi potenzialmente associati alla superintelligenza, dove abbiamo effettivamente assistito a un'evoluzione. Tuttavia, man mano che lo sviluppo dell'IA avanza rapidamente, questi rischi diventano sempre più concreti.
O Centro per la sicurezza dell'IA (CAIS), con sede negli Stati Uniti, si dedica alla mitigazione dei rischi sociali associati all'intelligenza artificiale e ha identificato otto categorie di rischio considerate “catastrofiche” ed “esistenziali” legate allo sviluppo dell'IA, da esempio. Ci sono rischi seri e noi vi siamo esposti.
È possibile immaginare che, nei prossimi 10 anni, i sistemi di intelligenza artificiale raggiungeranno un livello di competenza specializzata in diversi domini e diventare produttivo come alcune delle più grandi aziende là fuori oggi, come esperti di OpenAI.
Questa rapida evoluzione dell'IA ha il potenziale per trasformare in modo significativo molti settori mantenendo l'efficienza e l'automazione in molte attività produttive.
In termini di potenziali vantaggi e protezione, la superintelligenza è considerata una tecnologia più avanzata. potente di quelli con cui l'umanità ha avuto a che fare in passato, diceva il messaggio dei leader.
C'è la prospettiva di un futuro significativamente più prospero, ma è essenziale gestire con attenzione i rischi connessi al raggiungimento di questo scenario. Di fronte alla possibilità di rischi esistenziali, come hanno riportato in una nota, è fondamentale adottare un atteggiamento proattivo, piuttosto che limitarsi a rispondere alle situazioni man mano che si presentano.
Nell'immediato contesto, il gruppo sottolinea la necessità di “un certo livello di coordinamento” tra le aziende coinvolte nella ricerca avanzata. nell'intelligenza artificiale, al fine di garantire un'agevole integrazione di modelli sempre più potenti nella società, con una priorità speciale su sicurezza.
Tale coordinamento potrebbe essere stabilito attraverso iniziative o contratti collettivi che cercano di limitare il progresso della capacità di IA. Questi approcci sarebbero fondamentali per garantire che lo sviluppo dell'IA sia consentito in modo controllato e responsabile, considerando i rischi connessi.
Amante di film e serie e di tutto ciò che riguarda il cinema. Un curioso attivo sulle reti, sempre connesso alle informazioni sul web.