Alcuni famosi scienziati, come lo stesso Stephen Hawking, hanno già previsto i rischi che l'intelligenza artificiale potrebbe rappresentare per l'uomo. Non solo Hawking, ma anche grandi uomini d'affari nel settore tecnologico hanno espresso preoccupazione per il progresso dell'IA.
A titolo di esempio, Steve Wozniak, co-fondatore di Apple, Elon Musk e centinaia di altri magnati della tecnologia hanno firmato una lettera per chiedere cautela con i progressi in questo settore.
Vedi altro
Google sviluppa uno strumento AI per aiutare i giornalisti in...
L'iPhone originale del 2007 non aperto viene venduto per quasi $ 200.000; Sapere...
Vedi anche: L'uomo afferma di aver scritto 100 libri con l'aiuto dell'intelligenza artificiale
Insomma, una delle premesse che fanno notare gli allarmisti è che l'intelligenza artificiale potrebbe essere sviluppata fino ad acquisire coscienza. Sebbene anche la filosofia più raffinata non sappia definire esattamente cosa sia tale coscienza, è noto che a questo stadio una macchina capirebbe chi è e qual è il suo ruolo nel mondo.
Sarebbe a questo punto che l'intelligenza artificiale potrebbe assumere cattivi atteggiamenti nei confronti degli umani. Le basterebbe capire che le persone sono un problema per l'esistenza del pianeta e per la permanenza stessa delle macchine, per esempio.
Dan Hendrycks, direttore del Center For AI Safety, ha avvertito che ci sono "molteplici percorsi" per "rischi su scala umana dall'IA". Lo afferma un articolo pubblicato dal quotidiano Daily Star.
L'esperto afferma addirittura che forme più avanzate di intelligenza artificiale "potrebbero essere utilizzate da malintenzionati per progettare nuove armi biologiche più letali delle pandemie naturali".
Ebbene, è innegabile che questo sarebbe un modo molto efficace per sterminare gli esseri umani sulla Terra. Basta guardare la recente pandemia di Covid-19. Queste minacce esistono anche all'interno di diversi laboratori. Lui stesso virus della rabbia, se subisse una sola mutazione, che la rendesse trasmissibile attraverso l'aria, finirebbe con gli esseri umani in modo rapido ed efficiente.
In un mondo sempre più connesso e digitalizzato, è perfettamente ragionevole immaginare che un'intelligenza artificiale possa ordinare materie prime per sviluppare un'arma biologica letale.
Questa è la scommessa che fanno alcuni specialisti, secondo il giornale sopra citato. Credono che sarebbe un modo per preservare le macchine mentre riescono a sviluppare le emozioni umane.
“Grazie a una rivoluzione tecnologica nell'ingegneria genetica, tutti gli strumenti necessari per creare un virus sono diventati così economici, semplici e prontamente disponibili che qualsiasi scienziato canaglia o biohacker in età universitaria può usarli, creando una minaccia ancora maggiore ", ha affermato Dan Hendrycks.
D'altra parte, ci sono analisti che non vedono rischi come quelli sopra menzionati. Per loro, è piuttosto complesso analizzare che un'intelligenza artificiale è in grado di evolversi in modo simile ai processi mentali umani.
Secondo questa corrente di pensiero, non sarebbe un modo logico pensare alle migliori possibilità. Per questo, gli sviluppatori dovrebbero creare un algoritmo che imiti il modo di pensare e di sentire delle persone, qualcosa che attualmente è fuori questione.
Inoltre, per queste persone, l'intelligenza artificiale si renderebbe conto che per evitare problemi, la cosa migliore da fare sarebbe semplicemente non esistere. Pertanto, non vi è alcuna tendenza a sopravvivere come in animali, ma per cercare il modo di risolvere i problemi.