Certains scientifiques célèbres, comme Stephen Hawking lui-même, ont déjà prédit les risques que l'intelligence artificielle pourrait poser aux humains. Non seulement Hawking, mais de grands hommes d'affaires du secteur technologique ont également exprimé leur inquiétude quant à l'avancement de l'IA.
À titre d'exemple, Steve Wozniak, co-fondateur d'Apple, Elon Musk et des centaines d'autres magnats de la technologie ont signé une lettre pour demander la prudence face aux avancées dans ce domaine.
voir plus
Google développe un outil d'IA pour aider les journalistes à…
L'iPhone original de 2007 non ouvert se vend à près de 200 000 $; savoir...
Voir aussi: Un homme prétend avoir écrit 100 livres avec l'aide de l'intelligence artificielle
Bref, une des prémisses que pointent les alarmistes est que l'intelligence artificielle pourrait être développée jusqu'à l'acquisition de la conscience. Bien que même la philosophie la plus fine ne sache pas définir exactement ce qu'est une telle conscience, on sait qu'à ce stade une machine comprendrait qui elle est et quel est son rôle dans le monde.
Ce serait à ce stade que l'intelligence artificielle pourrait prendre de mauvaises attitudes envers les humains. Il lui suffirait de comprendre que les gens sont un problème pour l'existence de la planète et pour la permanence même des machines, par exemple.
Dan Hendrycks, directeur du Center For AI Safety, a averti qu'il existe de "multiples voies" vers les "risques à l'échelle humaine de l'IA". C'est selon un article publié par le journal Daily Star.
L'expert affirme même que des formes plus avancées d'intelligence artificielle "pourraient être utilisées par des acteurs malveillants pour concevoir de nouvelles armes biologiques plus meurtrières que les pandémies naturelles".
Eh bien, il est indéniable que ce serait un moyen très efficace d'exterminer les êtres humains sur Terre. Il suffit de regarder la récente pandémie de Covid-19. Ces menaces existent même au sein de plusieurs laboratoires. Lui-même virus de la rage, si elle souffrait d'une seule mutation, la rendant transmissible par voie aérienne, elle se retrouverait rapidement et efficacement chez l'homme.
Dans un monde de plus en plus connecté et numérisé, il est parfaitement raisonnable d'imaginer qu'une intelligence artificielle puisse commander des matières premières pour développer une arme biologique létale.
C'est le pari que font certains spécialistes, selon le journal cité plus haut. Ils pensent que ce serait un moyen de préserver les machines alors qu'elles parviennent à développer des émotions humaines.
"Grâce à une révolution technologique dans le génie génétique, tous les outils nécessaires pour créer un virus sont devenus si bon marché, simples et facilement disponibles que tout scientifique voyou ou biohacker d'âge universitaire peut les utiliser, créant une menace encore plus grande », a déclaré Dan Hendrycks.
D'un autre côté, il y a des analystes qui ne voient pas de risques tels que ceux mentionnés ci-dessus. Pour eux, il est assez complexe d'analyser qu'une intelligence artificielle est capable d'évoluer de manière similaire aux processus mentaux humains.
Selon ce courant de pensée, il ne serait pas logique de penser aux meilleures possibilités. Pour cela, les développeurs devraient créer un algorithme qui imite la façon de penser et de ressentir des gens, ce qui est actuellement hors de question.
De plus, pour ces personnes, l'intelligence artificielle se rendrait compte que pour éviter les problèmes, la meilleure chose à faire serait tout simplement de ne pas exister. Ainsi, il n'y a pas de tendance à survivre comme dans animaux, mais pour chercher le moyen de résoudre les problèmes.