
Les dirigeants de OpenAI, l'organisme responsable du développement de ChatGPT, appellent à la régulation des intelligences « superintelligentes ».
Ils préconisent la création d'un organe de régulation similaire à l'Agence internationale de l'énergie l'énergie atomique pour protéger l'humanité contre les risques de création d'une intelligence capable de perte.
voir plus
Google développe un outil d'IA pour aider les journalistes à…
L'iPhone original de 2007 non ouvert se vend à près de 200 000 $; savoir...
Dans une brève déclaration publiée sur le site Web de la société, les cofondateurs Greg Brockman et Ilya Sutskever, ainsi que le PDG Sam Altman, appellent à la création d'une instance internationale de régulation pour engager les travaux d'authentification des systèmes de renseignement artificiel.
La proposition vise à réaliser des audits, des tests de conformité aux normes de sécurité et la mise en place de restrictions dans les niveaux de déploiement et de sécurité. Ces mesures visent à réduire le risque existentiel associé à ces systèmes, en cherchant à protéger l'humanité des dangers potentiels.
Depuis plusieurs décennies, les chercheurs mettent en évidence les risques potentiellement associés à la superintelligence, où l'on assiste effectivement à une évolution. Cependant, à mesure que le développement de l'IA progresse rapidement, ces risques deviennent de plus en plus concrets.
O Centre pour la sécurité de l'IA (CAIS), basée aux États-Unis, se consacre à l'atténuation des risques sociétaux associés à l'intelligence artificielle et a identifié huit catégories de risques considérés comme « catastrophiques » et « existentiels » liés au développement de l’IA, en exemple. Les risques sont sérieux et nous y sommes exposés.
Il est possible d'imaginer que, dans les 10 prochaines années, les systèmes d'IA atteindront un niveau de compétence spécialisé dans plusieurs domaines et devenir aussi productif que certaines des plus grandes entreprises d'aujourd'hui, en tant qu'experts de OpenAI.
Cette évolution rapide de l'IA a le potentiel de transformer considérablement de nombreuses industries tout en maintenant l'efficacité et l'automatisation de nombreuses activités productives.
En termes d'avantages potentiels et de protection, la superintelligence est considérée comme une technologie plus avancée. puissants que ceux auxquels l'humanité a été confrontée dans le passé, disait le message des dirigeants.
Il existe une perspective d'un avenir nettement plus prospère, mais il est essentiel de gérer avec soin les risques liés à la réalisation de ce scénario. Face à la possibilité de risques existentiels, comme ils l'ont signalé dans une note, il est crucial d'adopter une attitude proactive, plutôt que de simplement réagir aux situations au fur et à mesure qu'elles se présentent.
Dans le contexte immédiat, le groupe souligne la nécessité d'« un certain niveau de coordination » entre les entreprises impliquées dans la recherche avancée. en IA, afin d'assurer une intégration harmonieuse de modèles de plus en plus puissants dans la société, avec une priorité particulière sur sécurité.
Une telle coordination pourrait être établie par le biais d'initiatives ou de conventions collectives visant à limiter l'avancement des capacités d'IA. Ces approches seraient essentielles pour garantir que le développement de l'IA est autorisé de manière contrôlée et responsable, compte tenu des risques encourus.
Amateur de films et de séries et de tout ce qui touche au cinéma. Un curieux actif sur les réseaux, toujours connecté aux informations sur le web.