UN OpenAI, la société mère de ChatGPT, est confrontée à des jours d'instabilité administrative avec les allées et venues de son créateur, Sam Altman.
Comme si cela ne suffisait pas, des informations ont été révélées selon lesquelles, peu avant le licenciement d'Altman, qui a depuis été réintégré, le conseil d'administration de l'entreprise a reçu un rapport alarmant.
voir plus
Nestlé annonce la diversification de la gamme Chamyto Box dans le Nord-Est
Bientôt, Vivo proposera une connexion 5G via Internet fixe; savoir plus!
Dans le document, les chercheurs soulignent qu'un programme d'IA appelé Q*, ou Q-Star, en cours d'élaboration développé en parallèle, pourrait constituer un risque sérieux pour la stabilité de l’humanité dans le avenir.
Selon l'agence de presse Reuters, qui a publié cette information, Q* utilise une puissance de calcul étendue pour répondre essentiellement à des questions mathématiques de niveau fondamental.
À première vue, les chercheurs développant la technologie étaient enthousiasmés par le fait qu'elle peut répondre aux questions dans un délai relativement court et complètement autonome.
Cependant, le danger que représente cette nouvelle Intelligence Artificielle ne réside pas dans cette conceptualisation de base. Après tout, même de simples calculatrices peuvent effectuer des opérations mathématiques moins compliquées.
Ce qui a vraiment alarmé les experts, c'est la manière dont Q-Star répond à leurs questions. Au lieu d’utiliser des modèles de calcul statiques, comme les codes binaires des calculatrices conventionnelles, l’IA utilise des modèles uniques dans chaque réponse qu’elle donne.
En d’autres termes, Q* peut donner plusieurs réponses différentes à chaque question qui lui est posée, ce qui laisse place aux « inventions » et même à la fourniture de données trompeuses.
(Image: Freepik/reproduction)
Malgré la fanfare actuelle, ce comportement observé chez Q-Star n’est pas nouveau dans le monde de l’Intelligence Artificielle.
Autres chatbots intelligents, y compris le vôtre ChatGPT, ont déjà été « pris en flagrant délit » d’échecs liés à leur propre méthode de formation.
De manière générale, les IA sont entraînées pour ressembler exactement à un cerveau humain. En d’autres termes, ils doivent analyser les informations qui leur sont fournies pour tenter d’identifier des modèles et d’y travailler. C’est cette logique qui nous permet, à nous les êtres humains, d’apprendre et de transmettre des connaissances.
Cependant, déléguer un tel pouvoir de « raisonnement » à des machines pourrait créer un dangereux précédent pour une sorte de « rébellion » contre l’humanité.
En effet, rien n’empêche une Intelligence Artificielle de conclure, à travers une analyse de modèles n'importe lequel, que l'humanité est une menace, ou qu'une certaine personne doit être éliminée, par exemple exemple.
Pire encore, les IA peuvent être utilisées par des criminels pour commettre des crimes, interférer dans les décisions politiques et commerciales, ternir l’image des gens, etc.
Pour « salir » l’image d’une certaine personne, il suffit de fournir à l’IA des informations négatives sur cette personne. D’un autre côté, les chatbots comme ChatGPT peuvent être chargés d’une manière ou d’une autre d’influencer les gens à adhérer à tel ou tel aspect politique.
À mesure que l’intelligence artificielle progresse et se répand dans tous les secteurs de la société, les préoccupations concernant son utilisation éthique et pacifique doivent être au centre du débat.
L’objectif de l’IA devrait être de propulser l’humanité à un niveau supérieur, et non d’aider les criminels ou de servir d’arme pour déstabiliser davantage les relations humaines.
Diplômé en histoire et technologie des ressources humaines. Passionné d'écriture, il vit aujourd'hui le rêve de travailler professionnellement comme rédacteur de contenu Web, écrivant des articles dans plusieurs niches et formats différents.