A AbiertoAI, la empresa matriz de ChatGPT, afronta días de inestabilidad administrativa con las idas y venidas de su creador, Sam Altman.
Como si fuera poco, salió a la luz información de que poco antes del despido de Altman, quien desde entonces ha sido reintegrado, la junta directiva de la empresa recibió un informe alarmante.
vea mas
Nestlé anuncia diversificación de la línea Chamyto Box en el Noreste
Próximamente, Vivo ofrecerá conexión 5G vía internet fija; ¡sepa mas!
En el documento, los investigadores señalaron que un programa de IA llamado Q*, o Q-Star, que se está desarrollando desarrollarse en paralelo, podría suponer un grave riesgo para la estabilidad de la humanidad en el futuro.
Según la agencia de noticias Reuters, que publicó esta información, Q* utiliza un amplio poder computacional para responder básicamente a preguntas matemáticas de nivel fundamental.
A primera vista, los investigadores que desarrollaron la tecnología estaban entusiasmados con la hecho de que puede responder preguntas en un tiempo relativamente corto y completamente autónomo.
Sin embargo, el peligro que representa esta nueva Inteligencia Artificial no reside en esta conceptualización básica. Después de todo, incluso las calculadoras simples pueden realizar operaciones matemáticas menos complicadas.
Lo que realmente alarmó a los expertos es la forma en que Q-Star responde a sus preguntas. En lugar de utilizar patrones de cálculo estáticos, como los códigos binarios de las calculadoras convencionales, la IA utiliza patrones únicos en cada respuesta que da.
En otras palabras, Q* puede dar varias respuestas diferentes a cada pregunta que se le plantea, lo que deja espacio para “invenciones” e incluso el suministro de datos engañosos.
(Imagen: Freepik/reproducción)
A pesar de los rumores actuales, este comportamiento observado en Q-Star no es nuevo en el mundo de la Inteligencia Artificial.
Otros chatbots inteligentes, incluido el tuyo ChatGPT, ya han sido “sorprendidos con las manos en la masa” en fallos derivados de su propio método de entrenamiento.
En términos generales, las IA están entrenadas para ser exactamente como un cerebro humano. Es decir, necesitan analizar la información que se les proporciona para intentar identificar patrones y trabajar en ellos. Es esta lógica la que nos permite a nosotros, los seres humanos, aprender y transmitir conocimientos.
Sin embargo, delegar ese poder de “razonamiento” a las máquinas podría sentar un precedente peligroso para una especie de “rebelión” contra la humanidad.
Esto se debe a que nada impide que una Inteligencia Artificial concluya, mediante un análisis de patrones cualquiera, que la humanidad es una amenaza, o que cierta persona necesita ser eliminada, por ejemplo.
Peor aún, los delincuentes pueden utilizar las IA para cometer delitos, interferir en decisiones políticas y comerciales, empañar la imagen de las personas, etc.
Para “ensuciar” la imagen de una determinada persona, simplemente proporcione a la IA información negativa sobre ese individuo. Por otro lado, los chatbots como ChatGPT pueden recibir instrucciones de alguna manera para influir en las personas para que se adhieran a tal o cual aspecto político.
A medida que la Inteligencia Artificial avanza y se extiende por todos los sectores de la sociedad, las preocupaciones en torno a su uso ético y pacífico deben estar en el centro del debate.
El objetivo de la IA debería ser impulsar a la humanidad a su siguiente nivel, no ayudar a los delincuentes ni servir como arma para desestabilizar aún más las relaciones humanas.
Licenciada en Historia y Tecnología de Recursos Humanos. Apasionado por la escritura, hoy vive el sueño de trabajar profesionalmente como redactor de contenido web, escribiendo artículos en diferentes nichos y formatos.