Algunos científicos famosos, como el propio Stephen Hawking, ya han predicho los riesgos que la inteligencia artificial podría representar para los humanos. No solo Hawking, grandes empresarios del sector tecnológico también han expresado su preocupación por el avance de la IA.
Como ejemplo de esto, Steve Wozniak, cofundador de Apple, Elon Musk y cientos de otros magnates de la tecnología firmaron una carta para pedir cautela con los avances en esta área.
vea mas
Google desarrolla una herramienta de IA para ayudar a los periodistas en…
El iPhone original de 2007 sin abrir se vende por casi $200,000; saber...
Vea también: Hombre asegura haber escrito 100 libros con ayuda de inteligencia artificial
En definitiva, una de las premisas que señalan los alarmistas es que la inteligencia artificial podría desarrollarse hasta el punto de adquirir conciencia. Aunque ni la más fina filosofía sabe cómo definir exactamente qué es tal conciencia, se sabe que en esta etapa una máquina entendería quién es y cuál es su papel en el mundo.
Sería en este punto cuando la inteligencia artificial podría tomar malas actitudes hacia los humanos. Le bastaría con entender que las personas son un problema para la existencia del planeta y para la permanencia misma de las máquinas, por ejemplo.
Dan Hendrycks, director del Centro para la Seguridad de la IA, advirtió que existen "múltiples caminos" hacia los "riesgos a escala humana de la IA". Esto es según un artículo publicado por el periódico Daily Star.
El experto incluso dice que formas más avanzadas de inteligencia artificial “podrían ser utilizadas por actores maliciosos para diseñar nuevas armas biológicas que sean más letales que las pandemias naturales”.
Bueno, es innegable que esta sería una forma muy eficiente de exterminar a los seres humanos en la Tierra. Basta con mirar la reciente pandemia de Covid-19. Estas amenazas incluso existen dentro de varios laboratorios. Él mismo virus de la rabia, si sufriera una sola mutación, que la hiciera transmisible por el aire, acabaría con los seres humanos de forma rápida y eficaz.
En un mundo cada vez más conectado y digitalizado, es perfectamente razonable imaginar que una inteligencia artificial pueda ordenar materias primas para desarrollar un arma biológica letal.
Esta es la apuesta que hacen algunos especialistas, según el citado diario. Creen que sería una forma de preservar las máquinas mientras logran desarrollar las emociones humanas.
“Gracias a una revolución tecnológica en ingeniería genética, todas las herramientas necesarias para crear un virus se han vuelto tan baratas, simples y fácilmente disponibles para que cualquier científico deshonesto o biohacker en edad universitaria pueda usarlos, creando una amenaza aún mayor”, dijo Dan Hendrycks.
Por otro lado, hay analistas que no ven riesgos como los mencionados anteriormente. Para ellos es bastante complejo analizar que una inteligencia artificial sea capaz de evolucionar de manera similar a los procesos mentales humanos.
Según esta corriente de pensamiento, no sería una forma lógica de pensar en las mejores posibilidades. Para ello, los desarrolladores tendrían que crear un algoritmo que imite la forma de pensar y sentir de las personas, algo que actualmente está fuera de discusión.
Además, para estas personas, la inteligencia artificial se daría cuenta de que, para evitar problemas, lo mejor sería simplemente no existir. Así, no hay tendencia a sobrevivir como en animales, sino a buscar la forma de solucionar los problemas.