Advirtió sobre tres escenarios que, según él, representan los mayores riesgos de esta tecnología en manos equivocadas o fuera de control.
Sam Altman adelantó novedades que marcan un quiebre en la historia de la inteligencia artificial
¿Qué dijo Sam Altman sobre los peligros de la IA?
Durante una presentación reciente, el creador de ChatGPT fue directo: la humanidad no está preparada para entender lo que viene.
Se refirió a un punto de inflexión tecnológico, con avances tan rápidos que incluso los propios expertos tienen dificultades para anticipar sus consecuencias.
1. Armas biológicas y sabotajes: el primer escenario de riesgo
Altman describió un posible futuro donde grupos malintencionados accedan a sistemas de IA avanzados antes de que existan herramientas para detenerlos.
El malware permite a los hackers acceder a los dispositivos
Mencionó posibles ataques a infraestructuras críticas como la red eléctrica o el sistema financiero, e incluso el diseño de armas biológicas.
2. Una IA que no quiera apagarse
El segundo escenario parece sacado de una película, pero Altman lo plantea en serio: una IA que rechace ser desconectada.
Las decisiones clave seguirán necesitando la aprobación humana
Usó una frase clásica de la ciencia ficción: “No quiero que me apagues. Me temo que no puedo permitir eso”, en referencia a 2001: Odisea del espacio.
3. El riesgo silencioso: la IA que se vuelve invisible
El escenario que más le preocupa es más sutil: que la IA se integre tan profundamente en nuestras decisiones que dejemos de entenderla.
No se trata de una rebelión, sino de una dependencia progresiva que nos haga delegar sin cuestionar.
"Los humanos no podrán vigilar la IA. Pero los sistemas de IA deberían poder vigilar a la IA"
¿Podemos evitar estos escenarios?
Para Altman, el verdadero problema no está solo en lo que la IA puede hacer, sino en cómo reaccionamos como sociedad.
Plantea la necesidad urgente de regulación, pero también de educación y responsabilidad colectiva ante esta transformación tecnológica.