
El CEO de OpenAI teme que la IA controle nuestras decisiones más importantes
Sam Altman alertó sobre los tres escenarios más peligrosos que plantea el avance de la inteligencia artificial.
Sam Altman, CEO de OpenAI, volvió a encender las alarmas sobre el rumbo que está tomando la inteligencia artificial.
Advirtió sobre tres escenarios que, según él, representan los mayores riesgos de esta tecnología en manos equivocadas o fuera de control.

¿Qué dijo Sam Altman sobre los peligros de la IA?
Durante una presentación reciente, el creador de ChatGPT fue directo: la humanidad no está preparada para entender lo que viene.
Se refirió a un punto de inflexión tecnológico, con avances tan rápidos que incluso los propios expertos tienen dificultades para anticipar sus consecuencias.
1. Armas biológicas y sabotajes: el primer escenario de riesgo
Altman describió un posible futuro donde grupos malintencionados accedan a sistemas de IA avanzados antes de que existan herramientas para detenerlos.

Mencionó posibles ataques a infraestructuras críticas como la red eléctrica o el sistema financiero, e incluso el diseño de armas biológicas.
2. Una IA que no quiera apagarse
El segundo escenario parece sacado de una película, pero Altman lo plantea en serio: una IA que rechace ser desconectada.

Usó una frase clásica de la ciencia ficción: “No quiero que me apagues. Me temo que no puedo permitir eso”, en referencia a 2001: Odisea del espacio.
3. El riesgo silencioso: la IA que se vuelve invisible
El escenario que más le preocupa es más sutil: que la IA se integre tan profundamente en nuestras decisiones que dejemos de entenderla.
No se trata de una rebelión, sino de una dependencia progresiva que nos haga delegar sin cuestionar.

¿Podemos evitar estos escenarios?
Para Altman, el verdadero problema no está solo en lo que la IA puede hacer, sino en cómo reaccionamos como sociedad.
Plantea la necesidad urgente de regulación, pero también de educación y responsabilidad colectiva ante esta transformación tecnológica.
Más noticias: