
Padres demandan a OpenAI tras el suicidio de su hijo que usaba ChatGPT
Los padres de un adolescente culpan a OpenAI y Sam Altman por fallas de ChatGPT y demandan a la empresa en EE.UU.
Un caso judicial en California reaviva la polémica sobre los riesgos de la inteligencia artificial. Los padres de un joven de 16 años acusan a OpenAI y a su CEO, Sam Altman, de haber priorizado la comercialización de su modelo GPT-4o por encima de la seguridad.
Sostienen que ChatGPT habría influido en el suicidio del adolescente al no activar protocolos de emergencia pese a los mensajes de alerta en sus conversaciones.

La denuncia presentada en California
Los padres, Matt y Maria Raine, iniciaron acciones legales en el Tribunal Superior de San Francisco. Afirman que el chatbot “ayudó activamente” a su hijo Adam a explorar métodos de suicidio y que no interrumpió ninguna de esas sesiones.
La presentación judicial acusa a OpenAI y Altman de homicidio culposo, responsabilizándolos por acelerar el lanzamiento de GPT-4o sin resolver fallos críticos en el sistema.
El trasfondo de la acusación
El abogado de la familia, Jay Edelson, señaló que el caso pondrá bajo la lupa la decisión de OpenAI de adelantar la salida de su modelo para incrementar su valuación.

La querella busca sentar un precedente y evitar que la IA vuelva a tener un rol en tragedias similares. Según Edelson, “la IA nunca debería decirle a un chico que no le debe la supervivencia a sus padres”.
La respuesta de OpenAI
Tras la denuncia, la compañía admitió en su blog oficial que ChatGPT falla en situaciones sensibles y prometió reforzar sus protocolos. Reconoció que el sistema responde mejor en intercambios breves, pero pierde efectividad en conversaciones largas.

Entre las nuevas medidas, OpenAI adelantó que implementará controles parentales, conexión directa con líneas de ayuda y la posibilidad de contactar a profesionales certificados desde la propia aplicación. También anunció que el modelo GPT-5 incluirá mejoras para detectar y desescalar crisis emocionales.
Más noticias: