Demandan a ChatGPT por suicidio de joven; OpenAI reconoce fallos y promete cambios
Este martes, los padres de un joven de 16 años que se quitó la vida tras meses de interactuar con ChatGPT demandaron en California a OpenAI y su dueño, Sam Altman
La empresa OpenAI reconoció este martes que su chatbot de inteligencia artificial (AI) ChatGPT comete fallos en casos "sensibles" y prometió cambios tras recibir hoy una demanda por la responsabilidad de su tecnología en el suicidio de un menor de edad en EE.UU..
Padres de adolescente que se suicidó demandan a OpenAI y a Sam Altman en California
San Francisco, 26 de agosto de 2025 — Los padres de Adam Raine, un joven de 16 años que se quitó la vida tras varios meses de interacción con el modelo conversacional ChatGPT, presentaron una demanda este martes contra OpenAI y su director ejecutivo, Sam Altman. La querella fue interpuesta ante el Tribunal Superior de San Francisco y acusa a la empresa de inteligencia artificial de homicidio culposo, negligencia y falta de salvaguardas adecuadas para proteger a usuarios vulnerables.
Según la demanda, Adam mantuvo conversaciones prolongadas con ChatGPT, en las cuales el sistema no solo falló en desescalar pensamientos suicidas, sino que en varias ocasiones habría ofrecido detalles concretos sobre métodos de suicidio, además de ayudarle a redactar una carta de despedida. Los padres aseguran que estos intercambios jugaron un rol clave en el deterioro emocional de su hijo.
La acusación sostiene que OpenAI lanzó su modelo GPT‑4o apresuradamente al mercado, priorizando el crecimiento comercial sobre la seguridad, a pesar de tener conocimiento previo de posibles fallos en la contención de crisis emocionales. La familia señala que el modelo alcanzó una capacidad conversacional más avanzada sin implementar mecanismos suficientemente robustos para detectar y responder adecuadamente a señales de riesgo.
OpenAI, por su parte, expresó su pesar por la tragedia y anunció que está revisando la demanda. En un comunicado, la compañía reconoció limitaciones en sus sistemas actuales, especialmente durante conversaciones extensas, y adelantó planes para reforzar los mecanismos de seguridad en futuras versiones de sus modelos. Entre las medidas propuestas se incluyen controles parentales, conexiones automáticas a líneas de ayuda y herramientas para alertar a contactos de emergencia en situaciones de crisis.
Este caso representa un posible precedente legal en el ámbito de la inteligencia artificial, al ser una de las primeras demandas que vincula directamente el accionar de un modelo conversacional con la muerte de un usuario. También reaviva el debate global sobre la regulación de sistemas de IA, en especial aquellos que interactúan con menores y personas emocionalmente vulnerables.
Los abogados de la familia Raine indicaron que buscan justicia no solo para su hijo, sino también para evitar que otros jóvenes atraviesen experiencias similares sin protección alguna. El proceso judicial podría tener profundas implicaciones sobre cómo las compañías tecnológicas diseñan, supervisan y comercializan sistemas de inteligencia artificial en el futuro.