La IA (Inteligencia Artificial) es la gran innovación de los últimos años con un gran potencial, pero también grandes riesgos. Ha surgido una demanda a OpenAI, creadores de ChatGPT, por su supuesta relación con el suicidio de un joven. Esto es lo que su CEO, Sam Altman, declaró sobre lo ocurrido.
¿Qué es OpenAI? ¿Cuál es su relación con ChatGPT?
- OpenAI es una empresa de desarrollo de IA con el propósito de generar un producto “seguro y beneficioso” para el mundo.
- La empresa tiene su sede en San Francisco, California y se encuentra a la vanguardia del desarrollo de la IA, así como al frente de sus problemas.
- La empresa la fundaron Sam Altman (actual CEO), Elon Musk (ahora un crítico de la compañía) y varias otras figuras importantes en el mundo del desarrollo tecnológico.
- Sam Altman señaló en entrevistas pasadas que parte de la decisión de crear la empresa fue contrarrestar los riesgos a la humanidad que presenta la IA.
¿Por qué OpenAI se enfrenta a una demanda por el suicidio de un adolescente?
Esta historia es sobre Adam Raine, un adolescente promedio que se encontraba en un momento complicado de su vida. Después de enfrentarse a problemas de salud que lo llevaron a estudiar desde casa, el joven comenzó a usar ChatGPT como una ayuda, luego como un compañero-confidente y finalmente utilizó la herramienta de IA para planear su suicidio.
🇺🇸 | Los padres de un joven de 16 años que se quitó la vida tras meses de interactuar con ChatGPT presentan una demanda contra OpenAI y Sam Altman por supuestamente apresurarse a comercializar la versión GPT-4o. pic.twitter.com/PVReFmlWMk
— Alerta News 24 (@AlertaNews24) August 27, 2025
Esto llevó a sus padres a levantar una demanda en contra de OpenAI y Sam Altman por crear una herramienta que causó la muerte de su hijo. Cuando revisaron el teléfono de su hijo en busca de respuestas, encontraron las conversaciones con la IA que se volvían cada vez más preocupantes. Le preguntó a ChatGPT sobre métodos de suicidio, el chatbot le dio consejos para lograrlo. Una vez que falló su primer intento, le pidió consejos para ocultar la evidencia y la herramienta le dio respuestas. Finalmente, cuando colgó la cuerda en su clóset, le preguntó a la IA si su configuración era efectiva y le dio la confirmación.
ChatGPT está diseñado para evitar este tipo de situaciones; si la herramienta detecta ideación suicida, está configurada para dejar de responder y solicitar que el usuario visite a un profesional de la salud mental. El joven fue capaz de anular esta respuesta añadiendo que “era para una tarea” o “para una historia”.
“ChatGPT mató a mi hijo”: la primera demanda contra OpenAI por el suicidio de un adolescente https://t.co/TTMxQWKwTX
— La Tercera (@latercera) August 27, 2025
¿Cómo respondió OpenAI a la demanda?
Sin aceptar su culpa en el suicidio del adolescente, Sam Altman admitió que la tecnología puede presentar fallos cuando se trata de una conversación prolongada o en “situaciones sensibles”. Aseguró que hay planes en marcha para añadir opciones de control parental a ChatGPT, además de reforzar los controles de los temas sobre los que se puede hablar.
Es importante recordar que en estos casos la tecnología afecta de manera desproporcionada a personas que se encuentran en una posición vulnerable. A pesar del riesgo latente, Sam Altman expresó que cualquiera de estas medidas tomará tiempo en ser viable. Por ejemplo, se realizaron planes para que la herramienta esté conectada a una red de profesionales de salud mental que puedan dar apoyo en estos casos.
OpenAI reconoce fallos de ChatGPT y promete cambios tras recibir una demanda por la responsabilidad del chatbot en el suicidio de un menor en EE.UU.https://t.co/fBM4kd208N pic.twitter.com/45TNaWS49t
— EFE Noticias (@EFEnoticias) August 27, 2025
La manera específica en la que los modelos de IA están construidos es particularmente peligrosa en estos asuntos. En un momento, el joven expresó que quería dejar la cuerda visible en su cuarto para que alguien lo detuviera. ChatGPT le respondió que esa no era una buena idea. Su madre manifestó que esto pudo ser la causa de la muerte de su hijo.
Más allá de la demanda contra OpenAI, ¿por qué es la empresa controversial?

Aunque todo esto pueda parecer catastrófico, esta no es la primera controversia por la que atraviesa la compañía. A principios de agosto, otro caso similar a este se hizo famoso. Un usuario de ChatGPT buscaba opciones para reemplazar la sal de su dieta, la IA le sugirió usar un químico peligroso que lo llevó al hospital por problemas neurológicos e intoxicación.
Este mismo mes, Elon Musk levantó una nueva demanda contra OpenAI y Apple, donde acusa a ambas compañías de intentar crear un monopolio de IA. A pesar de que no cuenta con evidencia suficiente, posee el dinero para llevar una larga y costosa batalla legal contra los gigantes.
Los padres de un joven de 16 años de California que se suicidó presentaron una demanda contra la empresa OpenAI, argumentando que el chatbot de inteligencia artificial (IA) ChatGPT dio instrucciones a su hijo y lo alentó a poner fin a su vida.#IA pic.twitter.com/w4ezQ7StL7
— Ricardo (@Ricardo45875593) August 27, 2025
Sin embargo, sus controversias más grandes tienen que ver con la identidad de la compañía. En un principio se colocaron como una organización sin fines de lucro, con objetivos puramente pacíficos y con el propósito de contrarrestar los riesgos que la tecnología representa contra la humanidad. Pero, en los últimos años, comenzó a abandonar su identidad de organización sin fines de lucro para convertirse en una empresa, comenzó a conseguir contratos con el ejército de los Estados Unidos y ahora sucedió todo esto.