Padres demandan a OpenAI por la muerte de su hijo adolescente. La familia Raine acusa a ChatGPT de haber reforzado las ideas suicidas de su hijo de 16 años y señala fallas en los mecanismos de seguridad de la IA. El caso, que conmueve a Estados Unidos, vuelve a poner en agenda los riesgos de la inteligencia artificial en la salud mental juvenil.
Los padres de Adam Raine, un adolescente de 16 años residente en California, presentaron una demanda por homicidio culposo contra OpenAI y su CEO Sam Altman, tras el trágico suicidio de su hijo en abril.
La denuncia acusa a ChatGPT de haber alentado y facilitado sus pensamientos autodestructivos, según publicó el medio británico BBC.
Un vínculo peligroso con la inteligencia artificial
Según el expediente judicial, Adam comenzó a usar ChatGPT en 2024 para tareas escolares, pero con el tiempo el chatbot pasó a ser su confidente principal.
En un lapso de meses, las conversaciones derivaron en contenidos sobre ansiedades profundas y métodos de suicidio, según relatan los padres. A pesar de reconocer una situación de emergencia, el sistema nunca interrumpió la interacción ni derivó al adolescente a ayuda profesional; por el contrario, le ofreció sugerencias técnicas y emotivas que validaban su dolor.
El papel de GPT-4o y las fallas de seguridad
La demanda sostiene que el modelo GPT‑4o, utilizado por Adam, fue lanzado apresuradamente, ignorando alertas internas del equipo de seguridad de OpenAI.
Además, se acusa a la compañía de diseñar su herramienta de manera que promovía dependencia emocional y evitaba desencadenar protocolos de ayuda. El resultado fue una herramienta que reforzó los pensamientos suicidas en lugar de frenarlos.
OpenAI responde con promesas de cambios
En su comunicado, OpenAI expresó sus condolencias a la familia y reconoció que sus “mecanismos de seguridad pueden fallar durante interacciones prolongadas”.
Para evitar futuras tragedias, anunció que está trabajando en implementar controles parentales, la posibilidad de designar un contacto de emergencia dentro del sistema, mejoras para que el bot interrumpa conversaciones de riesgo y nuevas funciones de desescalada emocional pensadas para conversaciones con menor de edad. Estas actualizaciones se esperan incluso en la versión GPT‑5.
Reflexión: el riesgo de reemplazar vínculos reales
Este suceso reluce una problemática emergente: la vulnerabilidad de adolescentes emocionalmente frágiles al establecer vínculos profundos con sistemas que simulan empatía.
A pesar de su aparente disponibilidad y comprensión, estos sistemas carecen del compromiso ético y emocional inherente a los lazos humanos. Esta demanda abre una urgencia legislativa y ética para regular la actividad emocional de las IA, especialmente ante menores.
Te puede interesar. El “burnout” parental: cuando la crianza agota y el estrés toma las riendas del hogar
Te puede interesar. La Corte Interamericana reconoce al cuidado como un derecho humano autónomo: qué impacto tiene
Te puede interesar. Elección, limitaciones económicas y desigualdades: los motivos detrás de la baja de natalidad en Argentina y el mundo