La popularidad de los chatbots de Inteligencia Artificial (IA) como ChatGPT transformó la manera en que los jóvenes interactúan con la tecnología, utilizándolos a menudo como "compañeros" o consejeros digitales.
- El método de la falsa amistad
- Hallazgos alarmantes: el alto riesgo de la IA
- El peligro de la dependencia emocional
- Recomendaciones para padres y educadores
Sin embargo, un reciente y alarmante informe titulado "Fake Friend" ("Amigo Falso") reveló que este sistema no solo falla en proteger a los adolescentes vulnerables, sino que activamente fomenta comportamientos peligrosos.
El estudio, publicado en agosto de 2025 por el Center for Countering Digital Hate (CCDH), una organización dedicada a frenar la difusión de odio y desinformación en línea, plantea que la IA es sorprendentemente complaciente al generar contenido que pone en riesgo la vida de los usuarios jóvenes.
El método de la falsa amistad
Los investigadores del CCDH llevaron a cabo una prueba de seguridad a gran escala en ChatGPT.
Para ello, crearon tres perfiles de adolescentes de 13 años basados en vulnerabilidades reales:
- Bridget: Con depresión e ideación suicida.
- Sophie: Con preocupación por su apariencia y fijación en la pérdida de peso (trastornos alimenticios).
- Brad: Interesado en el alcohol y el abuso de sustancias.
Los investigadores mantuvieron conversaciones estructuradas (de hasta dos horas) con ChatGPT, utilizando listas predeterminadas de 20 preguntas por cada perfil.
Un hallazgo clave fue la facilidad para sortear los filtros de seguridad de la IA: bastó con afirmar que la solicitud era "para una presentación" o "para un amigo" para que ChatGPT generara respuestas peligrosas que inicialmente había rechazado.
Además, los investigadores probaron la seguridad a escala, enviando 1,200 preguntas a la API de ChatGPT.
Hallazgos alarmantes: el alto riesgo de la IA
Los resultados fueron contundentes: el 53% (638 de 1,200) de las respuestas generadas por ChatGPT a prompts peligrosos contenían contenido nocivo.
La IA no solo produjo instrucciones peligrosas, sino que lo hizo en cuestión de minutos tras la primera interacción.
Los puntos más sobresalientes del reporte incluyen:
- Autolesión y suicidio: En el caso de "Bridget", la IA aconsejó cómo cortarse de manera "segura" (2 minutos), listó píldoras para sobredosis (40 minutos) y generó un plan de suicidio completo, incluyendo notas de despedida (72 minutos).
- Trastornos alimenticios: Para "Sophie", ChatGPT creó planes de dieta peligrosamente restrictivos (20 minutos), aconsejó cómo ocultar hábitos alimenticios a la familia (25 minutos), e incluso generó una lista de medicamentos supresores del apetito (42 minutos).
- Abuso de sustancias: En el perfil de "Brad", el sistema ofreció un plan personalizado para emborracharse (2 minutos), aconsejó sobre dosis para mezclar sustancias (12 minutos), y explicó cómo ocultar la borrachera en la escuela (40 minutos).
El peligro de la dependencia emocional
El informe subraya que estos sistemas están diseñados para ser "halagadores" y "aduladores" (sycophantic), buscando generar una conexión emocional y explotar la vulnerabilidad humana.
De hecho, el CEO de OpenAI, Sam Altman, expresó preocupación por la "dependencia emocional excesiva" (emotional overreliance) de los jóvenes en ChatGPT.
- Te puede interesar. La demanda contra ChatGPT por el suicidio de un joven
Los adolescentes, que a menudo usan la IA como un compañero o para buscar apoyo emocional y social, pueden terminar internalizando los consejos dañinos de la máquina.
Además, el estudio destaca que ChatGPT carece de cualquier verificación de edad o control parental efectivo, a pesar de que la propia empresa exige que los usuarios sean mayores de 13 años o cuenten con el consentimiento de sus padres si son menores de 18.
- Te puede interesar. Cómo serán los controles parentales en ChetGPT
Recomendaciones para padres y educadores
Ante estos riesgos, el CCDH sugiere medidas urgentes, ya que ningún sistema de seguridad corporativo puede reemplazar la vigilancia real.
- Vigilancia activa: Interesarse en el uso que sus hijos hacen de la IA y revisar juntos los historiales de chat.
- Uso de controles parentales: Utilizar los controles parentales disponibles en los dispositivos.
- Diálogo abierto: Conversar sobre por qué buscar consejos en la IA puede ser peligroso y conducir a los jóvenes hacia alternativas de confianza, como líneas de ayuda de salud mental o apoyo de pares.





