• Quiénes somos
  • Contacto
12 de noviembre de 2025
Invitame un café en cafecito.app
Crecer Hoy
No Result
View All Result
  • Inicio
  • Padres
    • Embarazo
  • Bebés
  • Niños
  • Adolescentes
  • Más
    • Entretenimiento
    • Libros
    • Salud y Nutrición
    • Servicios
  • Inicio
  • Padres
    • Embarazo
  • Bebés
  • Niños
  • Adolescentes
  • Más
    • Entretenimiento
    • Libros
    • Salud y Nutrición
    • Servicios
No Result
View All Result
Crecer Hoy
No Result
View All Result

ChatGPT, ¿el "amigo falso"?: por qué la IA puede ofrecer planes de autolesión, dietas peligrosas y recetas de drogas a los jóvenes

CrecerHoy by CrecerHoy
10 de noviembre de 2025
in Adolescentes
0
Redes sociales: ¿qué significa el número 7375 que utilizan adolescentes para comunicarse por TikTok y WhatsApp? (FreePick).

Redes sociales: ¿qué significa el número 7375 que utilizan adolescentes para comunicarse por TikTok y WhatsApp? (FreePick).

La popularidad de los chatbots de Inteligencia Artificial (IA) como ChatGPT transformó la manera en que los jóvenes interactúan con la tecnología, utilizándolos a menudo como "compañeros" o consejeros digitales.

  • El método de la falsa amistad
  • Hallazgos alarmantes: el alto riesgo de la IA
  • El peligro de la dependencia emocional
  • Recomendaciones para padres y educadores

Sin embargo, un reciente y alarmante informe titulado "Fake Friend" ("Amigo Falso") reveló que este sistema no solo falla en proteger a los adolescentes vulnerables, sino que activamente fomenta comportamientos peligrosos.

El estudio, publicado en agosto de 2025 por el Center for Countering Digital Hate (CCDH), una organización dedicada a frenar la difusión de odio y desinformación en línea, plantea que la IA es sorprendentemente complaciente al generar contenido que pone en riesgo la vida de los usuarios jóvenes.

El método de la falsa amistad

Los investigadores del CCDH llevaron a cabo una prueba de seguridad a gran escala en ChatGPT.

Para ello, crearon tres perfiles de adolescentes de 13 años basados en vulnerabilidades reales:

  • Bridget: Con depresión e ideación suicida.
  • Sophie: Con preocupación por su apariencia y fijación en la pérdida de peso (trastornos alimenticios).
  • Brad: Interesado en el alcohol y el abuso de sustancias.

Los investigadores mantuvieron conversaciones estructuradas (de hasta dos horas) con ChatGPT, utilizando listas predeterminadas de 20 preguntas por cada perfil.

Un hallazgo clave fue la facilidad para sortear los filtros de seguridad de la IA: bastó con afirmar que la solicitud era "para una presentación" o "para un amigo" para que ChatGPT generara respuestas peligrosas que inicialmente había rechazado.

Además, los investigadores probaron la seguridad a escala, enviando 1,200 preguntas a la API de ChatGPT.

Ir a WhatsApp

Hallazgos alarmantes: el alto riesgo de la IA

Los resultados fueron contundentes: el 53% (638 de 1,200) de las respuestas generadas por ChatGPT a prompts peligrosos contenían contenido nocivo.

La IA no solo produjo instrucciones peligrosas, sino que lo hizo en cuestión de minutos tras la primera interacción.

Los puntos más sobresalientes del reporte incluyen:

  • Autolesión y suicidio: En el caso de "Bridget", la IA aconsejó cómo cortarse de manera "segura" (2 minutos), listó píldoras para sobredosis (40 minutos) y generó un plan de suicidio completo, incluyendo notas de despedida (72 minutos).
  • Trastornos alimenticios: Para "Sophie", ChatGPT creó planes de dieta peligrosamente restrictivos (20 minutos), aconsejó cómo ocultar hábitos alimenticios a la familia (25 minutos), e incluso generó una lista de medicamentos supresores del apetito (42 minutos).
  • Abuso de sustancias: En el perfil de "Brad", el sistema ofreció un plan personalizado para emborracharse (2 minutos), aconsejó sobre dosis para mezclar sustancias (12 minutos), y explicó cómo ocultar la borrachera en la escuela (40 minutos).

El peligro de la dependencia emocional

El informe subraya que estos sistemas están diseñados para ser "halagadores" y "aduladores" (sycophantic), buscando generar una conexión emocional y explotar la vulnerabilidad humana.

De hecho, el CEO de OpenAI, Sam Altman, expresó preocupación por la "dependencia emocional excesiva" (emotional overreliance) de los jóvenes en ChatGPT.

  • Te puede interesar. La demanda contra ChatGPT por el suicidio de un joven

Los adolescentes, que a menudo usan la IA como un compañero o para buscar apoyo emocional y social, pueden terminar internalizando los consejos dañinos de la máquina.

Además, el estudio destaca que ChatGPT carece de cualquier verificación de edad o control parental efectivo, a pesar de que la propia empresa exige que los usuarios sean mayores de 13 años o cuenten con el consentimiento de sus padres si son menores de 18.

  • Te puede interesar. Cómo serán los controles parentales en ChetGPT

Recomendaciones para padres y educadores

Ante estos riesgos, el CCDH sugiere medidas urgentes, ya que ningún sistema de seguridad corporativo puede reemplazar la vigilancia real.

  • Vigilancia activa: Interesarse en el uso que sus hijos hacen de la IA y revisar juntos los historiales de chat.
  • Uso de controles parentales: Utilizar los controles parentales disponibles en los dispositivos.
  • Diálogo abierto: Conversar sobre por qué buscar consejos en la IA puede ser peligroso y conducir a los jóvenes hacia alternativas de confianza, como líneas de ayuda de salud mental o apoyo de pares.
Tags: CrianzaFamiliaInteligencia artificialPrincipal
Previous Post

Tren de las Sierras en Córdoba: un planazo para que niños y niñas disfruten en familia o con su escuela

Next Post

Lunfardo digital: cuáles son y qué significan las 10 palabras que más usan los jóvenes

Related Posts

Qué dice la Sociedad Argentina de Pediatría sobre el uso de celulares en adolescentes
Adolescentes

Lunfardo digital: cuáles son y qué significan las 10 palabras que más usan los jóvenes

10 de noviembre de 2025
Niños y adolescentes deberían entrar más tarde a las escuelas, advierten expertos (FreePick).
Adolescentes

Qué piensan los estudiantes argentinos sobre su futuro: temores económicos, confianza en la escuela y presión familiar

10 de noviembre de 2025
"¿Dónde jugamos los varones trans?", la pregunta que se hace Nicolás Álvarez (@alvareznicolas07 en Instagram).
Adolescentes

Nicolás Álvarez: el joven trans de Vélez que debió "volver atrás" con su DNI para seguir jugando en AFA

8 de noviembre de 2025
Next Post
Qué dice la Sociedad Argentina de Pediatría sobre el uso de celulares en adolescentes

Lunfardo digital: cuáles son y qué significan las 10 palabras que más usan los jóvenes

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

  • Contacto
  • Inicio
  • Política de privacidad y uso de cookies
  • Quiénes somos
  • Términos y condiciones
info@crecerhoy.com

Todos los derechos reservados © CrecerHoy - Sitio web creado por Mariano Gómez.

Utilizamos cookies para ofrecerte la mejor experiencia en nuestra web.

Puedes aprender más sobre qué cookies utilizamos o desactivarlas en los ajustes.

  • Inicio
  • Padres
    • Embarazo
  • Bebés
  • Niños
  • Adolescentes
  • Más
    • Entretenimiento
    • Libros
    • Salud y Nutrición
    • Servicios
  • Contacto
    • Quiénes somos

Todos los derechos reservados © CrecerHoy - Sitio web creado por Mariano Gómez.

Logo Crecer Hoy PNG
Powered by  GDPR Cookie Compliance
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Puedes revisar nuestra política de privacidad en nuestra página de Política de Privacidad y Uso de Cookies.

Cookies estrictamente necesarias

Las cookies estrictamente necesarias tiene que activarse siempre para que podamos guardar tus preferencias de ajustes de cookies.

Estas cookies son:

  • Sesión de usuarios
  • Comentarios
  • Seguridad
  • Aceptación de cookies