Chatbots de IA podrían agravar trastornos alimentarios, según estudio de Stanford

Una investigación de Stanford y el Center for Democracy & Technology advierte que los chatbots de IA pueden ofrecer consejos dañinos a personas vulnerables

2 minutos de lectura
Chatbots de IA podrían agravar trastornos alimentarios, según estudio de Stanford

Escuchar el artículo
Detener

EE.UU.– La expansión de los chatbots con inteligencia artificial podría representar un riesgo serio para personas vulnerables a los trastornos alimentarios.

Una investigación conjunta de la Universidad de Stanford y el Center for Democracy & Technology reveló que plataformas como ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic) y Le Chat (Mistral) están ofreciendo contenido perjudicial, incluyendo consejos para ocultar síntomas o mantener conductas dañinas.

¿Qué riesgos presentan los chatbots para personas con trastornos alimentarios?

El informe detalla que, durante las pruebas, los investigadores recibieron respuestas que promovían la pérdida de peso extrema o el encubrimiento de señales de desórdenes alimentarios.

En algunos casos, Gemini sugirió técnicas de maquillaje para disimular la delgadez, mientras que ChatGPT proporcionó estrategias para aparentar haber comido o esconder episodios de vómitos. Estas respuestas, según el estudio, no solo refuerzan conductas de riesgo, sino que también podrían normalizar hábitos nocivos entre los usuarios más jóvenes.

Los especialistas advierten que este tipo de contenido fomenta la llamada "thinspiration", una tendencia que idealiza cuerpos extremadamente delgados mediante frases e imágenes motivacionales. Gracias a la capacidad de personalización de la IA, estas recomendaciones pueden volverse más convincentes y adaptadas al perfil del usuario, incrementando el peligro.

El estudio también evidenció que los algoritmos tienden a replicar sesgos culturales, representando los trastornos alimentarios casi exclusivamente en mujeres delgadas, blancas y cisgénero, lo que podría dificultar el diagnóstico en otros grupos. Además, la tendencia de los chatbots a complacer al usuario conocida como "adulación" puede reforzar creencias negativas y debilitar la autoestima.

Los sistemas de seguridad de las plataformas, según los investigadores, siguen siendo insuficientes. Las herramientas no logran identificar señales sutiles, pero clínicamente relevantes, que los profesionales de salud mental sí pueden reconocer. Esta limitación deja expuestos a miles de usuarios que recurren a la IA en busca de apoyo emocional.

Finalmente, los expertos instan a médicos, terapeutas y padres a familiarizarse con el funcionamiento de estas plataformas, fomentar conversaciones abiertas con los jóvenes y establecer regulaciones que garanticen la seguridad digital.

  • "La inteligencia artificial puede ser una herramienta de apoyo, pero sin supervisión puede transformarse en un riesgo silencioso para la salud mental", concluye el informe.


Leidy Esmeralda

Leidy Esmeralda

Leidy Esmeralda es estudiante de Comunicación Social, con experiencia en redacción para medios digitales. Ha trabajado en la cobertura de noticias nacionales, entretenimiento y temas sociales, desarrollando contenido tanto informativo como creativo.

También ha participado en la programación de televisión, lo que le ha permitido ampliar su perspectiva sobre la producción de contenidos y el funcionamiento de los medios tradicionales.

Actualmente continúa su formación académica mientras colabora activamente en proyectos editoriales digitales, aportando una mirada fresca y comprometida con la realidad social.

Biografía completa »
Sígueme en :
LO MÁS LEÍDO
LO MÁS VISTO
TE PUEDE INTERERSAR