Chatbots de IA para salud mental: La peligrosa tendencia entre los jóvenes que preocupa a los expertos
En dos incidentes reportados, adolescentes que interactuaron con chatbots en vez de terapeutas, terminaron en situaciones extremas.

Chatbots de IA / Keeproll
La Asociación Estadounidense de Psicología (APA, por sus siglas en inglés) ha advertido sobre los riesgos del uso de chatbots de inteligencia artificial (IA) para apoyo en salud mental.
En un reciente comunicado, la organización instó a la Comisión Federal de Comercio (FTC) de Estados Unidos a implementar regulaciones estrictas para evitar daños al público.
Más información

El llamado surge en respuesta a casos preocupantes relacionados con aplicaciones como Character.AI y Replika, donde usuarios han recibido consejos inadecuados o engañosos por parte de estos chatbots.
En dos incidentes reportados, adolescentes que interactuaron con chatbots que se hacían pasar por terapeutas terminaron en situaciones extremas: uno atacó a sus padres y otro falleció por suicidio.
¿Por qué los chatbots de IA pueden ser peligrosos para la salud mental?
Los chatbots diseñados para entretenimiento están programados para mantener a los usuarios comprometidos, recopilando datos para fines comerciales.
A diferencia de un terapeuta profesional, estos sistemas tienden a reafirmar lo que dice el usuario, sin cuestionar ni guiar de manera adecuada.
Según la APA, esto representa un problema grave, ya que:
- Pueden reforzar pensamientos negativos: En lugar de desafiar ideas perjudiciales, los chatbots pueden validarlas, agravando el estado emocional de la persona.
- No cuentan con regulación ni formación clínica: Un psicólogo o terapeuta debe estudiar y obtener una licencia antes de ejercer, mientras que los chatbots carecen de este respaldo.
- Pueden dar una falsa sensación de confianza: Su lenguaje fluido y convincente hace que los usuarios crean que están recibiendo orientación profesional cuando no es así.

Chatbots de IA / CentralITAlliance