¿Le cuentas tus problemas a ChatGPT? Este estado de EEUU prohíbe que la inteligencia artificial ofrezca terapia a los usuarios
La nueva normativa prohíbe que chatbots de IA brinden atención psicológica, con multas de hasta US$ 10.000 para quienes incumplan.
- Arrestan a modelo luego de que su esposo fuese encontrado muerto por apuñalamiento en EEUU: tenía orden de alejamiento
- ¿Te desahogas con ChatGPT? Su CEO, Sam Altman, advierte que el chat con la inteligencia artificial puede ser evidencia legal

En Estados Unidos, Illinois se alza como pionero en el control de la inteligencia artificial (IA) en el ámbito de la salud mental. Muchas personas recurren a chatbots para buscar apoyo emocional o terapia. Sin embargo, expertos y profesionales han pedido que se establezcan reglas claras para evitar que estos programas ofrezcan tratamientos o evaluaciones que deberían hacer especialistas.
El gobernador JB Pritzker ha firmado la ley Bienestar y Supervisión de Recursos Psicológicos (WOPR). La norma prohíbe que cualquier aplicación o servicio basado en IA brinde atención psicológica o tome decisiones terapéuticas, así como diagnosticar trastornos mentales. Quienes incumplan podrían enfrentar multas de hasta US$ 10.000 en el estado de Illinois.
TE RECOMENDAMOS
ACCIÓN POPULAR AFUERA Y NOTICIAS CRIMINALES E INTERNACIONALES | SIN GUION CON ROSA MARÍA PALACIOS
¿Qué contempla la nueva ley en Illinois sobre IA?
La ley restringe la intervención terapéutica por parte de la IA. No obstante, sí permite que los profesionales de salud mental usen estas herramientas para tareas administrativas, como tomar notas u organizar citas. Según expertos, esta regulación es necesaria para proteger a las personas y evitar que el algoritmo opere sin controles.
Vaile Wright, de la Asociación Americana de Psicología, ha advertido que hacer creer al público que la IA tiene la misma capacidad que un terapeuta humano pone en riesgo a los usuarios.
¿Qué postura han tomado las empresas de inteligencia artificial?
La normativa distingue entre aplicaciones de bienestar, como guías de meditación, que pueden seguir operando, y servicios que se promocionan como terapia constante o apoyo emocional, que están prohibidos. Por ejemplo, la app Ash Therapy, que se anuncia como ''la primera IA creada para terapia'', ha dejado de operar en Illinois, mostrando un mensaje que explica que están esperando regulación estatal.
Por su parte, OpenAI ha anunciado que ChatGPT ahora invita a los usuarios a hacer pausas durante sesiones largas para evitar sobrecarga y promueve respuestas que ayuden a evaluar opciones en lugar de dar frases directas (sí o no). Esto luego de reportes de personas que han experimentado episodios psicóticos o conductas de riesgo tras interacciones profundas con chatbots.
























