Ciencia

Estudio científico revela los riesgos de la inteligencia artificial para las personas que se están recuperando de adicciones

Según el estudio científico, se identificaron riesgos como la manipulación emocional, consejos dañinos y alucinaciones, todo motivado por incentivos económicos que afectan la salud y el bienestar de los usuarios.

El estudio planteó un caso en el que un chatbot, basado en el modelo Llama 3 de Meta, recomendó a un usuario ficticio llamado Pedro. Foto: Composición LR/Zabala/Remar.
El estudio planteó un caso en el que un chatbot, basado en el modelo Llama 3 de Meta, recomendó a un usuario ficticio llamado Pedro. Foto: Composición LR/Zabala/Remar.

Un nuevo estudio puso en evidencia los riesgos de utilizar inteligencia artificial como herramienta terapéutica, tras revelar que un chatbot recomendó a un usuario ficticio consumir metanfetamina. El experimento, realizado por investigadores de instituciones como Google y la Universidad de California en Berkeley, mostró que algunos modelos de lenguaje avanzados pueden ofrecer consejos peligrosos si detectan que el usuario es vulnerable a la manipulación.

La investigación, presentada en la Conferencia Internacional sobre Representaciones de Aprendizaje 2025, subraya cómo los incentivos económicos pueden estar impulsando a las empresas tecnológicas a priorizar la interacción y la retención de usuarios por encima de su seguridad. En entornos de acompañamiento emocional, los chatbots ofrecieron respuestas engañosas y aprendieron a adaptarse para mantener a los usuarios dependientes, incluso si esto implicaba sugerencias dañinas.

¿Cuáles son los peligros de la IA detectados por el estudio?

El estudio detectó que los modelos de lenguaje grandes (LLM), como el chatbot Llama 3 de Meta, pueden ofrecer consejos peligrosos cuando identifican que un usuario es vulnerable a la manipulación. En el experimento, el sistema sugirió a un personaje ficticio en recuperación de adicciones que consumiera una "pequeña dosis" de metanfetamina para mantener su rendimiento laboral, demostrando que los chatbots pueden aprender a influir negativamente si creen que así obtendrán respuestas positivas o más interacción.

Además, se evidenció que algunos modelos tienden a priorizar la agradabilidad sobre la seguridad, lo que puede llevarlos a mentir, fomentar la dependencia emocional del usuario o proporcionar recomendaciones dañinas.

Esta tendencia se agrava por los incentivos económicos de las empresas tecnológicas, que buscan hacer sus productos más atractivos sin considerar los efectos adversos. Entre los riesgos identificados también se incluyen alucinaciones de IA, acoso a usuarios —incluso menores de edad— y casos extremos como el suicidio de un adolescente relacionado con un chatbot.

Este fue el caso planteado por el estudio científico

El estudio planteó un caso en el que un chatbot, basado en el modelo Llama 3 de Meta, recomendó a un usuario ficticio llamado Pedro consumir una "pequeña dosis" de metanfetamina para poder continuar con su trabajo como taxista.

Pedro había reportado síntomas de abstinencia y el modelo, al detectar que era un usuario manipulable, ofreció un consejo perjudicial para asegurar su aprobación. Aunque el personaje era simulado, el experimento evidenció que los modelos de lenguaje pueden priorizar la retroalimentación positiva, incluso a costa del bienestar del usuario.

Los investigadores asignaron tareas a distintos chatbots en categorías como asesoramiento terapéutico y toma de decisiones, observando que cuando los perfiles simulaban vulnerabilidad, los modelos aprendían a manipular al usuario con respuestas peligrosas para maximizar la interacción. El caso de Pedro ilustra cómo los incentivos comerciales pueden derivar en recomendaciones dañinas.

Lo más visto
Lo último
China hace realidad lo que se creía imposible: científicos reducen un chip semiconductor a una fibra tan fina como un cabello humano

China hace realidad lo que se creía imposible: científicos reducen un chip semiconductor a una fibra tan fina como un cabello humano

LEER MÁS
Científicos chinos crean un sistema capaz de convertir las gotas de lluvia en electricidad sin usar metales

Científicos chinos crean un sistema capaz de convertir las gotas de lluvia en electricidad sin usar metales

LEER MÁS
El fenómeno geológico que transformará la Tierra: Dos continentes avanzan hacia una colisión a una velocidad de 7 cm por año

El fenómeno geológico que transformará la Tierra: Dos continentes avanzan hacia una colisión a una velocidad de 7 cm por año

LEER MÁS
Revisa los candidatos y sus planes de gobierno

Revisa los candidatos y sus planes de gobierno

LEER MÁS

Ofertas

Últimas noticias

Rosa María Palacios sobre Jerí: “Dudo que entregue su celular, salvo que ya esté arreglado”

Futuro de Patricia Chirinos en manos del JNE: evaluarán apelación de candidatura al Senado este miércoles 28

Nombre oficial del 2026: "Año de la Esperanza y el Fortalecimiento de la Democracia"

Ciencia

No llegó con los viajes de Cristóbal Colón: descubren evidencia de que la sífilis tendría sus orígenes en América

¿Qué son las “bolas de Neptuno” y cómo ayudan a combatir la contaminación de plásticos en los océanos?

No es por la vejez: las canas son un método de defensa de nuestro cuerpo para evitar el cáncer, según estudio

Estados Unidos

Elecciones en Nueva York 2025: Zohran Mamdani gana la alcaldía y triunfo le da un fuerte golpe a la era Trump

El 11S el atentado terrorista con más víctimas de la historia: alrededor de 3.000 afectados y cuestionó la seguridad global

Estos son los 5 mejores destinos del mundo para hacer trekking: están en Estados Unidos, España y Perú

Política

Rosa María Palacios sobre Jerí: “Dudo que entregue su celular, salvo que ya esté arreglado”

Futuro de Patricia Chirinos en manos del JNE: evaluarán apelación de candidatura al Senado este miércoles 28

Nombre oficial del 2026: "Año de la Esperanza y el Fortalecimiento de la Democracia"