Hombre sufre graves alucinaciones tras seguir consejo médico de ChatGPT: remplazó la sal con bromuro de sodio
El caso, documentado en Annals of Internal Medicine, es un ejemplo de que no es recomendable utilizar la inteligencia artificial para tratar temas científicos.
- Científicos descubren genes 'que provienen de la nada' y que podrían explicar el origen de ciertos cánceres
- Científicos descubren que los residuos del café molido pueden mejorar la dureza del cemento de construcción

Un hombre de 60 años fue hospitalizado por intoxicación, tras presentar síntomas de alucinaciones, paranoia extrema y confusión mental, a causa de ingerir bromuro de sodio, un químico no aprobado para el consumo humano. Según las declaraciones del hombre, ChatGPT le recomendó sustituirlo por cloruro de sodio, pero no especificó que se refería a contextos industriales o químicos.
A pesar de contar con signos vitales normales, los análisis revelaron alteraciones en su equilibrio químico, además de signos de desnutrición y una dieta estricta. El paciente llegó a la sala asegurando que había sido envenenado por su vecino.
El caso, documentado en la revista médica Annals of Internal Medicine, muestra que ChatGPT y otras inteligencias artificiales pueden ser imprecisas en el campo científico. Aunque la IA hizo algunas advertencias sutiles, nunca advirtió de forma clara sobre los peligros que representa el bromuro de sodio ni preguntó por el contexto, como lo haría un profesional de la salud.
Experimento con bromuro de sodio basado en un consejo de ChatGPT termina en hospitalización
El hombre, cuya identidad se desconoce, llevó a cabo un 'experimento personal' durante tres meses. A pesar de tener experiencia y estudios en nutrición, decidió consumir bromuro en lugar de sal, lo que provocó una acumulación tóxica en su organismo.
Mientras estaba en el hospital, el hombre de 60 años comenzó a presentar síntomas más graves y fue internado en una unidad psiquiátrica tras intentar escapar y presentar problemas de audición y visión. Fue tratado con risperidona, líquidos intravenosos y suplementos nutricionales debido a deficiencias de vitamina C, B12 y folato.
Luego de tres semanas de tratamiento, su estado de salud física y mental mejoró considerablemente, recuperando su lucidez tras haber tenido altos niveles de bromuro en la sangre. Además de los síntomas mencionados, el paciente relató haber experimentado bromismo, fatiga, insomnio, acné y sed excesiva.
Estudio alerta sobre las imprecisiones de la IA en el ámbito científico
Es importante considerar que, aunque ChatGPT y otros sistemas de inteligencia artificial son herramientas útiles, pueden generar imprecisiones científicas. Según el estudio, estos sistemas carecen de la capacidad para discutir críticamente los resultados, lo que limita su efectividad en ámbitos donde el análisis profundo es crucial.
Además, el estudio advierte que esta falta de capacidad crítica puede alimentar la propagación de información errónea. Esto resalta la necesidad de ser cautelosos al utilizar estas tecnologías, especialmente cuando se trata de temas científicos, y de asegurarse siempre de consultar fuentes confiables para verificar la información.





















