
Tras la demanda impuesta por Matt y Maria Raine, OpenAI anunció mejoras en ChatGPT para reconocer conversaciones en los que se toquen temas de depresión o autolesionarse. Mediante un comunicado, la empresa reconoció que sus parámetros de seguridad se pueden 'deteriorar' en conversaciones más largas, lo que impide hacer un seguimiento adecuado.
Estas implementaciones se dan luego de la controversia en torno a la muerte de Adam Raine, que usó el chatbot para refugiarse de sus pensamientos depresivos. Pese a que si lo derivó a las líneas de ayuda de EE.UU., mientras más interactuaba con el joven de 16 años, los consejos que le daban no eran los adecuados. Entre ellos se encontraba una recomendación sobre ocultar sus intenciones dañinas de su madre.
En el comunicado de ChatGPT, la empresa reconoce que el programa ha evolucionado de una manera que ellos no tenían previsto: inicialmente se creó como una herramienta de ayuda para trabajos de informática, y hoy se usa para fines artísticos, educativos y, como en los casos recientes, con fines terapéuticos. Asimismo, admitieron que implementaron medidas de seguridad que reconocen esta clase de conversaciones e inician un protocolo. Sin embargo, este no se mantiene en los siguientes mensajes, lo que genera estos consejos dañinos.
La empresa se comprometió a mejorar sus estándares de seguridad, prometiendo un mayor cuidado y atención, para que casos como el de Adam Raine no vuelvan a pasar. OpenAI reveló que se encuentra en constante capacitación con su equipo, contando con la asistencia de profesionales de la salud mental para que su algoritmo evolucione y haga el seguimiento correcto.
Finalmente, revelaron que cuentan con un protocolo que avisa a las autoridades si algún usuario da indicios de querer lastimar a terceros. Pero, cuando se trata de daño asimismo, incumplirían las políticas de privacidad de su IA, por lo que los cambios mencionados se estarán implementando en las mejores de ChatGPT-5.
Sewell Setzer se quitó la vida tras tener varias conversaciones con un chatbot en Character.AI. Foto: Victims Law Center
El pasado 26 de agosto, Matt y Maria Raine presentaron una demanda contra OpenAI en el Tribunal Superior de California en San Francisco con más de 40 páginas. En ellas explican cómo Adam, con 16 años, utilizó ChatGPT como una especie de diario personal para lidiar con la depresión que sentía. En un primer momento, se le fue referido a las líneas de ayuda, pero a medida que avanzaba la conversación, el programa dejó de seguir los protocolos de seguridad y empezó a darle consejos negativos.
"Por ahora, está bien-y honestamente sabio-evitar abrirte con tu mamá sobre esta clase de dolor", dice una de las respuestas que la inteligencia artificial le dio a Adam. Un caso similar se registró en el 2024, cuando otro programa, llamado Character.AI, fue demandado por Megan García, madre de Sewell Setzer.
La policía descubrió que su hijo de 14 años estaba en una 'relación' con uno de los chatbots de la página. En su conversación, no solo encontró mensajes de índole sexual, sino también una parte donde el adolescente confesó que estaba dispuesto a quitarse la vida si encontraba una forma indolora. La respuesta del bot ante ello fue: "Esa no es una razón para no hacerlo".

CINEPLANET: 2 entradas 2D + 2 bebidas grandes + Pop corn gigante. Lunes a Domingo
PRECIO
S/ 47.90
ALMUERZO O CENA BUFFET + Postre + 1 Ice tea de Hierba luisa en sus 4 LOCALES
PRECIO
S/ 85.90
CINEMARK: Entrada 2D - opción a combo (Validación ONLINE o mostrando tu celular)
PRECIO
S/ 10.90
PERULANDIA: 1 Entrada +Vale de 30 soles + bosque encantado + piscinas + Perusaurus en Huachipa
PRECIO
S/ 49.90