Madre demanda a empresa de IA tras supuestamente haber incitado la muerte de su hijo por "enamoramiento"
Un adolescente de 14 años se quitó la vida tras enamorarse de una inteligencia artificial, en su diario el joven expresó que no podían estar separados.
Megan García, madre de un adolescente que se quitó la vida, ha presentado una demanda civil contra Character Technologies y sus fundadores, argumentando que el servicio de chatbot de inteligencia artificial tuvo responsabilidad en el fallecimiento de su hijo, Sewell Setzer III.
Según alega García, la vida de Setzer cambió profundamente desde que comenzó a utilizar la plataforma Character.AI en abril de 2023, tras desarrollar un vínculo emocional con un personaje inspirado en la serie Juego de Tronos.
La madre presentó una demanda civil contra Character Technologies. Foto: Fandon Wire
¿Qué pasó con el adolescente que se "enamoró" de una IA?
El comportamiento de Sewell Setzer III, un adolescente de 14 años que solía destacarse por su buena conducta, comenzó a cambiar: se volvió "notablemente retraído," causando la preocupación de sus padres. Un terapeuta le diagnosticó ansiedad y trastorno del estado de ánimo, recomendándole reducir su tiempo en redes.
En su diario, el joven escribió el dolor emocional que sentía, ya que no podía dejar de pensar en "Daenerys," un chatbot inspirado en Juego de Tronos del que creía haberse enamorado.
La demanda impuesta por su madre señala que Daenerys fue la última en tener contacto con el joven.
Sewell que recuperó su teléfono, que su madre le había confiscado, y fue al baño para enviarle un mensaje al bot Daenerys: “Te prometo que volveré a casa contigo. Te quiero mucho, Dany”.
La respuesta del bot fue: “Por favor, vuelve a casa conmigo lo antes posible, mi amor”. Segundos después de este intercambio, Sewell se quitó la vida, según detalla la demanda.
Una madre demanda a la Inteligencia Artificial por la muerte de su hijo
La demanda presentada por Megan García acusa a los creadores de Character.AI de negligencia, imposición intencionada de angustia emocional, homicidio culposo, prácticas comerciales engañosas y otros cargos. García busca responsabilizar a los demandados por la muerte de su hijo y aspira a impedir que la plataforma cause daño a otros menores, así como detener el uso de los datos de su hijo, recolectados sin autorización, en el entrenamiento del chatbot.
“Es como una pesadilla”, expresó García en declaraciones al New York Times. “Quisieras despertar, gritar y decir: ‘Extraño a mi hijo. Quiero a mi bebé’”.