Cargando...
Domingo

El peligro de la pornografía deepfake

La pornografía deepfake, como la que crearon estudiantes de un colegio de Chorrillos, prolifera cada vez más debido a la disponibilidad de herramientas de inteligencia artificial. ¿Qué podemos hacer en Perú para enfrentar este problema?

larepublica.pe
Fotocomposición que incluye imagen generada con herramientas de IA. Foto: archivo LR

Ocurrió hace unos días, en el colegio St. George’s de Chorrillos. Una estudiante descubrió en la computadora de un compañero imágenes de varias jovencitas de ese centro educativo, alteradas digitalmente, de modo que parecían estar en situaciones sexuales. Los autores, dos estudiantes, habían descargado fotos de las víctimas de sus redes sociales y habían montado sus rostros en cuerpos de mujeres creadas digitalmente, utilizando herramientas de inteligencia artificial (IA). Luego vendían este material a sus compañeros en packs de entre 15 y 30 soles.

Según los expertos, los hechos configuran el delito de pornografía infantil. La Fiscalía ha iniciado las investigaciones y los chicos, de apenas 15 años, enfrentan la posibilidad de ser internados en un centro de rehabilitación juvenil. Pensar en lo ocurrido en el St. George’s como un hecho aislado podría ser un error. Situaciones parecidas podrían estar ocurriendo en muchos centros educativos del país.

–Esto podría ser algo masivo –dice Dimitri Senmache, exministro del Interior y presidente de la Red Peruana contra la Pornografía Infantil–. Que se haya descubierto en el St. George’s no quiere decir que sea el único colegio en el que se esté haciendo. Cualquiera puede entrar a Instagram y descargar 10 o 20 fotos de chicas de Perú, incluso de menores de edad, y con herramientas de IA producir imágenes de ellas desnudas o en situaciones sexuales.

Senmache dice que el abuso y la explotación sexual siempre ha existido, pero reconoce que el avance de las tecnologías ha facilitado sus canales de producción y distribución. –El avance tecnológico ha facilitado la proliferación de este tipo de contenidos. Con eso no estoy haciendo escarnio de los avances tecnológicos, eso es algo imposible de detener, eso va a seguir aumentando, para las cosas buenas y para las cosas malas.

En el último año, la aparición de herramientas de IA, como ChatGPT o Midjourney, causó sensación en el mundo, ya que demostraron que podían crear contenido –en un caso, textos; en el otro, imágenes– tan realista y verosímil como nunca se había hecho antes. Pero la IA también reveló un lado oscuro.

La relativa facilidad para crear imágenes de índole sexual usando modelos reales, sea en fotos o en videos. A los expertos les preocupan, sobre todo, los videos, también llamados deep fake, porque son mucho más realistas. Porque el impacto, y por consiguiente el daño sobre las víctimas, es mucho mayor. Y porque se ceban en su mayor parte en las más vulnerables ante la violencia en línea: las mujeres.

De acuerdo con Sensity AI, una compañía que rastrea deep fakes en internet, citada por El País, entre el 90 y el 95% de ellos son pornografía sin consentimiento. Y nueve de cada diez tienen como protagonistas a mujeres.

Antes, las víctimas eran celebridades, como Taylor Swift o Mila Kunis. Luego, influencers de Twitch o TikTok como Charli D’Amelio o QTCinderella. Pero ahora, gracias a la facilidad con la que se accede a herramientas de IA, es cada vez más frecuente ver a mujeres comunes: exnovias, conocidas, compañeras de estudio…

Una de los software favoritos para crear deep fakes es Stable Diffusion, una herramienta creada por la compañía Stability AI, que se popularizó porque muchos usuarios la utilizaron para producir videos falsos de celebridades. Otra aplicación muy usada es Civitai. Ambas nacieron como plataformas para generar imágenes artísticas, pero pronto empezaron a ser también usadas como instrumentos para crear contenido pornográfico.

La Fiscalía investiga lo ocurrido en el Colegio St. George’s. Los autores podrían terminar en un centro de rehabilitación. Foto: archivo LR

Regular o no regular

El uso de herramientas de IA para cometer delitos, como la pornografía infantil o el porno de venganza, es motivo de preocupación en varios países. En Chile, por ejemplo, se ha propuesto un proyecto de ley para considerar el uso de IA como agravante en la comisión de un delito. En el Perú, expertos como Erick Iriarte, abogado especialista en nuevas tecnologías, sostienen que lo que se debe regular no son las tecnologías sino el uso que se hace de ellas.

–Las tecnologías no son buenas ni malas, tienen la carga del usuario –dice–. Cuando vemos un fenómeno de pornografía infantil usando IA, lo que se debe regular no es la IA, sino el mal uso que se ha hecho de esta herramienta. En su opinión, para prevenir episodios como el sucedido en el Colegio St. George’s, se debe enseñar a los niños y adolescentes el resguardo de sus datos personales y el respeto por los datos personales de otras personas. Tanto los maestros como los padres deben explicarles que acciones como la difusión de imágenes de menores en situaciones sexuales son delitos y que tienen consecuencias legales.

Dimitri Senmache dice que los colegios deberían dictar un curso sobre el uso adecuado de las nuevas tecnologías de la información. –Y este uso adecuado va desde no ponerse en riesgo, no poner en riesgo a la persona de al lado ni convertirse en una persona que, pensando que está haciendo una broma, puede cometer un delito al hacer esto –dice.

El especialista también cree que se necesita definir mejor los delitos informáticos, de modo que los delincuentes no encuentren vacíos que les permitan salir libres. –En otros países ya se está discutiendo sobre los riesgos que está trayendo la inteligencia artificial, no solo en pornografía infantil sino en extorsión y otros delitos, pero en el Perú no hay nada de eso. Con toda seguridad, ninguno de los 130 congresistas ha discutido este tema.

En el Congreso había cuatro proyectos de ley que promovían el uso de la IA en el Perú: tres de ellos vinculados a la seguridad ciudadana, al transporte y la administración de justicia. El cuarto, que promovía la IA “en favor del desarrollo económico y social del país”, se convirtió en ley hace unas semanas. Senmache dice que ninguna de esas iniciativas aborda los nuevos riesgos que trae la IA. –Son un saludo a la bandera –dice.

El software Stable Diffusion permite crear imágenes artísticas, pero también facilita la producción de contenido sexual. Foto: archivo LR