El creador de DeepNude, una aplicación que utiliza el algoritmo de aprendizaje automático para “desnudar” digitalmente fotos de mujeres, anunció que decidió dar de baja el servicio. En solo un día, la plataforma se viralizó y recibió miles de visitas. Y de inmediato llovieron las críticas por la polémica app, de la puedes encontrar más información en YouTube.
Al parecer, dicho software utiliza la foto de una persona vestida y crea una imagen nueva (y desnuda) de esa misma persona. Dicho de otra forma, intercambia ropa por pechos desnudos y una vulva, y solo trabaja en imágenes con mujeres.
En su cuenta de Twitter, la cuenta de DeepNude emitió un comunicado en donde explican que “subestimaron mucho” el interés que despertaría su aplicación, por lo que al final confirmaron que cerrarán el proyecto ya que “la probabilidad de que la gente haga mal uso de éste es demasiado alta”.
DeepNude ya no tendrá más versiones y se dejará de vender. Incluso advirtieron que quienes tienen una copia del software tienen prohibido compartirlo, porque los términos de uso de la aplicación así lo prohíben. Aunque admiten que “seguramente algunas copias” se compartirán en la web.
Según la compañía responsable. DeepNude se ha estado vendiendo “de forma controlada” desde hace meses, pero nunca pensaron que “se volvería viral”. Afirman que durante este corto tiempo, que estuvo disponible la app, 500,000 personas la usaron a pesar de su “medida de seguridad” que fue implementar una marca de agua, por lo que con este volumen “el riesgo de que alguien hiciera mal uso de ella era muy alto”.
PUEDES VER: YouTube: con esta app puedes recrear el histórico lanzamiento del Apolo 11 en tu móvil [VIDEO]
Entre los puntos preocupantes que se pueden destacar de esta aplicación es que ponía en riesgo la privacidad de cualquier mujer al convertirla en una víctima potencial de extorsión o abuso.