¡Más de un millón de soles! Sujetos roban fuerte cantidad de dinero imitando voz con inteligencia artificial
Delincuentes imitan voz y crean videos falsos con los rostros de sus víctimas con inteligencia artificial para cometer actos ilícitos.
Los delincuentes suplantan la identidad de otras personas con la ayuda de la inteligencia artificial. De acuerdo con la Dirección Nacional de Investigación Criminal (Dirincri), hasta el momento, se registran más de 94 casos de estafa con dicha modalidad y los malhechores han logrado robar más de S/1.000.000.
Al respecto, el titular de la División de Investigación de Delitos de Alta Tecnología (Divindat), coronel PNP Luis Huamán, informó que, en la actualidad, varios ciudadanos realizan denuncias por el delito de estafa luego de recibir varias llamadas telefónicas de supuestos familiares.
"Hay personas que, de repente, reciben una llamada telefónica y alguien se hace pasar como su hijo o un familiar que está en apuros. Este pide dinero para que pueda solucionar un problema y la voz es muy similar", declaró Luis Huamán, jefe de la Divindat, en entrevista con Latina Televisión.
"Tienen el patrón de la voz. El software tiene una parte donde tú tecleas el texto y es recreada por la voz que has obtenido de la persona que vas a suplantar", añadió.
PUEDES VER: Peruano que ganó S/10 millones en La Tinka revela su peculiar estrategia: “Dejo que el sistema elija”
Modalidades para delinquir
Cabe señalar que los delincuentes también utilizan el deepfake para crear videos falsos con el rostro de las personas que ellos eligen para cometer los actos delictivos. Ante ello, el coronel Huamán recomendó a los familiares planificar diversas estrategias para reconocer si uno de sus seres queridos necesita ayuda o desea comunicarse.
"Se debe hacer una previa concentración con el familiar o con los amigos de una palabra clave para saber que efectivamente se trata de la persona con quien está conversando", manifestó.
Es preciso indicar que, según la información de Latina, varios de los programas utilizados por los malhechores para delinquir están en inglés y, por ese motivo, en el audio de voz creado con la inteligencia artificial se puede escuchar algunas palabras mal pronunciadas.