En un esfuerzo por saber cómo identificar y detener el comportamiento dañino en redes sociales, los ingenieros de Facebook han desarrollado un simulador a escala de la red social para detectar oportunamente a usuarios problemáticos, como los que envían spam, estafan a otras personas o venden armas y drogas.
“El comportamiento de las personas evoluciona y se adapta con el tiempo y es diferente de una geografía a la siguiente, lo que hace que sea difícil anticipar todas las formas en que un individuo o una comunidad entera podrían responder incluso a un pequeño cambio en su entorno”, explicó la compañía en un comunicado.
La versión paralela de Facebook ha sido habilitada para la Web-Enabled Simulation (WES), la cual utiliza el aprendizaje automático para entrenar miles de bots que simulan de “manera realista” los comportamientos de las personas en redes sociales. Estos pueden enviar mensajes, comentar o hacer publicaciones, mandar solicitudes de amistad o interactuar entre sí.
En este caso, se diseñaron un grupo de ‘bots buenos’ para actuar como objetivos y otros grupo diseñado para simular el mal comportamiento humano. De esta forma, los ingenieros de Facebook pueden estudiar su comportamiento y descubrir nuevas formas sobre cómo detenerlos.
Los ingenieros experimentaron con diferentes formas de contrarrestar el comportamiento de los ‘bots malos’ introduciendo varias restricciones, como limitar el número de mensajes privados y publicaciones que ellos podían enviar por minuto, con el objetivo de observar cómo esto afectaba su comportamiento.
“Aplicamos ‘reducciones de velocidad’ a las acciones y observaciones que pueden realizar nuestros bots, y exploramos tan rápidamente los posibles cambios que podríamos hacer en los productos para inhibir el comportamiento dañino sin dañar el comportamiento normal”, detalló Mark Harman, ingeniero a cargo de la investigación.
“En este momento, el enfoque principal es entrenar a los bots para que imiten cosas que sabemos que suceden en la plataforma. Pero en teoría y en la práctica, los bots pueden hacer cosas que no hemos visto antes”, señaló Harman. “Eso es algo que realmente queremos, porque en última instancia queremos adelantarnos al mal comportamiento en lugar de jugar continuamente para ponernos al día”.