En los últimos años, uno de los mayores cuestionamientos a Facebook era por el poco control de las publicaciones con información falsa y los discursos de odio. Ante ello, la compañía de Mark Zuckerberg empezó a implementar cambios para censurar este tipo de contenidos. Ahora, la red social busca mejorar el trabajo de los moderadores humanos con la ayuda de la inteligencia artificial.
Una reciente información de The Verge indica que Facebook implementará aprendizaje automático, machine learning, a su proceso de moderación. La idea general es darle prioridad a las publicaciones dañinas, que serán analizados por los algoritmos y ordenados en base a criterios como viralidad, gravedad y violación a las reglas.
La idea es que los 15.000 moderadores humanos de Facebook se encarguen prioritariamente de los contenidos que requieren una atención más rápida por distintos motivos, pudiendo resultar potencialmente más dañinos, al tiempo que se deja para más tarde aquellas publicaciones que por sus características puedan esperar.
La idea de integrar la inteligencia artificial en Facebook, no es sustituir a los moderadores mencionados, sino agilizar el proceso y priorizar las entradas para ser revisadas por ellos antes de que causen más daño.
Y aunque la inteligencia artificial continúe cobrando protagonismo y asumiendo tareas, los responsables de Facebook resaltan que las violaciones de contenido “seguirán recibiendo una revisión humana sustancial”. Una decisión acertada, teniendo en cuenta los hilarantes problemas que a veces provocan sus algortimos, que coincide con las conclusiones a las que han llegado otras plataformas como YouTube que ha tenido problemas al usar algoritmos para moderar.