Irene Ignacio

ireneignacioq

10 Jun 2020 | 7:17 h

Irene Ignacio

En 2016, Facebook inició su programa de verificadores para combatir la desinformación en la red social. Hoy, Verificador de La República se une a esta iniciativa.

¿Cómo se inició el proyecto de verificadores de Facebook?

A fines del 2016, empezó como una prueba piloto reconociendo una corresponsabilidad de la diseminación de desinformación alrededor del mundo, motivada por la que circuló en Estados Unidos ese año. Se lanzó con un puñado de verificadores allí, después se extendió a Europa y, hoy por hoy, podemos decir que el programa de verificadores independientes es el más importante que hace Facebook en sus estrategias para combatir la desinformación.

¿Qué otros lineamientos ejecuta Facebook contra la desinformación?

Para nosotros, mantener la integridad del News Feed —que es el contenido que ve cada persona cuando entra a Facebook y la personalización de contenidos— es fundamental. En ese sentido, tenemos un enfoque de tres pilares que son: eliminar, reducir e informar. Eliminamos todo aquello que contraviene nuestras normas comunitarias. Afirmaciones que circularon al inicio de la pandemia sobre ‘remedios naturales’ o algunos que incluso atentaban contra la vida de las personas, como beber cloro.

PUEDES VER Es falso que Facebook hará públicos mensajes eliminados

¿A qué se refiere con la reducción de contenidos informativos falsos?

Facebook no elimina las ‘noticias falsas’, sino que reduce su distribución por varias razones. La primera es que Facebook no se considera un árbitro de la verdad. No queremos ser un árbitro de la verdad, sino que queremos apoyarnos de socios verificadores como, en este caso, Verificador de La República. Por otro lado, hay una razón —que para nosotros es eje de constante debate— que es buscar un equilibrio entre las necesidades de las personas para consumir información y la libertad de expresión.

¿Y cuáles son las acciones respecto al eje de “informar”?

Emprendemos campañas para que las personas sepan cómo identificar ‘noticias falsas’ y una lista de consejos sobre cómo consumir información de manera más responsable. Hemos apoyado a consorcios de comunicación. Medios, a veces disímiles en sus líneas editoriales, que se juntan con una misma misión que sería, por ejemplo, combatir la desinformación sobre la COVID-19 o en el contexto electoral.

¿Qué retos ha enfrentado el proyecto?

En el año 2016, cuando empezó el programa, era una herramienta que solo permitía a los fact-checkers revisar el texto que se compartía en la plataforma. Y rápidamente empezábamos a ver que la desinformación se daba a través de imágenes, en videos, en memes y, entonces, este producto se tuvo que adaptar. Esto incluyó darles la habilidad de revisar contenido gráfico de la plataforma. El fenómeno de la desinformación avanza tan rápido que adaptarnos a las necesidades de los fact-checkers ha sido uno de los retos más grandes.

PUEDES VER Mark Zuckerberg se distancia de Twitter: “Facebook no debería ser el árbitro de la verdad”

¿Cuáles son las expectativas de Facebook para el programa de verificadores?

Mantener la plataforma y los contenidos que Facebook ofrece a las personas lo más íntegros posibles. Nosotros nos consideramos corresponsables no solamente de las informaciones que las personas ven en la plataforma, sino también de la calidad de la información, de las páginas a las que los usuarios llegan usando nuestra plataforma.

¿Por qué Facebook decide no verificar los discursos políticos?

Permitir que las personas puedan ver el discurso político tal como lo dicen sus representantes para nosotros —parafraseando un poco a Mark Zuckerberg—, no es para ayudar a los políticos. Nosotros creemos que la gente tiene derecho a leer exactamente lo que dicen y, a partir de eso, mantenerlos sujetos a revisión. Es fundamental para que la relación entre la gente y los políticos se mantenga, y sean los propios ciudadanos quienes evalúen la credibilidad de cada uno.

¿Cómo están involucrando a los usuarios?

En contenidos sobre COVID-19, solamente en abril, aplicamos las etiquetas de los fact-checkers a 50 millones de contenidos —basados en 7.500 artículos de verificación—. Alrededor del mundo, las personas han podido ver que este contenido es falso. En ese sentido, cuando es calificado como tal y una persona lo quiere compartir, le aparece una pantalla para que tome una decisión; ya sea, compartirlo de cualquier manera, cancelar la opción o compartir la información producida por los fact-checkers. Un 95 % de las veces se eligió no compartir la desinformación. Una métrica como esta nos habla de la responsabilidad que tienen los usuarios de no ser parte de esta epidemia de desinformación, de no contribuir a que se disemine más, lo cual puede poner en riesgo la vida de las personas.