En un esfuerzo por combatir la propagación de información errónea y contenido dañino dentro de la plataforma, Facebook anunció este jueves 17 de septiembre sus nuevas políticas para regular los grupos públicos y privados de la red social.
“Durante el último año, eliminamos alrededor de 1,5 millones de piezas de contenido en grupos por violar nuestras políticas sobre el odio organizado, el 91% de las cuales encontramos de manera proactiva”, detalló Tom Alison, vicepresidente de ingeniería en Facebook.
PUEDES VER: Facebook Messenger estrena función para ver videos con amigos de forma simultánea [VIDEO]
Como parte de las nuevas medidas, Facebook dejará de recomendar a los usuarios los grupos que tengan temática de salud, lo cual permitirá limitar la difusión de desinformación, especialmente la relacionada con la pandemia del coronavirus, como tratamientos o vacunas.
“Para priorizar la conexión de las personas con información de salud precisa, estamos empezando a no mostrar más grupos de salud en las recomendaciones”, explicó la compañía. No obstante, las personas aún podrán buscar este tipo de grupos en la red social o invitar a sus amigos a ser miembros.
De igual forma, el gigante tecnológico también tomará acciones en contra de los grupos vinculados a la violencia, eliminándolos de las sugerencias, restringiéndolos de la búsqueda y reduciendo la frecuencia con la que su contenido aparece en la página principal de noticias.
Por otro lado, Facebook ahora empezará a archivar los grupos que no tienen administradores; los administradores y moderadores de grupos eliminados por violar las políticas no podrán crear nuevos temporalmente; y las publicaciones de los miembros que hayan infringido alguno de las normas de la comunidad requerirán aprobación durante 30 días.