TikTok anunció un nuevo conjunto de pautas comunitarias, que tienen como objetivo fortalecer sus políticas ya existentes en áreas como acoso, actos peligrosos, autolesiones y violencia, para “ayudar a que todos se sientan cómodos y seguros para crear y compartir” en la red social.
En marzo, la compañía dio a conocer la creación del Consejo Asesor de Contenido, un equipo de expertos liderado por la profesora de derecho de la Universidad George Washington, Dawn Nunziato, que ayudarían a guiar las políticas de moderación de publicaciones en la aplicación.
Basándose en los aportes de este grupo, así como en los comentarios de la comunidad y de organizaciones civiles, TikTok ha decidido agregar más detalles en cada una de las diez categorías que comprenden sus políticas.
Si bien gran parte de los temas ya estaban cubiertos por las normas anteriores, la actualización define con mayor claridad áreas claves como el contenido de autolesiones, suicidio y trastornos alimenticios, para evitar “normalizar o glorificar” este tipo de comportamiento en la plataforma.
La compañía también agregó una nueva sección de ‘Actividades dañinas’ destinada a usuarios menores de edad para “reiterar” que las publicaciones que promuevan desafíos, juegos y otros actos peligrosos que puedan poner en riesgo la seguridad no están permitidas.
Las reglas de intimidación y acoso ahora también son más explícitas sobre el tipo de contenido y comportamiento que “no son bienvenidos” en la red social, como el doxxing, el ciberacoso y el acoso sexual. Además, la normativa describe mejor qué se considera amenaza o incitación a la violencia.
Por otro lado, TikTok implementó nuevas herramientas enfocadas en “apoyar el bienestar” de la comunidad. Estas incluyen recursos para ayudar a personas que luchan contra la autolesión o el suicidio, pantallas de advertencia para ocultar contenido “gráfico o angustioso” y material sobre la COVID-19.