Tecnología

Twitter advertirá a los usuarios que reconsideren sus respuestas antes de enviar un tweet ofensivo

En busca de combatir el ambiente tóxico de la plataforma, Twitter comenzará a sugerir a los usuarios que revisen el contenido de su tweet antes de publicarlo.

Las redes sociales se han convertido en un espacio donde, bajo la premisa de libertad de expresión, se han transgredido los límites del respeto hacia los demás y le dado carta abierta a personas ocultas detrás de una pantalla de acosar y promover mensajes de odio.

En un esfuerzo por poner freno a este comportamiento, Twitter comenzará a probar una nueva característica de moderación que solicitará a los usuarios que reconsideren sus comentarios antes de publicar un tweet donde se exprese un lenguaje potencialmente ofensivo.

“Cuando las cosas se calientan, puede decir cosas que no quiere decir. Para permitirle repensar una respuesta, estamos ejecutando un experimento limitado en iOS con un aviso que le da la opción de revisar su respuesta antes de que se publique si usa un lenguaje que podría ser dañino”, anunció la compañía.

Por su parte, Sunita Saligram, directora global de políticas de seguridad y seguridad en Twitter, señaló en entrevista con Reuters que, por medio de esta medida, están tratando de “alentar a las personas a repensar su comportamiento y su lenguaje antes de publicar”.

Para identificar este tipo de mensajes, la plataforma buscará palabras “similares a las de las publicaciones que ya han sido reportadas”, siguiendo así políticas con respecto a los discursos de odio y sus reglas donde especifica su postura ante la violencia, abuso y terrorismo.

Esta iniciativa ya ha sido aplicada por otras plataformas sociales, como es el caso de Instagram. La red social propiedad de Facebook cuenta con una herramienta antibullying que utiliza la inteligencia artificial para “notificar a las personas cuando su comentario puede considerarse ofensivo antes de ser publicado”.

Escucha nuestro podcast de tecnología