Le 7 décembre 2021, Twitter annonce dans un post de blog la modification de son système de signalement de contenus. Le but ? Rendre le réseau social plus humain et affiner la modération.
Amplifier la modération du réseau
Les utilisateurs ont la possibilité de signaler un contenu potentiellement problématique et choisis ensuite parmi plusieurs catégories :
– Ce tweet ne m’intéresse pas
– Il est suspect ou publie du spam
– Les propos tenus sont inappropriés ou dangereux
– Il induit en erreur au sujet d’élections
– Il exprime des intentions suicidaires ou autodestructrices
Renna Al-Yassini, membre de l’équipe ayant travaillé sur le nouveau système, explique « La grande majorité de ce que les gens signalent s’inscrit dans un spectre gris beaucoup plus large qui ne répond pas aux critères spécifiques des violations de Twitter, mais ils signalent quand même ce qu’ils vivent comme profondément problématique et très bouleversant ».
L’objectif est alors de permettre aux utilisateurs d’exprimer concrètement ce qui leur pose problème. Une méthode nommée « Symptoms First » et Twitter publie à ce sujet : « L’idée est la suivante : essayons d’abord de découvrir ce qu’il se passe au lieu de vous demander de diagnostiquer le problème ».
Une fois le signalement effectué, l’utilisateur aura la possibilité d’approfondir le problème en expliquant les raisons de son signalement et Twitter suggérera la ou les règles enfreintes par le contenu. Si aucune proposition ne correspond, un encadré leur permettra de donner davantage d’informations et de détails qui aideront les équipes Twitter à résoudre le problème. Enfin, le nouveau PDG Parag Agrawal, a également annoncé une nouvelle option permettant d’ajouter des avertissements sur des photos ou vidéos publiées, une fonctionnalité pour le moment en phase de test. Twitter souhaite ainsi rendre sa modération plus efficace et limiter le cyber harcèlement et la diffusion de fausses informations.