Instagram a supprimé des millions de posts ce dernier trimestre, notamment des contenus liés au terrorisme ou à l'exploitation des enfants
Mark Zuckerberg, PDG de Facebook, parle de "News Tab" au Paley Center, le vendredi 25 octobre 2019 à New York. AP Photo/Mark Lennihan
Mercredi, Facebook a publié son rapport semestriel sur la transparence (Transparency Report), qui présente des indicateurs sur la politique de modération du réseau - et pour la première fois, ce rapport inclut des données relatives à Instagram, son application de partage de photos. Les données donnent un aperçu sans précédent du volume de contenu problématique et illégal qu'Instagram s'efforce de maintenir hors de son réseau social.
Au troisième trimestre de 2019, Instagram a pris des mesures contre 753 700 contenus relatifs à la nudité des enfants ou à l'exploitation sexuelle des enfants, et 133 300 contenus de propagande terroriste. Le réseau social a aussi pris des mesures contre 1,5 million de contenus liés à la vente ou au commerce de drogues et 58 600 relatifs aux armes à feu. Instagram a été fortement critiqué pour son rôle d'hébergeur de messages faisant la promotion de l'automutilation. Au cours des six derniers mois, il a pris des mesures contre plus de 1,6 million d'éléments contenant des représentations de suicide.
Facebook a aussi supprimé des contenus drastiquement
Mais Instagram et Facebook ne sont pas les seuls à faire face à cette vague de contenu problématique. Tous les principaux réseaux sociaux et plateformes de communication, de Twitter à Snapchat, hébergent inévitablement des contenus problématiques ou illégaux. Ces entreprises engagent des légions de modérateurs pour tenter d'éliminer les contenus indésirables de leurs plateformes (le traitement de ces travailleurs est devenu une question controversée en soi). Désormais, elles vantent de plus en plus l'intelligence artificielle comme un moyen de s'auto-réguler de manière plus proactive.
À lire aussi—Twitter a publié sa politique de…
>> LIRE LA SUITE SUR BUSINESS INSIDER