Publicité
La bourse est fermée
  • Dow Jones

    39 772,72
    +12,64 (+0,03 %)
     
  • Nasdaq

    16 374,54
    -24,98 (-0,15 %)
     
  • Nikkei 225

    40 168,07
    -594,66 (-1,46 %)
     
  • EUR/USD

    1,0793
    -0,0036 (-0,33 %)
     
  • HANG SENG

    16 541,42
    +148,58 (+0,91 %)
     
  • Bitcoin EUR

    65 515,89
    +1 755,44 (+2,75 %)
     
  • CMC Crypto 200

    885,54
    0,00 (0,00 %)
     
  • S&P 500

    5 251,90
    +3,41 (+0,06 %)
     

Un ancien modérateur de Facebook victime de stress post-traumatique porte plainte contre le réseau social

Un ancien modérateur de Facebook victime de stress post-traumatique porte plainte contre le réseau social

Depuis plusieurs mois, les langues des anciens modérateurs de Facebook se délient pour dénoncer la dureté de leur labeur et ses conséquences sur leur santé psychique et physique. Plusieurs ont rapporté être victimes de symptômes de stress post-traumatique à la suite de leur travail sur le réseau social, où ils étaient chargés de parcourir une liste interminable de contenus violents au quotidien. Chris Gray, un ex-employé irlandais de Facebook a quant à lui décidé de porter plainte contre le géant du numérique, mercredi 4 décembre. Il dit toujours souffrir de séquelles psychologiques liées à son travail de modérateur, qu'il a effectué entre 2017 et 2018.

"Chaque fois que je parle de ces contenus, je m'énerve encore plus. J'ai vraiment dû me retenir d'en parler. Je ne dors pas pendant une semaine avant une interview comme celle-ci, et je ne peux pas dormir après", a déclaré Chris Gray à l'Irish Times. Sa plainte, qui concerne également CPL Solutions — son employeur direct, un sous-traitant de Facebook — est la première déposée contre le géant du numérique par un ex-modérateur à ce jour.

À lire aussi — Facebook aurait utilisé les données des utilisateurs pour nuire à YouTube, Twitter et Amazon

Chris Gray assure n'avoir pas fait l'objet d'analyse psychologique avant de travailler pour CPL. Afin de décréter quels types de contenus avaient ou non leur place sur le réseau social, il a pourtant été contraint de regarder un grand nombre de contenus ultra-violents : lapidations, exécutions à bout portant, torture animale... L'ex-modérateur avait la tâche de traiter environ 600 contenus par nuit. Il ne devait pas passer plus de 30 secondes par vidéo, tout en maintenant une précision de 98% dans sa prise de décision — autrement dit moins de quatre erreurs par mois.

PUBLICITÉ

Facebook assure offrir 'un soutien psychologique complet' à ses modérateurs

Auprès de l'Irish Times, il explique avoir rapidement commencé à souffrir de détresse psychologique, éprouvant des symptômes d'irritabilité et

(...) Cliquez ici pour voir la suite

La présidente de SpaceX déclare que l'entreprise spatiale s'occupe de régler la gêne causée par les satellites Starlink aux astronomes
'Wonder Woman 1984' : 8 détails que vous avez peut-être ratés dans la bande-annonce
Snapchat teste une fonctionnalité permettant de réaliser des deepfakes humoristiques
Il existe peut-être une autre raison pour laquelle Instagram veut cacher les likes
Elon Musk gagne son procès en diffamation contre un scientifique qu'il avait qualifié de 'pedo'