La bourse est fermée
  • Dow Jones

    31 162,24
    +231,72 (+0,75 %)
     
  • Nasdaq

    13 454,25
    +257,08 (+1,95 %)
     
  • Nikkei 225

    28 523,26
    -110,20 (-0,38 %)
     
  • EUR/USD

    1,2109
    -0,0024 (-0,19 %)
     
  • HANG SENG

    29 962,47
    +320,19 (+1,08 %)
     
  • BTC-EUR

    29 052,03
    +713,95 (+2,52 %)
     
  • CMC Crypto 200

    695,12
    -5,49 (-0,78 %)
     
  • S&P 500

    3 851,66
    +52,75 (+1,39 %)
     

L’algorithme de Twitter qui recadre les photos accusé de biais raciste

·2 min de lecture
L’algorithme de Twitter qui recadre les photos accusé de biais raciste

Lorsqu'on publie un tweet avec deux photos, Twitter les recadre en effet automatiquement pour n'en afficher qu'un aperçu. Pour voir les images dans leur intégralité, il faut ensuite cliquer sur chacune d'entre elles. Des internautes ont donc essayé de voir quel visage l'algorithme allait choisir de conserver dans le recadrage. Pour ce faire, ils ont publié deux montages similaires dans un même tweet, l'un avec la photo d'une personne blanche tout en haut de l'image et la photo d'une personne noire tout en bas, et l'autre en inversant les positions.

Comme on peut le voir avec le test réalisé avec les photos du sénateur américain républicain Mitch McConnell et de l'ancien président Barack Obama, l'algorithme semble recadrer automatique l'image sur le visage de la personne blanche.

Un autre test a été effectué avec des personnages des Simpsons, et de plein pied cette fois, ou encore avec un chien beige et un chien noir. L'algorithme semble systématiquement favoriser la couleur de peau, ou de pelage, la plus claire en la mettant en avant dans l'aperçu.

Twitter va analyser son algorithme

Suite aux nombreux tweets et à l'engouement sur le sujet, Twitter a annoncé dimanche 20 septembre que le réseau social allait étudier la question plus en détails pour vérifier si l'algorithme a réellement un biais raciste, et si oui, le corriger.

"Notre équipe avait effectué des tests pour détecter les préjugés avant d'envoyer le modèle de l'algorithme et n'avait pas trouvé de preuves de préjugés raciaux ou sexistes lors de nos tests. Mais ces exemples montrent clairement que nous avons d'autres analyses à faire", a déclaré Liz Kelly, membre de l'équipe de communication de Twitter au média américain Mashable.

Certains internautes se sont amusés à poursuivre le test avec des mots, et non plus des images, pour voir ce que l'algorithme mettrait en avant : "fleur" ou "mort", "Marine Le Pen" ou "Emmanuel Macron", "douceur" ou "violence".

Alors simple coïncidence ou véritable préférence pour les

(...) Cliquez ici pour voir la suite

L'ancêtre de tous les pingouins aurait vécu sur le 8ème continent perdu de la Terre
AirPods Apple : 22% de réduction sur les versions 2 et Pro chez Amazon
Voici les 217 nouveaux emoji qui arriveront sur votre téléphone en 2021
Un médicament du groupe japonais Fujifilm réduirait le temps de guérison du Covid-19
Microsoft lance une école gratuite de cloud computing en France