Publicité
La bourse est fermée
  • Dow Jones

    39 807,37
    +47,29 (+0,12 %)
     
  • Nasdaq

    16 379,46
    -20,06 (-0,12 %)
     
  • Nikkei 225

    40 168,07
    -594,66 (-1,46 %)
     
  • EUR/USD

    1,0793
    -0,0036 (-0,33 %)
     
  • HANG SENG

    16 541,42
    +148,58 (+0,91 %)
     
  • Bitcoin EUR

    65 523,71
    +1 499,79 (+2,34 %)
     
  • CMC Crypto 200

    885,54
    0,00 (0,00 %)
     
  • S&P 500

    5 254,35
    +5,86 (+0,11 %)
     

L'IA de Google n'appliquera plus de tag 'homme' ou 'femme' sur les images pour éviter les biais

L'IA de Google n'appliquera plus de tag 'homme' ou 'femme' sur les images pour éviter les biais

Dans un email adressé aux développeurs en fin de semaine dernière, consulté par Business Insider US, Google a déclaré qu'il n'utiliserait plus de "labels de genre" pour ses tags d'images. Au lieu de cela, Google va marquer toutes les images de personnes avec des tags "sans genre" comme "personne". Google a déclaré qu'il avait fait ce changement parce qu'il n'était pas possible de déduire le genre d'une personne uniquement à partir de son apparence. Il a également cité ses propres règles éthiques sur l'IA, déclarant que les photos de genre pouvaient exacerber les préjugés injustes.

A lire — Les sites de recrutement aggravent la discrimination en matière d'emploi, selon une spécialiste de l'IA

"Étant donné que le genre d'une personne ne peut être déduit de son apparence, nous avons décidé de supprimer ces tags afin de nous aligner sur les principes de l'intelligence artificielle chez Google, en particulier le principe n°2 : éviter de créer ou de renforcer des préjugés injustes".

Business Insider US a testé l'API, et voici ce que ses journalistes ont trouvé :

PUBLICITÉ

La partialité de l'intelligence artificielle est un sujet largement débattu, les chercheurs craignant que des données d'apprentissage erronées n'exacerbent ou ne créent des hypothèses injustes. Les algorithmes de reconnaissance faciale, par exemple, commettent plus fréquemment des erreurs d'identification pour les personnes de couleur que pour les personnes blanches. Frederike Kaltheuner, chercheur en politique tech chez Mozilla, spécialiste des biais de l'intelligence artificielle, a déclaré à Business Insider US que la mise à jour était "très positive". Elle a déclaré dans un e-mail : "Chaque fois que vous classifiez automatiquement des personnes, que ce soit leur genre ou leur orientation sexuelle, vous devez décider des catégories que vous utilisez en premier lieu — et cela s'accompagne de nombreuses suppositions."

A lire aussi — Bruxelles vient de donner 4 idées pour développer une IA 'axée sur l'humain'

"Classifier

(...) Cliquez ici pour voir la suite

Nintendo domine le marché du jeu vidéo en France, voici les 20 jeux les plus vendus en 2019
Plus d'un quart des hommes ne change pas de sous-vêtement tous les jours, selon un sondage
Voici les plus beaux plateaux de fromages qui étaient en compétition lors du Salon du fromage
Virgin Galactic a déjà 7 957 personnes en liste d'attente pour faire un tour dans l'espace
Decathlon, Auchan, Petit Bateau... Ces marques qui proposent des vêtements de seconde main