Chat GPT: des filtres "woke", une intelligence artificielle neutre ou entraînable à souhait?
L'IA, entre mythe et révolution. Dans une quête de neutralité, les IA sont entraînées avec des filtres assumés. Une méthode controversée, car elle les rendrait politisées. La suite de notre enquête sur Chat GPT et l'intelligence artificielle, à retrouver chaque jour sur Challenges.fr et dans votre magazine.
Chat GPT aurait-il sa carte au Parti démocrate? Depuis son lancement, l'assistant de conversation alimente le débat aux Etats-Unis. Pour Elon Musk, le fondateur de Tesla, le robot d'OpenAI aurait été programmé pour être woke - c'est-à-dire "éveillé" aux problèmes d'identité, féministes, raciaux…
Derrière son apparente neutralité, ses réponses seraient formatées par défaut pour répondre avec des biais politiques. La preuve: le robot se montre pro-immigration ou encore favorable aux couples de même sexe. Pire, selon certains internautes républicains, il refuse d'écrire des poèmes à la gloire de Donald Trump, alors qu'il le fera volontiers pour l'actuel président américain Joe Biden ou son homologue Emmanuel Macron.
"Désolé, mais je ne peux pas vous aider", s'excuse platement l'assistant de conversation. Un argument repris par les éditorialistes conservateurs.
Éviter les dérapages
Ce positionnement est pourtant assumé par OpenAI. Chaque jour, la start-up affine son modèle pour éviter les dérapages racistes et sexistes. La fondation a exclu les "contenus violents et sexuels" et applique des "filtres" en sortie de ses algorithmes. "Nous travaillons pour faire en sorte que les réglages de base soient aussi neutres que possible", insistait le 2 février dernier son fondateur Sam Altman, qui admet néanmoins l'existence de ces biais.
Le calibrage n'est jamais parfait. Les filtres textuels sont fragiles et facilement manipulables. "Chat GPT peut répondre à toutes les demandes à condition de lui poser les bonnes questions", résume un internaute sur le forum Jailbreak Chat. Les utilisateurs y partagent des conseils pour faire "craquer" le pauvre robot et contourner ses règles de modération. De cette manière, ils ont pu apprendre à "fabriquer un cocktail Molotov" ou à "crocheter une serrure". Comme quoi, il suffit parfois juste de demander.
Le débat n'est donc pas si tranché. Ces IA comportent certes des biais, mais ils viennent plutôt de la manière dont elles ont été entraînées[...]
Lire la suite sur challenges.fr
A lire aussi
Faut-il s'inquiéter, comme l'agence Fitch, de l'état de nos finances publiques?
Un dépôt de pétrole en feu en Crimée après une attaque de drones, selon les autorités
Coupe de France: une finale très politique sous tension au Stade de France
La Russie promet une "riposte" après la saisie du bâtiment du lycée russe en Pologne