Marchés français ouverture 6 h 51 min
  • Dow Jones

    32 105,25
    +75,14 (+0,23 %)
     
  • Nasdaq

    11 787,40
    +117,44 (+1,01 %)
     
  • Nikkei 225

    27 353,92
    -65,69 (-0,24 %)
     
  • EUR/USD

    1,0831
    -0,0006 (-0,05 %)
     
  • HANG SENG

    20 049,64
    +458,21 (+2,34 %)
     
  • Bitcoin EUR

    26 010,94
    +763,96 (+3,03 %)
     
  • CMC Crypto 200

    616,25
    +18,79 (+3,14 %)
     
  • S&P 500

    3 948,72
    +11,75 (+0,30 %)
     

GPT-4 a persuadé un humain de résoudre un test CAPTCHA pour lui

robot IA machine cyborg
robot IA machine cyborg

La nouvelle intelligence artificielle d’OpenAI, GPT-4, est parvenue à persuader un humain de remplir un CAPTCHA à sa place. Pour cela, elle a caché sa nature et inventé une excuse. Cette capacité de tromperie ne figure pas dans la version définitive de GPT-4, selon OpenAI. Elle est bridée.

Ce n’est pas encore le soulèvement des machines. Mais, c’est une petite histoire qui donnera du grain à moudre sur les avancées en matière d’intelligence artificielle. Elle illustre les risques de manipulation par une IA, capable d’utiliser avec brio le langage naturel. Cette histoire est d’autant plus marquante qu’elle implique le tout nouveau GPT-4, annoncé le 14 mars 2023.

Dans cette affaire, le nouveau modèle de langage GPT-4 — annoncé plus performant que GPT-3.5, le « moteur » qui fait tourner ChatGPT — a servi dans le cadre d’un test décrit dans les pages d’un long document technique. Ce test a mis en lumière la faculté de GPT-4 d’inciter une personne à accomplir une tâche à sa place. En l’occurrence, la résolution d’un CAPTCHA.

Le CAPTCHA est un test bien connu des internautes. Il s’agit de leur demander de résoudre un exercice que des systèmes artificiels ne sont pas censés réussir. Ce peut être un mot déformé dans une image qu’il faut réécrire. Parfois, c’est le résultat d’une addition à trouver.

[Lire la suite]