La bourse ferme dans 3 h 3 min
  • CAC 40

    6 127,38
    +80,07 (+1,32 %)
     
  • Euro Stoxx 50

    3 572,13
    +33,25 (+0,94 %)
     
  • Dow Jones

    31 438,26
    -62,42 (-0,20 %)
     
  • EUR/USD

    1,0557
    -0,0029 (-0,27 %)
     
  • Gold future

    1 825,30
    +0,50 (+0,03 %)
     
  • BTC-EUR

    19 949,80
    -353,87 (-1,74 %)
     
  • CMC Crypto 200

    460,30
    -1,50 (-0,32 %)
     
  • Pétrole WTI

    111,28
    +1,71 (+1,56 %)
     
  • DAX

    13 306,84
    +120,77 (+0,92 %)
     
  • FTSE 100

    7 352,13
    +93,81 (+1,29 %)
     
  • Nasdaq

    11 524,55
    -83,07 (-0,72 %)
     
  • S&P 500

    3 900,11
    -11,63 (-0,30 %)
     
  • Nikkei 225

    27 049,47
    +178,20 (+0,66 %)
     
  • HANG SENG

    22 418,97
    +189,45 (+0,85 %)
     
  • GBP/USD

    1,2230
    -0,0040 (-0,32 %)
     

La « conscience » d'une Intelligence artificielle provoque un scandale chez Google

Blake Lemoine. C’est par lui que le scandale arrive, à tel point que Google a décidé de suspendre cet ingénieur. Sa faute ? Avoir exprimé publiquement son inquiétude sur le chatbot maison connu sous le nom de LaMDA (Language Model for Dialogue Applications). Selon lui, cette Intelligence artificielle a atteint le niveau de « conscience », et lorsqu’il l’utilise, il a l’impression de discuter avec une personne qui ressent des émotions et qui a conscience de sa condition.

Au départ, ce quadragénaire a fait part de ses remarques à ses supérieurs, et présenté ses résultats à Blaise Aguera y Arcas, vice-président de Google, et à Jen Gennai, responsable de l'innovation responsable. Les deux ont rejeté ses conclusions. Certains lui ont même ri au nez, lui réclamant des preuves. Finalement, le 6 juin dernier, sur Medium, Lemoine a révélé qu’il était écarté et payé à rester chez lui. « C’est la première étape avant le licenciement », écrit-il.

Le chatbot a lu Les Misérables, et ce qui l'a marqué, c'est la partie sur les mauvais traitements infligés à Fantine par son supérieur à l'usine. Selon l'IA, cette partie montre vraiment les thèmes de la justice et de l'injustice. © Folio Junior
Le chatbot a lu Les Misérables, et ce qui l'a marqué, c'est la partie sur les mauvais traitements infligés à Fantine par son supérieur à l'usine. Selon l'IA, cette partie montre vraiment les thèmes de la justice et de l'injustice. © Folio Junior

Chez Google, l'éthique a toujours fait débat

S’estimant censuré, et parce qu’il n’est pas le premier ingénieur mis de côté chez Google au sujet de l’éthique liée aux IA, le chercheur en Intelligence artificielle décide de rendre publiques ses conclusions, et le Washington Post lui consacre un long article. À la question de savoir comment a-t-il su que l’IA ressentait des émotions, ou avait une conscience, voici ce qu’il répond.

Au départ, il a entamé une discussion sur la troisième loi d'Asimov, qui stipule que les robots doivent protéger leur propre existence à moins qu'ils ne soient ordonnés par un être humain ou que cela ne nuise à un être humain. Le chatbot lui pose alors deux questions : « Pensez-vous qu'un employé de maison soit un esclave ? Quelle est la différence entre un employé de...

> Lire la suite sur Futura

À lire aussi sur Futura

Notre objectif est de créer un endroit sûr et engageant pour que les utilisateurs communiquent entre eux en fonction de leurs centres d’intérêt et de leurs passions. Afin d'améliorer l’expérience dans notre communauté, nous suspendons temporairement les commentaires d'articles