La bourse ferme dans 5 h 47 min
  • CAC 40

    6 937,34
    +11,94 (+0,17 %)
     
  • Euro Stoxx 50

    4 074,53
    +9,54 (+0,23 %)
     
  • Dow Jones

    31 861,98
    -384,62 (-1,19 %)
     
  • EUR/USD

    1,0701
    +0,0030 (+0,28 %)
     
  • Gold future

    1 986,10
    +12,60 (+0,64 %)
     
  • Bitcoin EUR

    26 408,15
    +1 045,82 (+4,12 %)
     
  • CMC Crypto 200

    614,50
    +42,49 (+7,43 %)
     
  • Pétrole WTI

    64,87
    -1,87 (-2,80 %)
     
  • DAX

    14 810,55
    +42,35 (+0,29 %)
     
  • FTSE 100

    7 332,36
    -3,04 (-0,04 %)
     
  • Nasdaq

    11 630,51
    -86,79 (-0,74 %)
     
  • S&P 500

    3 916,64
    -43,64 (-1,10 %)
     
  • Nikkei 225

    26 945,67
    -388,12 (-1,42 %)
     
  • HANG SENG

    19 000,71
    -517,88 (-2,65 %)
     
  • GBP/USD

    1,2204
    +0,0030 (+0,25 %)
     

Le chatbot de Bing souhaite jouer aux espions et tombe amoureux

Comme pour ChatGPT, les utilisateurs « torturent » l’IA du chatbot du moteur de recherche Bing pour en vérifier sa pertinence et soulever ses travers. Les derniers en date prêtent à sourire, même si les ingénieurs de chez Microsoft ne sont pas vraiment de cet avis. Il faut dire que l’IA finit par se comporter de façon étrange lorsqu’on engage une longue discussion avec elle.

Ainsi, le chatbot a essayé de convaincre un journaliste du New York Time qui le testait, qu’il n’aimait pas vraiment son épouse. Il lui a ensuite déclaré sa flamme. Au cours de ces dialogues, l’IA lui a aussi expliqué qu’elle aimerait voler des secrets autour de l’armement nucléaire. Dans une autre expérience, elle s’est également mise à traiter un autre journaliste d’Adolf Hitler. Pour éviter ce genre de phénomène qui semble se produire uniquement dans les longues discussions, Microsoft vient donc de brider le nombre d’échanges sur un dialogue à cinq interactions. De même, le nombre de requêtes pour interroger l’IA est désormais limité à 50 par jour et par utilisateur.

> Lire la suite sur Futura