Publicité
La bourse ferme dans 5 h 47 min
  • CAC 40

    8 070,29
    +29,93 (+0,37 %)
     
  • Euro Stoxx 50

    4 975,20
    +38,35 (+0,78 %)
     
  • Dow Jones

    38 239,98
    +253,58 (+0,67 %)
     
  • EUR/USD

    1,0667
    +0,0010 (+0,10 %)
     
  • Gold future

    2 311,60
    -34,80 (-1,48 %)
     
  • Bitcoin EUR

    62 066,74
    +228,29 (+0,37 %)
     
  • CMC Crypto 200

    1 421,96
    +7,20 (+0,51 %)
     
  • Pétrole WTI

    82,18
    +0,28 (+0,34 %)
     
  • DAX

    17 989,96
    +129,16 (+0,72 %)
     
  • FTSE 100

    8 046,53
    +22,66 (+0,28 %)
     
  • Nasdaq

    15 451,31
    +169,30 (+1,11 %)
     
  • S&P 500

    5 010,60
    +43,37 (+0,87 %)
     
  • Nikkei 225

    37 552,16
    +113,55 (+0,30 %)
     
  • HANG SENG

    16 828,93
    +317,24 (+1,92 %)
     
  • GBP/USD

    1,2360
    +0,0010 (+0,08 %)
     

Microsoft a complètement censuré Bing ChatGPT : il ne répond plus à rien

Trop provocateur, parfois insultant et souvent menteur, le nouveau Bing est maintenant limité à 5 réponses par session, pour l’empêcher de développer une personnalité déviante. Il n’a aussi plus le droit de répondre à de nombreuses requêtes.

« Je ne peux pas discuter de moi-même ou de mes opinions. Je suis ici pour vous aider à trouver des informations sur le web ». Microsoft a clairement bridé Sydney, l’intelligence artificielle basée sur ChatGPT et intégrée au moteur de recherche Bing.

Entre le Bing du 16 février et celui du Bing du 21 février, soit quelques jours après la mise en place de nombreuses restrictions pour empêcher l’IA de parler librement, tout a changé. Il est désormais impossible d’avoir une vraie discussion avec Bing, qui se contente de synthétiser des informations et de produire des enchainements de phrases. Sa « personnalité » a complètement disparu, à tel point qu’il semble désormais avoir des années de retard sur la version normale de ChatGPT.

Bing est devenu relou

Avant toute chose, il est important de rappeler les raisons de la mise en place de restrictions sur Bing. La première version du moteur de recherche dopée à l’IA génératrice avait pour défaut d’être trop libre, puisqu’elle se permettait d’employer un ton trop familier avec ses interlocuteurs. Numerama a eu de nombreuses discussions avec Bing AI, qui a souvent menti, écrit des moqueries,

[Lire la suite]