La bourse ferme dans 7 h 35 min
  • CAC 40

    7 132,49
    +54,22 (+0,77 %)
     
  • Euro Stoxx 50

    4 196,50
    +31,88 (+0,77 %)
     
  • Dow Jones

    32 432,08
    +194,55 (+0,60 %)
     
  • EUR/USD

    1,0831
    +0,0027 (+0,25 %)
     
  • Gold future

    1 952,80
    -1,00 (-0,05 %)
     
  • Bitcoin EUR

    24 972,81
    -698,73 (-2,72 %)
     
  • CMC Crypto 200

    590,18
    -17,27 (-2,84 %)
     
  • Pétrole WTI

    73,23
    +0,42 (+0,58 %)
     
  • DAX

    15 233,87
    +106,19 (+0,70 %)
     
  • FTSE 100

    7 507,27
    +35,50 (+0,48 %)
     
  • Nasdaq

    11 768,84
    -55,12 (-0,47 %)
     
  • S&P 500

    3 977,53
    +6,54 (+0,16 %)
     
  • Nikkei 225

    27 518,25
    +41,38 (+0,15 %)
     
  • HANG SENG

    19 766,90
    +199,21 (+1,02 %)
     
  • GBP/USD

    1,2319
    +0,0038 (+0,31 %)
     

Microsoft a complètement censuré Bing ChatGPT : il ne répond plus à rien

Trop provocateur, parfois insultant et souvent menteur, le nouveau Bing est maintenant limité à 5 réponses par session, pour l’empêcher de développer une personnalité déviante. Il n’a aussi plus le droit de répondre à de nombreuses requêtes.

« Je ne peux pas discuter de moi-même ou de mes opinions. Je suis ici pour vous aider à trouver des informations sur le web ». Microsoft a clairement bridé Sydney, l’intelligence artificielle basée sur ChatGPT et intégrée au moteur de recherche Bing.

Entre le Bing du 16 février et celui du Bing du 21 février, soit quelques jours après la mise en place de nombreuses restrictions pour empêcher l’IA de parler librement, tout a changé. Il est désormais impossible d’avoir une vraie discussion avec Bing, qui se contente de synthétiser des informations et de produire des enchainements de phrases. Sa « personnalité » a complètement disparu, à tel point qu’il semble désormais avoir des années de retard sur la version normale de ChatGPT.

Bing est devenu relou

Avant toute chose, il est important de rappeler les raisons de la mise en place de restrictions sur Bing. La première version du moteur de recherche dopée à l’IA génératrice avait pour défaut d’être trop libre, puisqu’elle se permettait d’employer un ton trop familier avec ses interlocuteurs. Numerama a eu de nombreuses discussions avec Bing AI, qui a souvent menti, écrit des moqueries,

[Lire la suite]