La bourse ferme dans 2 h 24 min
  • CAC 40

    5 806,40
    +8,42 (+0,15 %)
     
  • Euro Stoxx 50

    3 708,81
    +2,82 (+0,08 %)
     
  • Dow Jones

    31 961,86
    +424,51 (+1,35 %)
     
  • EUR/USD

    1,2213
    +0,0045 (+0,37 %)
     
  • Gold future

    1 780,50
    -17,40 (-0,97 %)
     
  • BTC-EUR

    42 011,20
    -35,95 (-0,09 %)
     
  • CMC Crypto 200

    1 028,60
    +33,93 (+3,41 %)
     
  • Pétrole WTI

    63,19
    -0,03 (-0,05 %)
     
  • DAX

    13 976,45
    +0,45 (+0,00 %)
     
  • FTSE 100

    6 687,70
    +28,73 (+0,43 %)
     
  • Nasdaq

    13 597,97
    0,00 (0,00 %)
     
  • S&P 500

    3 925,43
    +44,06 (+1,14 %)
     
  • Nikkei 225

    30 168,27
    +496,57 (+1,67 %)
     
  • HANG SENG

    30 074,17
    +355,93 (+1,20 %)
     
  • GBP/USD

    1,4142
    +0,0001 (+0,00 %)
     

Les humains seraient incapables de contrôler une IA superintelligente, selon une étude

·2 min de lecture

Il ne serait théoriquement pas possible de prédire les actions de l'intelligence artificielle, selon une étude de l'Institut Max-Planck pour les hommes et les machines. "Une machine super-intelligente qui contrôle le monde ressemble à de la science-fiction", admet Manuel Cebrian, co-auteur de l'étude et chef du groupe de recherche. "Mais il existe déjà des machines qui effectuent certaines tâches importantes de manière indépendante, sans que les programmeurs ne comprennent parfaitement comment elles l'ont apprise".

Notre société s'oriente de plus en plus vers une dépendance à l'intelligence artificielle. Des entretiens d'embauche interactifs menés par l'IA à la création de musique et même de mèmes, l'IA fait déjà partie intégrante nos vies. Selon l'étude publiée dans le Journal of Artificial Intelligence Research, pour prédire les actions d'une IA, il faudrait faire une simulation exacte de cette superintelligence.

A lire aussi — Microsoft a breveté un chatbot qui pourrait reproduire un être cher décédé ou une célébrité

La question de savoir si une superintelligence pourrait être contenue n'est pas nouvelle. Manuel Alfonseca, co-auteur de l'étude et chef du groupe de recherche du Centre pour l'homme et la machine de l'Institut Max-Planck, a déclaré que tout tourne autour d'algorithmes restrictifs qui ne sont pas différents de la première loi de la robotique d'Asimov, selon l'IEEE.

En 1942, le prolifique auteur de science-fiction Isaac Asimov a exposé les trois lois de la robotique dans sa nouvelle "Runaround", dans le cadre de la série "I, Robot". Selon Asimov, un robot ne doit pas pouvoir faire de mal à un humain ou lui permettre de faire du mal, il doit obéir aux ordres sauf si ces ordres sont en conflit avec la première loi et il doit se protéger, à condition que cela ne soit pas en conflit avec la première ou la deuxième loi.

Les scientifiques ont exploré deux façons différentes de contrôler l'intelligence artificielle, la première étant de limiter l'accès d'une IA (...)

(...) Cliquez ici pour voir la suite

La 'Cour suprême' de Facebook a rendu ses premières décisions sur la modération trop 'vague' du réseau
Facebook ne recommandera plus de groupes politiques ou militants à ses utilisateurs
Apple franchit pour la première fois la barre des 100 milliards de dollars de chiffre d'affaires trimestriel
Les 15 projets tech les plus fous qui ne verront jamais le jour
YouTube veut concurrencer TikTok avec Shorts en Inde et revendique déjà 3,5 milliards de vues par jour