Marchés français ouverture 1 h 15 min
  • Dow Jones

    30 932,37
    -469,63 (-1,50 %)
     
  • Nasdaq

    13 192,35
    +72,95 (+0,56 %)
     
  • Nikkei 225

    29 663,50
    +697,49 (+2,41 %)
     
  • EUR/USD

    1,2092
    +0,0004 (+0,04 %)
     
  • HANG SENG

    29 349,59
    +369,38 (+1,27 %)
     
  • BTC-EUR

    38 058,51
    +433,46 (+1,15 %)
     
  • CMC Crypto 200

    918,70
    -14,44 (-1,55 %)
     
  • S&P 500

    3 811,15
    -18,19 (-0,48 %)
     

Face à une attaque de drones autonomes, l’US Army serait obligée de laisser l’IA aux commandes

Sylvain Biget, Futura
·2 min de lecture

Des drones qui évoluent par essaims fondent de toutes parts sur des troupes au sol. Chargés d’explosifs, ils font un carnage en s’abattant sur des soldats incapables de lutter contre autant de petits aéronefs armés. Ce scénario envisageable est l’une des plus grandes craintes des militaires américains. S’ils arrivent en nombre suffisant, ces drones tueurs autonomes seraient trop rapides pour que les soldats puissent tenter quoique ce soit, selon le général John Murray, chef de l’United States Army Futures Command, la branche militaire dédiée à la modernisation des armées américaines.

Lors d’un webinaire tenu dans le cadre du Center for Strategic & International Studies, le général a expliqué que, dans une telle situation, l’humain est à même de prendre les premières décisions mais que la nuée de drones ne lui permettra pas de résister longtemps. Pour lui, la seule façon de s’en sortir, c’est d’exploiter des systèmes de combat renforcé par de l’Intelligence artificielle (IA). Ils permettraient d’améliorer la reconnaissance et l’identification des cibles et surtout de gagner en réactivité.

Avec l'hyperactivité des champs de bataille du futur, l’humain n'aura pas d'autre choix que de donner plus d'autonomie à la machine pour assurer sa propre défense

Libérer l’IA pour survivre

Pour l’armée américaine, tout comme en France et la plupart des autres pays, il n’est pas question de conférer de l’autonomie à des systèmes de combats intelligents. C’est toujours l’humain qui doit contrôler et décider. Mais, dans le cadre d’un tel scénario, le général considère qu’il faudrait que le niveau de contrôle de l’humain sur l’IA soit franchement diminué. Cela signifie laisser plus d’autonomie à l’IA avec les risques éthiques ou de perte de contrôle que cela pourrait comporter.

Le général Murray a tenté de rassurer, en expliquant qu’un exercice baptisé Project Convergence avait été mené en septembre en Arizona. Lors de celui-ci, des systèmes de combats dopés à l’IA combinés à des...

> Lire la suite sur Futura

À lire aussi sur Futura