La bourse ferme dans 7 h 4 min

La puissance de calcul nécessaire pour entraîner l'IA double tous les 3,4 mois

Céline Deluzarche, Journaliste

La puissance de calcul nécessaire pour les algorithmes d’intelligence artificielle double tous les 3,4 mois, selon une analyse de l’entreprise OpenAI, qui vise à développer une IA « responsable ». Entre 1959 et 2012, cette progression suivait la loi de Moore, la puissance doublant tous les deux ans. Mais depuis l’émergence des réseaux neuronaux modernes en 2012, la puissance de calcul a été multipliée par 300.000, soit un taux de progression sept fois plus rapide. Le programme Alphago Zero nécessite ainsi 1.860 petaflops par seconde et par jour alors qu’Alexnet, le réseau neuronal conçu par Alex Krizhevsky et sorti en 2012, ne tournait « que » avec 0,0054 petaflop par seconde et par jour.

L’échelle logarithmique montre la progression exponentielle de la puissance de calcul nécessaire pour entraîner les algorithmes d’intelligence artificielle : en sept ans, celle-ci a été multipliée par 300.000. © OpenAI

« Cette tendance est due notamment à la baisse des coûts du calcul (nombre d’opérations par watt), mais aussi par de nouvelles configurations des réseaux qui utilisent toujours plus de puces en parallèle », rapportent les ingénieurs d’OpenAI. Et cette course au petaflops n’est pas prête de s’arrêter : « le budget informatique mondial est de 1.000 milliards de dollars par an et les limites de ce budget semblent lointaines », euphémise OpenAI. Autrement dit, la recherche en IA bénéfice pratiquement d’un « open bar » pour acquérir toujours plus de puissance informatique. Le problème, c’est que ces énormes serveurs génèrent aussi une énorme pollution : une étude de l’université du Massachusetts sortie en juin 2019 avait calculé que l’entraînement d’un programme d’apprentissage de langage naturel tel que Transformer générait jusqu’à 300 tonnes de CO2, l’équivalent de 60 années d’émissions pour un humain.


> Lire la suite sur Futura