Les capacités d’apprentissage de l’intelligence artificielle progressent plus vite que prévu

Original article was published by Mathieu Chéret on Deep Learning on Medium


Les capacités d’apprentissage de l’intelligence artificielle progressent plus vite que prévu

Série : Real Humans

C’est un rapport de 16 pages, rédigé par des chercheurs du M.I.T.* et passé quasiment inaperçu lors de sa parution début juillet, qui l’affirme : les intelligences artificielles qui utilisent la technique du deep learning apprennent plus vite qu’escompté. Cette annonce va sans doute accélérer la course aux superordinateurs, alors que l’entreprise Nvidia et l’Université de Floride ont annoncé le 21 juillet dernier qu’ils allaient collaborer pour mettre au point le supercalculateur le plus rapide jamais conçu. Explications.

Dans leur rapport intitulé “The Computational Limits of Deep Learning”, les chercheurs Neil C. Thompson, Kristjan Greenewald, Keeheon Lee et Gabriel F. Manso, font un constat surprenant : après une analyse minutieuse de 1058 documents de recherche en intelligence artificielle, il semblerait que nous approchions des limites de calcul pour son développement. La technique du deep learning, qui révolutionne actuellement l’intelligence artificielle, en est la cause principale.

Le deep learning est une technique d’apprentissage basé sur des “réseaux de neurones artificiels” inspirés par la structure et la fonction du cerveau. Il permet par exemple à un programme de reconnaître le contenu d’une image ou de comprendre le langage parlé. Pour Yann LeCun qui dirige le laboratoire d’intelligence artificielle de Facebook : “avant, il fallait le faire à la main, expliquer à l’outil comment transformer une image afin de la classifier. Avec le deep learning, la machine apprend à le faire elle-même. Et elle le fait beaucoup mieux que les ingénieurs, c’est presque humiliant !” (article Le Monde “Comment le « deep learning » révolutionne l’intelligence artificielle”).

Pour progresser, une intelligence artificielle qui utilise le deep learning a besoin de disposer de beaucoup de données et donc d’ordinateurs qui possèdent une puissance de calcul élevé pour les traiter. Pour les chercheurs à l’origine du rapport, c’est là que réside le problème. Selon eux, “la poursuite des progrès nécessitera des méthodes d’apprentissage profond (comme le deep learning)considérablement plus efficaces sur le plan informatique, soit en modifiant les techniques existantes, soit en utilisant de nouvelles méthodes encore inconnues. Autrement dit, pour continuer à faire progresser les intelligences artificielles, les entreprises ou les pays devront soit augmenter de façon importante la capacité de calcul des ordinateur, soit emprunter des voies inexplorées jusqu’à présent.

Inauguration du supercalculateur Fugaku

Pourtant les entreprises de la Tech spécialisées dans la recherche en intelligence artificielle ne lésinent pas sur leurs efforts pour augmenter de façon considérable les capacités de leurs supercalculateurs. Avec Fugaku, le Japon est repassé en tête dans la course aux supercalculateurs. Cela faisait 10 ans que le pays du soleil levant n’avait pas occupé cette place, dépassé par les supercalculateurs américains et chinois. Fugaku est désormais près de trois fois plus rapide que le supercalculateur américain Summit développé par IBM, qui perd ainsi la tête du classement. Une place qu’il occupait depuis 4 ans. Fugaku peut réaliser 415 millions de milliards d’opérations à la seconde, contre 148 millions de milliards pour Summit.

Malgré sa puissance phénoménale de calcul, Fugaku sera bientôt dépassé par le supercalculateur HiPerGator, développé par Nvidia et l’Université de Floride. Opérationnel début 2021, il pourra réaliser 700 millions de milliards d’opérations par seconde ! Selon Le Journal du Geek, HiPerGator sera mis à contribution dans le cadre de l’intelligence artificielle appliquée à de nombreux domaines : le mouvement des marées, le vieillissement de la population, la sécurité des données, la médecine personnalisée, les transports urbains, etc.

Cette course pose cependant plusieurs problèmes. Le premier est celui du coût. A part les GAFAM qui possèdent les fonds nécessaires pour développer des superordinateurs toujours plus performants, quelles sont les entreprises à l’avenir qui pourront se permettre de participer financièrement à cette course ? Même pour certains états, la marche sera trop haute. Sachant que l’utilisation de l’intelligence artificielle permet au capitalisme de poursuivre sa logique de concentration toujours plus inégalitaire des richesses, en centralisant dans les mains de quelques acteurs un accès à des données massives et donc à leur valeur. De plus, le coût environnemental lié semble de plus en plus élevé. Le numérique représentant déjà 4% des émissions totales de gaz à effet de serre !

*Le Massachusetts Institute of Technology est un institut de recherche américain et une université, spécialisé dans les domaines de la science et de la technologie.