L’intelligence artificielle : le nouvel eldorado ? (Partie 1)

Source: Deep Learning on Medium

Définitions

Intelligence Artificielle

L’intelligence artificielle consiste à mettre en œuvre un certain nombre de techniques visant à permettre aux machines d’imiter une forme d’intelligence humaine : compréhension du langage naturel, reconnaissance visuelle, système autonome…

L’Intelligence Artificielle telle que nous la connaissons aujourd’hui est une IA qualifiée de “faible” : les machines sont capables à l’heure actuelle de reproduire un comportement humain ou une tâche bien spécifique mais sans conscience par opposition à l’IA qualifiée de “forte” qui n’existe pas encore…

IA faible vs IA forte

Machine Learning (Apprentissage Automatique)

« Le Machine Learning est la discipline donnant aux ordinateurs la capacité d’apprendre sans qu’ils soient explicitement programmés »

Arthus Samuel (1959)

Le Machine Learning reproduit un comportement grâce à des algorithmes entraînés par une importante quantité de données. Ainsi l’algorithme adopte un modèle particulier qui s’adapte au mieux à la situation.

Il existe plusieurs types d’apprentissages :

  • Apprentissage supervisé :

Les données d’entrées de votre système sont annotées. Le but de cet apprentissage est de classifier les données qui ne sont pas annotées et/ou de prédire de nouvelles données à partir de vos données d’entrées.

  • Apprentissage non supervisé :

Les données d’entrées ne sont pas annotés. Le but de cet apprentissage est de trouver des similarités entre vos données afin de regrouper entre elles : on appelle cela du “clustering”.

  • Apprentissage par renforcement :

L’apprentissage par renforcement diffère des apprentissages précédent car ici on parle d’un agent qui interagit avec son environnement afin de trouver la solution optimale pour résoudre le problème en question.

Apprentissage par renforcement

Le Machine Learning comporte généralement deux phases :

  • Une phase d’entrainement où algorithme estime le modèle à partir de données
  • Une phase de production où le modèle est testé à partir de données inédites. Il est également possible dans certains cas que la phase d’entrainement continue même en phase de production afin d’améliorer le modèle en question.

Par exemple si l’on souhaite apprendre notre machine à apprendre le concept de chat ou de chien, on entraîne la machine avec beaucoup d’images (des milliers d’images voir des millions en fonction de la précision que l’on souhaite avoir) de chats et de chiens : on appelle cela de la classification d’images dans notre cas.

Classification d’image (chat)

Deep Learning (Apprentissage profond)

Le “Deep Learning“ est une branche du domaine du “Machine Learning” (ML). Il s’agit de réseaux de neurones disposant de nombreuses couches cachées pour réaliser une tâche considérée complexe si on utilisait des méthodes de ML “classiques”.

Deep Learning vs Classical machine learning

Le Deep Learning est un modèle non linéaire qui utilise des réseaux de neurones composés de centaines, de milliers, voire de millions de neurones.

On retrouve dans les réseaux de neurones une couche d’entrée (C’est là que nous fournissons les données à l’IA), une ou des couches cachées (là où le réseau neuronal fait son analyse) et enfin une couche de sortie (celle qui fournit les résultats des calculs).

Les réseaux de neurones

Il existe plusieurs types de réseaux de neurones à l’heure actuelle :

  • Les réseaux de convolutions :

Convolutional Neural Network (CNN) utilisé principalement dans l’analyse d’images.

Récurent Neural Networks (RNN) utilisé principalement utilisé dans le domaine du traitement du langage naturel

  • Les réseaux antagonistes :

Generative Adversial Networks (GANs) ont été introduit par Ian Goodfellow en 2014, ils permettent de générer des données avec un fort degré de réalisme en mettant en compétition un générateur et un discriminateur

A noter que : en France on parle plus souvent de “Machine Learning” plutôt que sa traduction française “Apprentissage Automatique” et “Deep Learning” au lieu de “Apprentissage profond”.

En résumé

Pourquoi parle-t-on de l’Intelligence Artificielle aujourd’hui ?

Les origines de l’IA

L’Intelligence Artificielle ne date pas d’aujourd’hui, elle est née pratiquement au même moment que l’ordinateur. En effet, la première apparition du terme “intelligence artificielle” en tant que telle apparaît en 1956 par le chercheur John McCarthy qui est considéré avec Marvin Minsky comme les deux pères fondateurs de l’Intelligence Artificielle. Avant cela, Alan Mathison Turing, l’un des pères fondateurs des sciences cognitives modernes avait émis l’hypothèse que le cortex est à la naissance une « machine inorganisée » qui, par le biais de l’apprentissage, devient une « machine universelle ou quelque chose de semblable ». C’est en 1950 que Turing propose une façon de décider si une machine pense ou non, qui deviendra connu sous le nom de “Test de Turing”.

Après des années compliquées où les promesses et le progrès dans le domaine de l’IA n’était pas au rendez-vous…l’avènement d’Internet, les différents progrès autour des algorithmes et des machines de calculs de plus en plus puissantes et à faible coût dans les années 2000, changèrent complètement la donne.

« On s’est rendu compte qu’en prenant des logiciels que nous avions écrits dans les années 80, lors d’un stage par exemple, et en les faisant tourner sur un ordinateur moderne, ils fonctionnaient beaucoup mieux », explique Andrew Ng à Forbes.

“La conspiration du Deep Learning”

Début des années 2000, 3 chercheurs décidèrent de renouveler l’intérêt autour d’une nouvelle méthode d’apprentissage automatique délaissé par la communauté : Le Deep Learning.

De gauche à droite : Yann Lecun, Geoffrey Hinton et Yoshua Bengio ont remporté le prix Turing 2019

Yann lecun est à l’heure actuelle directeur du labo de recherche en IA de Facebook (FAIR) à New York. Yoshua Bengio est le fondateur et directeur scientifique du MILA : Institut québécois d’Intelligence Artificielle et co-fondateur d’Element AI. Geoffrey Hinton est aujourd’hui toujours professeur au département d’informatique de l’Université de Toronto et fait partie depuis 2012 de l’équipe Google Brain.

Les professeurs Yann lecun et Yoshua Bengio ont travaillé dans les années 90 sur un système de lecture de signatures manuscrites de chèques (en utilisant des réseaux de neurones profonds) qui pouvait lire « entre 10 % et 20 % des chèques émis aux Etats-Unis ».

Le professeur Geoffrey Hinton quant à lui a été l’un des premiers à mettre en application l’algorithme de “rétropropagation du gradient”, un élément essentiel pour entraîner un réseau de neurones profond.

La révolution est en marche

L’utilisation de l’apprentissage profond au concours d’ImageNet (ILSVRC)

En 2012, Geoffrey Hinton et son équipe (Ilya Sutskever et Alex Krizhevsky) remporte la prestigieuse compétition ImageNet, consacrée à la reconnaissance d’image et par la même occasion popularise le concept du Deep learning à travers la communauté scientifique. En effet l’équipe de G.Hinton est la seule équipe cette année-là à classifier des images avec un taux d’erreur deux fois moins élevé que les compétiteurs les plus proches. L’année suivante lors de cette même compétition organisé par ImageNet, toutes les équipes adoptèrent cette technique de reconnaissance d’image contribuant ainsi à faire baisser le taux d’erreur de classification de plus en plus.

Evolution du progrès en reconnaissance d’images au ILSVRC

Une prouesse qui n’a pas échappé aux géants d’internet qui voit l’intelligence artificielle comme un domaine susceptible de bouleverser les modèles commerciaux. En effet, l’intelligence artificielle se présente comme la solution technologique parfaite pour analyser et traiter le nombres colossales de données que les géants d’internet récoltent quotidiennement : texte, images, vidéos, jeux…

Google recrute en 2012, le professeur Geoffrey Hinton. La même année, Facebook recrute le professeur Yann lecun pour diriger le laboratoire de recherche en IA de Facebook. Seul Yoshua Bengio refuse les propositions des géants d’internet et préférant rester à Montréal pour en faire la “Silicon Valley de l’intelligence artificielle”.

Quelques années après le concours d’ImageNet, un autre événement a contribué de manière considérable à la popularité du Deep Learning à travers le monde entier…

L’avènement : AlphaGo

En Octobre 2015, la société DeepMind, filiale racheté par Google en 2014 a développé un programme informatique (baptisé “AlphaGo”) capable de jouer au jeu de Go et devient également le premier programme à battre un joueur professionnel (le français Fran Hui). L’année suivante en mars 2016, AlphaGo bat Lee Sedol, un des meilleurs joueurs mondiaux.

AlphaGo utilise les concepts de l’apprentissage par renforcement et des réseaux de neurones profonds pour faire de l’auto-apprentissage. Une seconde version d’AlphaGo baptisé AlphaGo zero fait encore plus fort en surpassant très largement sa sœur. Cette version a joué contre lui-même afin de s’améliorer et de battre le champion du monde Lee Sedol en gagnant par 100 jeux à 0.

Nombre de possibilité du jeu de Go est de l’ordre de 1⁰⁶⁰⁰

La société travaille aujourd’hui sur d’autres IA capable de battre les meilleurs professionnels aux jeux-vidéos (récemment AlphaStar qui a battu le joueur MaNa sur le jeu StarCraft) mais sur d’autres domaines tel que la santé.

C’est tout pour cette première partie ! Dans une seconde partie, on parlera plus en détails des faces cachés de l’Intelligence Artificielles ainsi que de ces limites technologiques…

Sources :

https://www.mailabs.fr/lintelligence-artificielle-faible-et-forte-en-entreprise/