IA, Machine Learning, Deep Learning… De quoi parle-t-on ? 1


Share Button
IA, Machine Learning, Deep Learning… De quoi parle-t-on ?

L’engouement actuel autour de l’Intelligence Artificielle (IA) sème la confusion sur l’interaction et le rôle des différents domaines qui la composent. Ingénieur Data chez BIAL-R et formateur ORSYS, Yann Romestant* nous détaille les intérêts respectifs du Machine Learning et du Deep Learning et les grands cas d’usage associés.

Intelligence Artificielle, Machine Learning, Deep Learning…

Ces « buzzwords » sont depuis quelque temps diffusés dans la presse spécialisée comme grand public, sans que l’on sache véritablement ce que chaque terme recouvre. Des éditeurs et des fournisseurs de services participent d’ailleurs à cette confusion en apposant la mention IA à toutes leurs offres.

Pour comprendre ce glissement sémantique, prenons le temps de faire un rappel historique. L’Intelligence Artificielle, qui consiste à concevoir des technologies capables de simuler/imiter certains traits de l’intelligence humaine, n’est pas récente.

Tout commence avec Enigma 

Des experts font démarrer ses débuts avec les travaux du mathématicien britannique Alan Turing. Il s’est rendu célèbre pour avoir contribué pendant la Seconde Guerre mondiale à décoder Enigma, la machine utilisée par le régime nazi pour chiffrer ses messages. Cet exploit aurait permis d’écourter le conflit d’au moins deux ans. Nombre de ses travaux ont permis l’essor de l’Intelligence Artificielle, comme le test de Turing ou encore son article « Computing Machinery and Intelligence ».

Par la suite, l’IA est restée longtemps cantonnée aux laboratoires de recherche. Deux facteurs l’ont sortie du monde de la R&D : l’augmentation exponentielle du volume de données, d’une part, et la puissance de calcul et les capacités de stockage infinies apportées par le Cloud, d’autre part.

Pour simplifier à l’extrême, il existe deux formes d’IA. Les systèmes experts, mis en production après le boom de l’IA des années 80, répondent à des tâches complexes en retenant un choix parmi une multitude de possibilités. Il s’agit, par exemple, de l’algorithme du GPS qui trouve le chemin le plus rapide. L’autre grande famille, ce sont les agents intelligents qui sont restés au stade de la recherche dans les années 80 pour les raisons évoquées plus haut. Ils représentent une « retranscription » mathématique d’un problème.

Le Deep Learning fait franchir un nouveau cap

Pour Yann Romestant, ingénieur Data chez BIAL-R et formateur ORSYS, un nouveau cap a été franchi avec l’essor récent du Deep Learning. « Il a permis de réaliser des progrès significatifs notamment dans la reconnaissance d’images ». Le Deep Learning est un sous-ensemble du Machine Learning, qui lui-même appartient à la grande famille de l’Intelligence Artificielle.

Le Deep Learning tire sa force des réseaux de neurones dont le fonctionnement s’inspire du cerveau humain. Le réseau le plus connu (perceptron) est organisé en strates superposées. Les neurones d’une couche sont connectés à ceux d’une autre couche. C’est cette superposition de couches qui explique le terme d’apprentissage « profond ». AlphaGo de Google-DeepMind lui doit sa victoire sur l’un des champions mondiaux de Go, un jeu de stratégie jugé pourtant trop complexe pour être assimilé par une machine. Il y aurait plus de possibilités au jeu de Go que d’atomes observables dans l’univers !

« Le Deep Learning est une sorte de boîte noire, poursuit Yann Romestant. De plus, généralement, plus le réseau et la problématique sont complexes, plus la modélisation nécessitera un volume conséquent de données. Par exemple, pour apprendre à un système à reconnaître un chat et le dissocier d’autres animaux qui lui ressemblent, il faudra l’alimenter avec un très grand nombre d’images. »

Encore rare dans le monde de l’entreprise…

Beaucoup d’autres problèmes complexes peuvent être traités avec le Deep Learning, comme le traitement du langage naturel. « Facebook investit et récolte, par exemple, beaucoup d’argent pour pouvoir faire du marketing prédictif et proposer des publicités personnalisées à ses membres en fonction de leurs commentaires ou conversations. Les chatbots sont aussi une application phare de ce domaine. »

« S’il existe de plus en plus de librairies, de frameworks pour s’affranchir de la complexité bas niveau, toutes les technologies de Deep Learning ne sont pas toujours très stables. Elles sont encore rares dans le monde de l’entreprise. Il s’agit souvent plus de POCs (Proof Of Concept) au stade expérimental que de projets en production. »

Le Machine Learning, qui est en quelque sorte la formalisation mathématique d’un problème, fait appel, lui, à plusieurs familles d’algorithmes dont les arbres de décision, les modèles de régression, la classification naïve bayésienne et bien d’autres.

À chaque cas d’usage, son algorithme

À quel moment un Data Scientist optera-t-il pour le Machine Learning (« plus classique ») ou le Deep Learning ? La nature des données à traiter peut-être un facteur de choix. L’avantage du Deep Learning, c’est qu’il peut parfois s’affranchir d’une structuration plus importante des données. Néanmoins, à la différence du côté « boîte noire » du Deep Learning, un arbre de décision donne une représentation assez claire du résultat attendu. Par exemple, on peut directement voir que « si on établit la prédiction de survie à bord du Titanic », illustre Yann Romestant, « une femme en 3e  classe aura plus de chances de survivre qu’un homme adulte, mais moins qu’une femme en 1re  classe ou en 2e  classe. »

Le Deep Learning obtient des résultats remarquables sur les données non structurées, à savoir les données qui n’ont pas de format prédéfini. Ce qui entraîne des irrégularités et des ambiguïtés qui peuvent rendre difficile la compréhension des données. Pour caricaturer, celles que l’on ne peut pas mettre dans un tableur Excel comme, entre autres, des images ou des vidéos. En effet, le Deep Learning excelle dans la reconnaissance d’images qui touche un grand nombre de cas d’usage comme la voiture autonome, le diagnostic de cancer, la lecture des plaques d’immatriculation, la détection d’anomalies sur une ligne de production industrielle et bien d’autres.

Démocratiser l’accès à la Data Science

« Dans le monde mouvant de la Data Science, les technologies évoluent en permanence », observe Yann Romestant. « Cela suppose un important travail de veille. De plus, la plupart des outils sont Open Source, donc en libre accès – comme TensorFlow développé par Google – mais leur appropriation nécessite un investissement élevé ».

Différentes initiatives du marché tentent de démocratiser l’accès à ces technologies. C’est notamment le cas des plateformes de  « Data Science as a Service » proposées par les fournisseurs de Cloud comme Amazon Web Services, Microsoft Azure, Google Cloud Platform ou IBM. Elles réunissent toutes en un seul point des outils de Data Science, plus ou moins haut niveau, tout en permettant à l’utilisateur de s’affranchir des contraintes de l’administration de l’infrastructure sous-jacente. C’est aussi la promesse du français Dataiku que de donner accès à la Data Science à des personnes qui ne sont pas des Data Scientists.

Disparité  d’une entreprise à l’autre

Pour autant, Yann Romestant note que la maturité est longue à venir, et très variable d’une entreprise à l’autre. « Les entreprises qui se lancent dans la Data Science se rendent la plupart du temps rapidement compte que leurs données ne sont pas suffisamment fiables ou de qualité. Il faut donc structurer sa récolte de données et cela rajoute des étapes. »

Certaines entreprises ont néanmoins dépassé le stade du POC pour déboucher sur des projets en production. Le secteur de la banque, pour la prédiction des cours et la détection des cas de fraude, ou de l’assurance, pour l’élaboration de contrats de plus en plus individualisés, sont particulièrement en pointe. Le secteur médical et pharmaceutique a aussi des projets très prometteurs. Sans parler du secteur du marketing prédictif pour lequel certains algorithmes sont maintenant en place depuis des années.

Plus surprenant, Pôle Emploi n’a pas hésité à faire appel à la start-up Bayes Impact pour accompagner le candidat dans sa recherche d’emploi. Sur le site Bob Emploi, qu’elle a développé, un coach établit un diagnostic puis lui suggère, en fonction de son profil, différentes actions comme envoyer des candidatures spontanées à une liste prédéfinie d’entreprises ou se rendre à certains salons spécialisés.

Le meilleur à venir ?

Mais pour Yann Romestant, le meilleur reste à venir. « Pour l’heure, les algorithmes sont mono-tâches. Ils ne font que ce pour quoi ils sont conçus. » Selon lui, « nous sommes encore très loin d’une IA dite forte, consciente d’elle-même et capable d’émotion pour prendre des décisions. »

En cela, notre expert réfute le discours ambiant estimant que les machines sont appelées à remplacer complètement l’homme.  « Ce discours n’est pas nouveau, il refait surface à chaque grande évolution technologique. Je crois davantage à une IA complémentaire de l’homme le déchargeant de certaines tâches rébarbatives et chronophages. »

Nos formations dans ce domaine : Yann Romestant - intervenant ORSYS  

Intelligence Artificielle : enjeux et outils

Deep Learning par la pratique

Deep Learning et réseaux de neurones : les fondamentaux

Machine Learning, l’état de l’art

Machine learning, méthodes et solutions

Big Data, Data Science, Machine Learning, leur impact dans l’entreprise

Microsoft Azure Machine Learning, développer et exploiter des algorithmes

Share Button

Laissez un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Commentaire sur “IA, Machine Learning, Deep Learning… De quoi parle-t-on ?

  • Franck

    « Selon lui, « nous sommes encore très loin d’une IA dite forte, consciente d’elle-même et capable d’émotion pour prendre des décisions. »
    En cela, notre expert réfute le discours ambiant estimant que les machines sont appelées à remplacer complètement l’homme. »
    Bonjour,
    De mon point de vue c’est inexacte, je suis en train de travailler sur une nouvelle architecture hardware pour justement mettre en place cette conscience. C’est le fait de se baser sur un « vieux » système qui limite les possibilités de l’IA. Maintenant faut aussi prendre en compte les couts de développement hardware et software qui sont abyssaux et représentent des milliards d’euros, va falloir être patient, en Europe en tout cas… 😉