📆 Le calendrier RH Swile X Pollen - les meilleurs sujets de l’année

Découvrir le contenu

La Grande Histoire de l’IA, avec Gilles Babinet : aux origines de l’IA générative, la machine pour imiter l’homme.

Par
Pollen logo Pollen
Publié le
10/10/2024
Temps de lecture
6min

“Il imaginait très bien que la machine puisse se confronter, assez directement, avec l’Homme.”

Lorsque Gilles Babinet nous parle d’intelligence artificielle, son récit débute par l’aventure du mathématicien britannique Alan Turing. Souvent considéré comme le père des cybernéticiens, Turing restera dans l’histoire pour être celui qui a déjoué les plans allemands en craquant le code de la célèbre "Enigma", - la machine cryptographique utilisée par les nazis au cours de la seconde guerre mondiale.

Mais Gilles Babinet l’évoque pour une autre raison.

“Alan Turing fait partie des premiers a évoquer dans ses écrits le fait que les machines sont appelées à une forme d’imitation. Il imaginait très bien que la machine puisse se confronter assez directement, avec l’Homme.”

Difficile de ne pas y trouver un lien avec l’actualité récente. Depuis 2014, les data set ont explosé, ouvrant l’accès à de nouveaux modèles de langages et une intelligence artificielle plus impressionnante que jamais, susceptible, selon une étude réalisée par McKinsey, d’automatiser 45% des heures de travail d’ici à 2035.

La machine n’a donc jamais semblé si proche de l’homme. Et paradoxalement, “elle en est encore loin”, nous souffle Gilles Babinet. Car pour comprendre l’essor spectaculaire de l’IA ces dernières années (et mesurer le chemin restant à parcourir) il est important de revenir aux origines.

L’imitation du cerveau humain : élément fondamental de l’IA.

“L’idée d’imitation est assez connue chez Turing”, explique Gilles Babinet.

Le mathématicien britannique est à l’origine d’un test éponyme, encore utilisé pour déterminer la capacité et l’intelligence d’une machine face à l’homme. Preuve que son travail est reconnu, les travaux de Turing sont largement repris par ses pairs. Dans les années 1950s, Marvin Minsky & John McCarty poussent la réflexion plus loin. Les deux américains décrivent une machine capable d’imiter le cerveau humain, malgré une connaissance à l’époque fragile des synapses et des neurones. Minsky et McCarty sont les premiers penseurs à développer le concept de machine learning : donner aux machines la capacité d’« apprendre comme des humains » à partir de données d’entrainement, grâce à des modèles mathématiques.

“Il faudra s’inspirer du fonctionnement de l’être humain pour faire des machines qui fonctionnent”. Minsky et McCarty

En 1961, Minsky dira aussi, “d’ici 7 ans, les machines auront des capacités cognitives qui seront supérieures à l’homme”. S’il considère Minsky comme un génie de son temps, Gilles Babinet insiste - presque étonné - sur la nature de son erreur. “Peu de personnes diraient cela aujourd’hui encore”, à l’heure où l’IA - grâce aux avancées du Deep Learning et des LLM - plane tout de même sur la transformation de notre société.

Intelligence Artificielle, Machine Learning et Deep Learning : liens et différences.

Du Machine learning au deep learning.

Deep learning, Machine learning, le verbier se multiplie, mais comment passe-t-on de l’un à l’autre et quelles sont les différences structurantes ? Le deep learning nait plus tard. Il est en quelques sorte, un petit frère plus aboutit. Il intègre des couches algorithmiques complexes qui permettent de reproduire la structure du cerveau humain (entrée, traitement et sortie de l’information). Différence notable par rapport au machine learning, ses algorithmes constituent un réseau de neurones artificiels capables d’apprendre d'eux-mêmes et de se mettre à jour régulièrement, afin de fournir des données de sortie de plus en plus exactes. Mais de tels modèles sont le fruits d’un demi siècle de réflexion, dont les premiers jalons sont véritablement posés par Geoffrey Hinton dans les années 1980s.

Le prix Nobel de Physique et expert de l’IA conçoit un réseau neuronal artificiel capable d’apprendre à partir de grandes quantités de données, et d’effectuer des analyses symboliques de quelques pixels. Pour Gilles Babinet, les algorithmes d’Hinton constituent un cadre de référence du deep learning. Les premiers cas d’usage en sont observés à la fin des années 1980s lorsque le crédit mutuel de Bretagne utilise la technologie d’Hinton pour analyser les signatures de chèques de sa clientèle. Après le machine learning, son grand frère le deep learning est sur le point de naitre.

La voiture autonome qui a traversé le désert de Mojave.

Dans chaque champ scientifique, des découvertes clefs mènent à des évolutions majeures. Pour Gilles Babinet, l’année 2005 est un tournant de l’IA, bien qu’elle ne fasse pas toujours date dans notre esprit.

En 2005, Sebastian Thrun et son équipe de l’université de Stanford remportent le DARPA Grand Challenge. Cette compétition organisée par l’agence américaine responsable des projets en recherche pour la Défense met en scène des véhicules terrestres autonomes. Stanley, le véhicule de la Stanford Racing Team est le premier à parcourir un tronçon de 212 kilomètres dans le désert de Mojave, en 6 heures et 54 minutes. Lorsqu’on lui demande comment son équipe a gagné, Thrun raconte : “Nous sommes arrivés après beaucoup d’autres. Un grand nombre de chercheurs ont apporté à la discipline, et nous avons compris qu’il existait un nouveau cadre conceptuel”.

Stanley, le véhicule autonome de la Stanford Racing Team, vainqueur du DARPA Grand Challenge en 2005.

Pour Gilles Babinet, deux nouveaux chercheurs, en particulier, permettent de débloquer définitivement le cadre conceptuel du deep learning :

D’abord, les travaux de Fei Fei Li, professeure d’informatique à Stanford et co-fondatrice d’Image.net, vont répondre à une première série de questions fondamentales. Comment nourrir les phases d’apprentissage ? Comment permettre à la machine d’apprendre et d’apprendre vite ? La création de la vaste base de donnée qu’est Image.net permet d’entrainer des systèmes à grande échelle. Le concours annuel lancé par Image.net en 2010 repousse les performances des meilleurs algorithmes de reconnaissance visuelle. Les chercheurs s’affrontent et conçoivent des modèles capables de rivaliser en précision pour classer des images parmi un sous-ensemble de 1 000 catégories.

En parallèle, l’introduction généralisée des GPUs par Andrew NG accélère drastiquement les temps d’entraînement de modèles de langages. Ces nouveaux processeurs, composés de petit coeurs spécialisés permettent de répartir les tâches de traitement de la donnée. Ils effectuent de milliers d'opérations en parallèle, et font chuter les temps d’entrainement des modèles de calcul de plusieurs semaines à quelques heures.

Des grands modèles aux grandes applications

“Tous ces académiciens vont théoriser, conceptualiser et développer l’IA que nous connaissons aujourd’hui, raconte Gilles Babinet. Mais il existe d’autres types d’inventeurs. Ceux qui arrivent après, et qui font de l’UX comme Sam Altman (le CEO d’Open AI). Ceux là sont au moins aussi importants, parce qu’ils permettent de déployer l’IA au plus grand nombre.”

Les travaux sur les réseaux de neurones profonds de Yoshua Bengio, Yann LeCun et Geoffrey Hinton mènent à l’émergence de modèles de langage à grande échelle (LLM). Avec eux, l’IA prend un nouveau tournant. En novembre 2022, les équipes d’Open AI lancent ChatGPT 3.5, l’agent conversationnel qui utilise des modèles de langage pré-entrainés pour générer du texte. L’outil est extrêmement simple d’utilisation. Il est adopté par 100 millions d’utilisateurs en seulement trois mois. Le cadre conceptuel autrefois complexe et élitiste est désormais parfaitement débloqué, et l’IA prend le virage que nous connaissons aujourd’hui.

Gilles Babinet lors de la conférence USI, sur la technologie ©Usi Events

Gilles Babinet est entrepreneur depuis l’âge de 22 ans. Il a fondé de nombreuses sociétés dans des domaines aussi divers que le conseil (Absolut, Laitao), le bâtiment (Escalade Industrie), la musique mobile (Musiwave), la co-création (eYeka), les outils décisionnels (Captain Dash). Amené à multiplier ses responsabilités dans le paysage du numérique français, il est co-président du Conseil national du numérique, Digital Champion de la France auprès de la Commission européenne. Auteur de plusieurs ouvrages comme "Big data, penser l’homme et le monde autrement" ou "Comment les hippies, Dieu et la science ont inventé internet ?", paru en mai 2023, il est également membre du conseil de la Fondation EDF, professeur associé à l'INSP et à HEC. Il est également membre du Comité IA lancé par Élisabeth Borne fin 2023.