Rubrique
Tout sur tout

Pourquoi l’intelligence artificielle est la discipline qui porte le moins bien son nom ?

Qui n’a jamais vu les robots Atlas ou Spot de Boston Dynamics sans éprouver un frisson d’effroi en imaginant ces animaux mécaniques peupler nos rues – pour le meilleur mais surtout pour le pire. D’autant plus que, s’ils n’ont pas encore été utilisés pour tuer, comme c’est le cas dans un épisode de la série britannique Black Mirror, ils ont fait régner la distanciation physique réclamée pendant la pandémie de Covid-19 dans les parcs singapouriens à l’été 2020. Et pourtant, ici comme ailleurs, l’intelligence artificielle n’est pas là où l’attend.

Les robots de cette entreprise américaine, fondée en 2013 par Google et rachetée à Sofbank par Hyundai pour 1,1 milliard de dollars en décembre 2020, ne sont pas autonomes mais bien téléguidés par des humains. L’IA intervient uniquement (ou presque) dans leur agilité mécanique et leur capacité à appréhender l’environnement qui les entoure. Ce qui leur confère une gestuelle très « animale », responsable de notre inquiétude.

Les robots de Boston Dynamics ne sont finalement les versions modernes des nombreux automates qui ont orné les stands d’exposition, comme le canard artificiel de Jacques de Vaucanson, un automate en cuivre doré construit en 1758, « qui buv[ait], mange[ait], cancan[ait], barbot[ait] et dig[érait] comme un vrai canard , qui a fait le tour de l’Europe au XVIIIe siècle.
Les robots de Boston Dynamics ne sont finalement les versions modernes des nombreux automates qui ont orné les stands d’exposition, comme le canard artificiel de Jacques de Vaucanson, un automate en cuivre doré construit en 1758, « qui buv[ait], mange[ait], cancan[ait], barbot[ait] et dig[érait] comme un vrai canard , qui a fait le tour de l’Europe au XVIIIe siècle.

Cet exemple illustre bien l’écart qu’il y a entre ce qu’on imagine de l’intelligence artificielle et ce qu’elle est vraiment. Un décalage qui prend sa source dans la nomenclature de cette discipline elle-même - car oui, l’IA est une discipline impliquant une myriade de mécanismes et non une technologie unique. Tout commençait bien pourtant : « Contrairement à nombre de nouvelles expressions du numérique (big data, internet des objets, blockchain...) qui trouvent leur origine dans le marketing de sociétés privées, l’IA est une appellation créée par un chercheur ! », s’enthousiasme Olivier Ezratty, consultant et auteur d’un des ouvrages francophones les plus complets sur l’IA, intitulé Les usages de l’intelligence artificielle – dont la dernière mise à jour date de février 2021.

Une IA peu intelligente, et bien réelle

Ce chercheur s’appelle John McCarthy. Il a donné naissance au terme « intelligence artificielle » dans une note de treize pages publiée le 31 août 1955, qui a ensuite donné lieu à la conférence de Dartmouth, sur la côte est des Etats-Unis, à l’été 1956, aujourd’hui considérée comme l’événement fondateur de l’IA. Cette expression permettait à ce chercheur du Massachusetts Institute of Technology (MIT) « d’installer son domaine dans le paysage et d’éviter son assimilation à des disciplines voisines comme les mathématiques, les statistiques ou l’informatique », développe Olivier Ezratty. Mais « John McCarthy a convaincu ses collègues d’employer l’expression IA pour décrire une discipline qui n’avait rien à voir avec l’intelligence », juge, dans son livre L’intelligence artificielle n’existe pas, Luc Julia, l’un des créateurs de Siri, l’assistant vocal d’Apple, qui vient d'être recruté comme directeur scientifique par Renault après son poste de directeur du Laboratoire d'intelligence artificielle de Samsung (SAIL) à Paris. « Tous les fantasmes et les fausses idées dont on nous abreuve aujourd’hui découlent de cette appellation malheureuse », poursuit-il.

Au-delà du fait que le terme intelligence soit indissociable, dans le langage commun, sinon des seuls humains, au moins des mammifères, son utilisation est contestable pour désigner des mécanismes imaginés pour simuler l’intelligence, qui ne sont en fait ni en mesure de penser, de créer, ni d’imaginer d’eux-mêmes. Sans compter que même la nôtre, d’intelligence, nous est bien absconse. Soit. Pourtant, même les plus grands pourfendeurs de l’appellation « intelligence artificielle » semblent se résoudre à utiliser ce concept dans leur solution alternative. A commencer par Luc Julia lui-même, qui aimerait que l’on parle d’« intelligence augmentée ». Dans la même veine, Olivier Ezratty emprunte au chercheur américain Joe McKendrick et à l’économiste français Vincent Champain le vocable « intelligence humaine augmentée », qui met l’accent sur les objectifs de l’IA, à savoir combler les lacunes de l’être humain, ou démultiplier ses capacités. Nous reviendrons sur ces ambitions dans un second article. Mais tout d’abord, nous voulons ici éviter l’écueil formidablement mis en avant par Olivier Ezratty dans l’introduction de son livre , à savoir que « l’éthique de l’IA et les biais de l’IA sont plus connus que les techniques de l’IA ». Essayons de changer cela.

La bataille IA symbolique vs IA connexionniste

Pour comprendre comment fonctionne l’IA, il est utile de revenir à ses origines. Le congrès de Middlesex, qui s’est déroulé au Royaume-Uni deux ans après la conférences de Dartmouth, peu ou prou avec les mêmes participants, a marqué l’avènement de l’IA symbolique. Celle-ci modélise le raisonnement logique et représente les connaissances avec des objets et des symboles formels les associant entre eux (appartient à, fait partie de, est équivalent à) via d’éventuelles contraintes. Ce raisonnement déductif s’appuie sur la logique reposant sur des faits et règles connus. On l’utilise par exemple pour résoudre des problèmes de mathématiques mais aussi des problèmes d’optimisation divers. Les tout premiers algorithmes de ce type ont « simplement » servi à résoudre des problèmes de géométrie de base – comme le Geometric Analogy Problems de Tom Evans en 1968, qui traitait les problèmes de géométrie qui sont intégrés dans les tests de quotient intellectuel.

Face aux symbolistes, on retrouvaient les défenseurs du connexionnisme. Focalisés sur la perception, ces derniers ont pour mission de reproduire les capacités d’un être humain avec leurs algorithmes (vision, parole…). S’il nous semble aujourd’hui plus familier – car il a amené à développer le machine learning et le deep learning - ce raisonnement inductif, et donc probabiliste, ne rencontre pas tout de suite le succès qu’on lui connaît aujourd’hui. Les premiers algorithmes grossièrement inspirés des neurones de notre cerveau, comme le perceptron de l’Américain Frank Rosenblatt en 1957 ou le pandemonium du Britannique Oliver Selfridge en 1958 ont certes posé les bases des réseaux de neurones, mais ils étaient à cette époque encore très peu efficaces pour des tâches simples, comme reconnaître des formes. Ces méthodes ont toutefois permis de développer les premiers chatbots, comme ELIZA, simulateur de conversation avec un psy qui a inspiré HAL, dans le film 2001 : L’Odyssée de l’espace, de Stanley Kubrick, ou SHRDLU, l’un des premiers chatbots à comprendre le langage naturel en 1968.

Cette bataille entre les « neats » (« soignés »), partisans de l’IA symbolique héritée des mathématiques et les « scruffies » (« négligés ») en faveur de l’IA connexionniste, qui poursuivaient les travaux de la cybernétique, faisait rage au sein même du groupe fondateur de la conférence de Dartmouth. Cette période d’émulation intellectuelle entraînera la création de l’ARPA en 1958, ancien nom de l’actuelle DARPA, l’agence d’innovation du ministère américain de la Défense et, en France, d’Iria en 1967, devenu l’Inria depuis.

Pourtant, au début des années 1970, le manque de résultat entraîne à un amenuisement des budgets de recherche. C’est le premier hiver de l’IA.

Les systèmes experts, un nouvel engouement de courte durée

Une décennie plus tard, au début des années 1980, un nouvel engouement émerge pour les systèmes experts, des logiciels spécialisés qui modélisent la connaissance d’un expert. Alimentés d’algorithmes symboliques, ces systèmes sont capables de répondre à des questions en effectuant un raisonnement à partir de faits enregistrés dans le programme, de règles établies à l’avance et d’un moteur d’inférence. Le premier en date, le Dendral, a été inventé en 1965 par un groupe constitué d’informaticiens, de médecins et de chimistes. Il permettait d'identifier les constituants chimiques d'un matériau à partir de spectrométrie de masse et de résonance magnétique nucléaire.

Ces systèmes se sont largement démocratisés grâce aux ordinateurs dédiés au langage de programmation Lisp, élaboré en 1958 par le « père » de l’IA symbolique, John McCarthy. Mais ces machines n’arrivaient pas à suivre les besoins en puissance de calcul réclamés par l’utilisation de ces algorithmes d’IA. L’âge d’or des systèmes experts s’estompe à la fin des années 1980 et l’IA ne reviendra sur le devant de la scène qu’avec l’arrivée de la micro-informatique.

La fin du second hiver et l’avènement du machine learning et du deep learning

Les deux derniers « types » majeurs d’IA, tous deux connexionnistes, sont aussi les plus connus aujourd’hui : l’apprentissage automatique, ou machine learning, et l’apprentissage profond, ou deep learning. Paradoxalement, l’avènement du premier est grandement dû aux progrès de l’informatique dans les années 1990-2000, où l’IA avait un peu déserté les débats et les budgets de recherche étaient surtout consacrés à développer la puissance brute des high-performance computers (HPC), principalement utilisé pour des applications industrielles (aéronautique, nucléaire…).

Le machine learning regroupe une série d’algorithmes (forêts aléatoires, support-vector machines, régression…) exploitant de gros volumes de données en général multidimensionnelles (ce qu’on appelle le « big data ») , en s’appuyant sur des réseaux de neurones simples pour des tâches complexes. Ces réseaux de neurones sont alimentés par une base de données source sur laquelle il apprennent afin, ensuite, de faire des prévisions, de la classification ou de la segmentation. Cet apprentissage peut être supervisé, semi-supervisé ou non supervisé selon le niveau de classification - bien humaine, cette fois-ci, et pas toujours très éthique, comme l’explique fort bien le chercheur Antonio Casilli dans son livre En attendant les robots : Enquête sur le travail du clic, publié en 2019. Deux autres types d’apprentissages sont aussi généralement intégré dans le machine learning : l’apprentissage par renforcement, une méthode qui consiste à laisser l’algorithme apprendre de ses propres erreurs – si elle se trompe, elle est « pénalisée » et si elle prend la bonne décision, elle est « récompensée » – et l’apprentissage par transfert, une technique qui permet de s’appuyer sur un domaine adjacent, présentant une forte similarité avec le domaine à traiter. Cette dernière méthode est très utilisée par les industriels, qui n’ont pas toujours des jeux de données gargantuesques.

Url de la ressource

Le deep learning est un type spécifique d’exploitation des réseaux de neurones, eux-mêmes sous ensemble du machine learning [voir le schéma ci-dessous, concoté par Olivier Ezratty]. Théorisés dès 1958 par Oliver Selfridge, les réseaux de neurones ont connu un bref essor au milieu des années 1990, avant de s’essouffler à nouveau pendant quelques années. Il a fallu attendre les années 2010 pour qu’ils deviennent les « stars » de l’IA, et notamment 2012, avec l’arrivée d’un tout nouveau type de matériel de calcul pour ordinateur, le processeur graphique de la firme américaine Nvidia. Au départ pensé pour être un moteur de calcul dédié aux jeux vidéo, de plus en plus populaires , pendant que le CPU s’occupait de la performance du reste de l’ordinateur, le GPU s’est avéré être la pièce qui manquait au deep leanring pour accéder à une plus large adoption.

Il faut dire que ce dernier est gourmand puisqu’il permet d’aller plus loin que le machine learning pour reconnaître des objets complexes comme les images, l’écriture manuscrite, la parole et le langage, ou même en combinant plusieurs sens, dans une approche multi-modale. Il exploite des réseaux de neurones multicouches et « permet de générer des contenus ou d’améliorer des contenus existants, comme pour colorier automatiquement des images en noir et blanc », explique Olivier Ezratty dans son livre.

Nous avons ici détaillé les principales méthodes. Bien sûr, il en existe d’autres, qui opèrent d’un pas de côté conceptuel par rapport à celles évoquées, qui forment des sous-ensembles des techniques majeures ou bien encore qui résultent de la combinaison de plusieurs d’entre elles.

En réalité, l’expérience de l’IA à laquelle le commun des mortels est aujourd’hui confronté tous les jours (assistant vocal, logiciel de traduction automatique...) est le résultats du savoir-faire combiné de plusieurs « domaines » : le développement de solutions que l’on va utiliser dans notre quotidien ou dans le milieu professionnel (smartphones, casques de réalité augmentée...), l’élaboration d’outils qui aident à créer ces solutions (reconnaissance de la parole, vision artificielle…), la théorisation de techniques sur lesquelles sont construits ces outils (machine learning, deep learning…) et, enfin, la collecte et classification de données utiles pour mettre en place ces techniques - avec un rôle prépondérant des différents capteurs.

Une fois qu’on a regardé sous le capot, les méthodes d’intelligence artificielle ne sont pas si magiques – et donc inquiétantes – qu’il n’y paraît. « Malgré leur inspiration cérébrale, les algorithmes d’apprentissage profond ne sont au final qu’un autre outil d’analyse de données », résumait Benoît Raphaël, créateur du bot de recommandation d’articles Flint, sur le site Frenchweb en 2019.

Application Mobile

Téléchargez Encrage Media sur votre mobile pour ne pas manquer nos dernières publications !

Commentaires

Le contenu de ce champ sera maintenu privé et ne sera pas affiché publiquement.
CAPTCHA
Cette question sert à vérifier si vous êtes un visiteur humain ou non afin d'éviter les soumissions de pourriel (spam) automatisées.
Image CAPTCHA
Saisir les caractères affichés dans l'image.