Que n’a-t-il pas déjà été dit sur l’intelligence artificielle (IA) ? La fascination – ou l’agacement – que suscite l’IA est à la hauteur du buzz médiatique qui a porté le sujet ces dernières années.
A coup de punchlines de certaines personnalités désormais bien connues (« sans politique volontariste en matière d’IA, la France pourrait devenir le Zimbabwe de 2080 »), le sujet est sorti des seules sphères technophiles pour se loger au cœur des discours de nombreux dirigeants d’entreprises, personnalités politiques, philosophes, etc.
Ces phrases chocs ont eu du bon. Elles ont réveillé des décideurs pour certains apathiques face à la montée de la technologie, inconscients de la domination américaine et chinoise et des enjeux sous-jacents de souveraineté. Elles ont servi de déclic pour accélérer la prise de conscience.
Reste pourtant, malgré ce tintamarre (qui n’a rien eu d’artificiel, lui), comme un goût d’inachevé. Le sentiment que l’accumulation de prophéties catastrophistes (« les dirigeants européens sont les Gamelin de l’IA ») a parfois empêché de faire entendre un discours plus nuancé, plus distancié. Que le sensationnalisme l’a trop souvent emporté au détriment d’une réalité scientifique plus prosaïque, forcément moins spectaculaire.
De là le besoin de revenir sur terre. C’est l’objet de cet article.
Mythe n°1 : croire qu’il existe UNE intelligence artificielle
L’IA englobe parfois des réalités très différentes. Selon les points de vue et ce que l’on y inclue, elle peut renvoyer aussi bien à des logiques d’automatisation (faire effectuer, par un logiciel, des tâches répétitives et souvent fastidieuses – de là l’essor des « chatbots » par exemple) ou de statistiques. Les statistiques ouvrent la voie au « machine learning » (apprentissage automatique), un sous-domaine de l’IA dont les progrès permettent de réaliser des tâches plus complexes (reconnaissance visuelle et vocale, prévisions, recommandations…). Le machine learning regroupe lui-même plusieurs subdivisions, dont l’apprentissage supervisé et l’apprentissage non-supervisé, et peut mener au fameux « deep learning», qui s’appuie notamment sur les « réseaux de neurones ».
Précisons également que contrairement à certaines idées répandues, l’IA ne se résume pas au machine learning, et que le deep learning n’est pas nécessairement « l’approche ultime » en matière d’IA.
Face à ce jargon, il est facile de s’emmêler les pinceaux ; les différentes notions se retrouvent d’ailleurs parfois mélangées…sciemment. Des outils relativement simples sont parfois présentés comme des solutions d’IA très innovantes, en induisant en erreur sur leur caractère faussement révolutionnaire.
Mythe n°2 : croire que la mention « IA » rime forcément avec innovation
« Il y a cette blague dans Le Bourgeois gentilhomme à propos d’un homme [Monsieur Jourdain] qui apprend que toute parole est soit prose, soit vers, et qui est enchanté de découvrir qu’il a parlé en prose toute sa vie sans en avoir conscience. Les statisticiens pourraient ressentir la même chose aujourd’hui : ils ont travaillé sur « l’intelligence artificielle » toute leur carrière sans en avoir conscience » – Benedict Evans
Certains malins profitent de la méconnaissance entourant ces sujets pour présenter leurs solutions sous un nouveau jour. C’est ainsi que des modèles statistiques utilisés avec un peu d’informatique connaissent parfois un toilettage marketing pour se transformer en outil d’« IA », ce qui sonne plus moderne.

Comme l’écrit le chercheur Thierry Berthier, « l’emploi du mot IA devient un marqueur séparant le discours marketing grand public du discours d’expert pratiquant ». Cette séparation se retrouve par exemple dans cette blague qui a circulé ces derniers mois sur les réseaux sociaux :

Une étude récente indiquait même que 40% des « startups IA » en Europe n’utiliseraient en réalité pas d’IA ! Si ce chiffre a été déconstruit ensuite, la vitesse de sa propagation témoigne d’un sentiment largement partagé autour d’un certain niveau de tartufferie en la matière…

Mythe n°3 : croire que l’IA est une technologie de luxe, accessible à quelques happy few
Une distinction est importante à avoir en tête : « faire de l’IA » est très différent d’ « utiliser de l’IA ». « Très peu de startups créent de nouvelles briques de l’IA » explique ainsi le consultant Olivier Ezratty : « les briques de base de l’IA sont un Lego géant essentiellement disponible en open source. Une bonne part du travail d’aujourd’hui consiste à les choisir et à réaliser un travail d’intégration et d’assemblage ».
L’investisseur Benedict Evans va jusqu’à écrire qu’ « il n’y aura bientôt plus aucune startup « IA ». On parlera plutôt d’entreprises d’analyses de processus industriels, d’entreprises d’optimisation de ventes, d’entreprises d’aide à la résolution de litiges, etc. », toutes rendues possibles grâce à l’IA.
Pour lui, « la diffusion du machine learning signifie des startups très diverses peuvent construire des choses bien plus rapidement qu’avant. Le machine learning doit être vu comme un bloc de construction qui ouvre de nouvelles possibilités et qui sera intégré partout. Si vous ne l’utilisez pas alors que vos concurrents l’utilisent, vous vous ferez distancer. »
Il dresse un parallèle entre le machine learning et le langage de programmation SQL (langage phare pour communiquer avec des bases de données) : « Walmart a connu le succès en partie grâce à l’utilisation de bases de données pour gérer ses stocks et sa logistique plus efficacement. Mais aujourd’hui, si vous créez une entreprise de distribution en annonçant que vous utiliserez des bases de données, cela ne vous rendrait ni différent ni intéressant, car SQL a été intégré partout. La même chose se produira avec le machine learning. »
Dès lors, l’IA ne sera plus forcément un élément différenciant pour une startup. Cette situation commence du reste déjà se manifester : selon Olivier Ezratty, « comme les briques de l’IA sont devenues des commodités, il est de plus en plus difficile de jauger une startup par rapport à ses concurrents. La différence pourra venir de l’IA, mais le plus souvent, elle viendra de la capacité à toucher les bons clients et à déployer rapidement. »
Mythe n°4 : croire que les GAFA deviendront puissants dans tous les domaines grâce aux multiples données dont ils disposent
Pour faire fonctionner une IA de façon performante, les données à exploiter doivent être spécifiques au problème à résoudre ; dès lors, collecter des données n’a d’intérêt que si celles-ci ont bien un lien avec le problème visé.
C’est ce qu’explique Benedict Evans, qui l’illustre par un exemple simple : « D’un côté, General Electric dispose de nombreuses données télémétriques venant de turbines à gaz. De l’autre, Google dispose de nombreuses données de recherche. Or on ne peut pas utiliser des données de turbines pour améliorer des résultats de recherche. On ne peut pas non plus utiliser les données de recherche pour détecter des turbines défectueuses ».
Autrement dit, « le machine learning est une technologie généraliste – elle peut être utilisée aussi bien pour détecter des fraudes que reconnaître des visages – mais les applications qu’elle permet de construire ne sont pas généralistes : elles sont spécifiques à une tâche ».
C’est du reste ce que l’on avait connu lors des précédentes vagues d’automatisation, juge-t-il : « tout comme une machine à laver peut seulement laver des vêtements, et non laver des plats ou cuisiner un repas, et tout comme un programme pour jouer aux échecs ne peut pas remplir votre fiche d’imposition, un système de traduction à base de machine learning ne peut pas reconnaître des chats. »
De ce constat, Benedict Evans tire une conclusion : l’utilisation du machine learning se répartira de façon large. « Google n’aura pas « toutes les données » : Google aura toutes les données obtenues via les services Google. Google aura des résultats de recherche plus fins, General Electric aura des machines plus performantes, Vodafone aura une meilleure vue sur la gestion de son réseau, etc. »
En définitive, « Google sera meilleur à être Google, mais cela ne veut pas dire que Google deviendra meilleur à autre chose. »
Mythe n°5 : croire que l’IA est aujourd’hui souvent intelligente
Qui n’a pas déjà vécu des échanges particulièrement laborieux (pour ne pas dire pénibles) avec des chatbots ou des agents conversationnels ?

Chacun aura noté que ces outils disposent encore d’une (très) large marge de progression avant de pouvoir soutenir une conversation décente. L’échange ci-dessous en est un exemple criant :

Les chatbots ne sont certes pas représentatifs des avancées de l’IA aujourd’hui. Mais s’il est évident que l’IA est d’ores et déjà capable de performances impressionnantes (cf ses victoires au jeu de go, aux échecs, ou encore au jeu Starcraft), soyons clairs : une IA brillante dans un contexte donné ne l’est pas forcément dans d’autres contextes – et ne l’est même souvent pas.

Il y a quelques semaines, on apprenait ainsi que l’IA de DeepMind (appartenant à Google), célèbre pour ses prouesses au jeu de go, avait largement raté un contrôle de mathématiques destiné à des adolescents de 16 ans dans le cursus scolaire britannique. Son score : 14 sur 40, soit la note E dans le système britannique. Elle n’a pas réussi à transformer les mots en calcul et en équation, alors qu’elle avait pourtant été entraînée sur le sujet.
Au-delà de cette anecdote, les exemples de « déraillement » d’IA sont multiples. On se souvient notamment du robot conversationnel mis en ligne par Microsoft en 2016 qui s’était transformé en quelques heures en personnage machiste, raciste et néo-nazi, sous l’influence d’internautes.
Un an auparavant, la reconnaissance faciale de l’application Photos de Google avait assimilé un couple afro-américain à des gorilles. Le site Wired a révélé fin 2018 que Google, après s’être déclaré « consterné » et après avoir promis de remédier au problème, avait en réalité choisi ensuite de…supprimer les gorilles et d’autres primates (chimpanzés, singes…) du lexique de son service. Comme l’écrit Wired, « cette solution de contournement illustre les difficultés rencontrées par Google et d’autres entreprises technologiques pour faire progresser la reconnaissance d’image ».
Le cas emblématique de Watson
Le système Watson d’IBM était annoncé à ses débuts comme capable de révolutionner la médecine : son IA allait être capable de détecter des maladies plus rapidement, de proposer des traitements plus adaptés, etc. En 2018, le couperet tombe : selon des documents internes révélés par le site StatNews, des spécialistes ont identifié de « multiples exemples de recommandations de traitements de cancers dangereux et incorrects » effectuées par Watson. Malgré des milliards investis, Watson reste très peu performant par rapport aux ambitions affichées.
Par exemple, comme nous l’apprend une grande enquête récente intitulée « How IBM overpromised and underdelivered with Watson Health », « il s’est avéré impossible d’enseigner à Watson comment lire des articles scientifiques comme un médecin le ferait. Le fonctionnement de Watson est fondé sur les statistiques : tout ce qu’il peut faire est de rassembler des statistiques sur les principaux résultats. Mais ce n’est pas comme ça que les médecins travaillent. »
Les chercheurs ont ainsi découvert que Watson peinait à exploiter de façon autonome des informations publiées très récemment dans la littérature médicale. De même, Watson s’est avéré avoir plus de mal que prévu à récupérer des informations contenues dans les dossiers médicaux électroniques.
In fine, « il ne suffit pas de prouver que vous disposez d’une technologie puissante » déclare Martin Kohn, un ancien scientifique médical d’IBM. « Il faut prouver qu’elle va réellement faire quelque chose d’utile – que ça va améliorer ma vie, et celle de mes patients. » Or selon lui, « à date il existe très peu de publications » scientifiques qui prouvent le bénéfice de l’IA pour les médecins. « Et aucune s’agissant de Watson ».
***
« L’intelligence artificielle est devenue un gros business et il est très probable qu’il y ait un retour de bâton quand les promesses les plus extravagantes ne seront pas remplies » Yann Le Cun, directeur du laboratoire IA de Facebook, en 2017
Face à cette réalité crue, qui ne correspond pas toujours aux promesses (sur)vendues, certaines entreprises s’adaptent…et innovent dans leur manière de communiquer ! En la matière, la palme revient sans aucun doute à l’organisation OpenAI (notamment soutenue par Elon Musk) : OpenAI a laissé diffuser l’idée selon laquelle elle aurait préféré ne pas sortir son IA publiquement car celle-ci serait trop…dangereuse ! Le sociologue Antonio Casilli résume bien ci-dessous avec humour ce qui semble plus probable…

De fait, après vérification, les résultats d’OpenAI se révèlent effectivement « moins bons que ceux des IA spécialisées obtenues par apprentissage supervisé », selon Laurent Besacier, professeur au laboratoire d’informatique de Grenoble…
Mythe n°6 : croire que l’IA peut fonctionner sans intervention humaine
Dans son récent ouvrage « En attendant les robots : enquête sur le travail du clic », Antonio Casilli montre que le grand remplacement des hommes par les robots est un fantasme, en mettant en lumière une face cachée de l’IA : l’existence de millions de « travailleurs du clic » invisibilisés, précarisés, payés à la micro-tâche pour éduquer des algorithmes.
Antonio Casilli cite par exemple le scandale ayant touché fin 2017 l’entreprise américaine Expensify, spécialisée dans la gestion par l’IA de la comptabilité d’autres entreprises. En apparence, « les salariés de ces entreprises n’avaient qu’à photographier leurs factures et leurs reçus, et l’application les organisait en notes de frais. On a découvert que des personnes recrutées sur la plateforme de micro-travail Amazon Mechanical Turk transcrivaient et labellisaient en temps réel une partie de ces factures. »
Cet exemple n’est pas isolé. En réalité, « il y a toujours une part d’algorithmes et une part de travail humain ». Pour concevoir son programme Watson, IBM a ainsi recouru à 200 000 micro-travailleurs qui devaient notamment ordonner les différents éléments de l’image d’un paysage (nuages, montagnes, etc.).
Casilli souligne une hypocrisie du milieu technologique, où il perçoit « une attitude double. Tout le monde connaît l’existence des plateformes de micro-travail et comprend l’exigence d’impliquer des humains dans l’étiquetage et le nettoyage de l’information. En même temps, il y a une espèce d’effort cognitif pour ne pas voir ce qu’on sait pertinemment. »
Lorsqu’il est reconnu, ce travail humain est fréquemment minoré, à tort : « cette partie du processus est décrédibilisée en tant que travail : on imagine que les micro-tâches qu’accomplissent les travailleurs du clic ont une faible valeur ajoutée, qu’elles ne sont pas centrales ; or leur contribution est cruciale. »
Une équipe de recherche du CNRS, Télécom ParisTech et MSH Paris-Saclay, dans laquelle fait partie Antonio Casilli, a du reste montré que les plateformes paient en France métropolitaine 266 000 personnes pour micro-travailler (avec une rémunération par micro-tâche de quelques dizaines de centimes d’euro). Dans le monde, ces « poinçonneurs de l’IA » comme les appelle Casilli, seraient entre 40 millions et…des centaines de millions, constituant ainsi une nouvelle division du travail au niveau mondial. Leur rémunération peut descendre jusqu’à 0,000001 centime la tâche, sans accès aux droits de protection des travailleurs salariés.
Casilli est formel : l’IA ne pourra pas devenir assez développée pour se passer des micro-tâches. « Il n’y aura pas d’automatisation complète. Les machines que les ingénieurs de l’IA sont en train de développer n’ont pas vocation à travailler toute seule : [elles] prévoient toujours la réalisation de tâches par les humains. »
Mythe n°7 : croire que le « machine learning » et le « deep learning » ont plié le match en matière d’IA
Début 2019, la chercheuse en statistique Genevera Allen jetait un froid lors du congrès annuel de l’Association américaine pour l’avancement de la science : « Je ne ferais pas confiance à une très grande partie des découvertes [médicales] en cours ayant recours à du machine learning appliqué à de grands ensembles de données ».
« Ces algorithmes sont entrainés pour détecter des « patterns » quoi qu’il arrive », explique-t-elle. « Ils ne reviennent jamais avec « je ne sais pas « ou « je n’ai rien découvert » : ils ne sont pas conçus pour cela. »
Le machine learning entraîne de ce fait une crise de reproductibilité des découvertes, estime-t-elle. Quand le machine learning établit un lien entre les gènes de certains patients et leur maladie, les chercheurs peuvent ensuite rationaliser scientifiquement leur découverte sans que cette rationalisation soit correcte. « On peut toujours construire une histoire [a posteriori] pour montrer pourquoi des gènes donnés sont regroupés ensemble » explique Dr Allen.
Ce problème de reproductibilité risque de mener les scientifiques vers de fausses pistes (voire des résultats incorrects) et gaspiller des ressources (en essayant de confirmer des résultats impossibles à reproduire). La mise en garde de Genevera Allen a permis de (re)mettre en lumière ce problème. Pour le surmonter, en attendant l’émergence d’une nouvelle génération d’algorithmes à même d’évaluer la fiabilité de leurs résultats, les chercheurs doivent s’assurer eux-mêmes de la reproductibilité de leurs expériences.
***
Cette invitation à la prudence autour du machine learning n’est pas isolée.
Les exemples ne manquent pas pour souligner les problèmes liés plus particulièrement au deep learning. En 2016, une étude s’est penchée sur le succès – proche de 100% – d’une IA qui avait été entraînée pour distinguer les chiens et les loups sur des images données. Il s’est avéré que l’algorithme se fondait avant tout sur…la couleur de fond des images : il y cherchait de la neige car les images de loups sur lesquelles il avait été entraîné comportait souvent de la neige en fond.
Dans le même ordre d’idées, des chercheurs nord-américains se sont rendus compte en 2018 qu’en ajoutant un éléphant dans certaines images, en fonction de son emplacement, le système ne le voyait pas…ou bien le prenait pour une chaise !
Bien d’autres exemples pourraient être cités (en 2017, des chercheurs japonais ont montré qu’en changeant un seul pixel d’une image de chien blanc, l’IA se mettait à y voir une autruche). Tous soulignent la même chose : ces algorithmes parviennent à des résultats sans comprendre ce qu’ils font. Ils peuvent être performants pour certaines tâches de perception (encore qu’il suffit donc parfois d’un changement de pixel pour les tromper), mais butent sur les tâches de raisonnement.
Le succès de l’IA d’AlphaGo (appartenant à Google), premier programme informatique à avoir battu l’humain au go, semble d’ailleurs être à l’origine d’un malentendu. AlphaGo a brillé en s’appuyant sur une IA non-supervisée, reposant sur du deep learning, pouvant donner l’impression que cette approche était intrinsèquement supérieure aux autres. En réalité, cette approche était plus simplement la plus pertinente pour le jeu de go, dont les règles sont particulièrement structurées et logiques. Or ce contexte très spécifique est loin de se retrouver souvent ailleurs, en particulier lorsqu’il s’agit d’activités humaines.
« Un énorme problème à l’horizon est de doter les programmes d’IA de bon sens : même les petits enfants en ont, mais aucun programme de deep learning n’en a », estime le spécialiste américain Oren Etzioni.
In fine, les algorithmes de deep learning « n’apprennent que des indices superficiels, et non des concepts », diagnostique le chercheur Yoshua Bengio, justement l’un des pères fondateurs du deep learning.
Or ces problèmes relèvent de traits inhérents à ces systèmes, et non de bugs…
***
Dans ce contexte de (re)questionnement autour du deep learning, de plus en plus de voix plaident pour élargir les méthodes de recherche utilisées en IA. Ironie de l’Histoire : les regards se tournent vers l’IA dite symbolique (l’enchaînement de règles explicites pour construire un raisonnement), approche historique autrefois reine mais qui était tombée en désuétude avec l’émergence du machine learning.
L’enjeu est aujourd’hui de réussir à exploiter l’apprentissage statistique (ce dont le machine learning relève) et les méthodes symboliques de façon combinée. Les questionnements restent entiers sur les façons de procéder, mais des expérimentations ont commencé.
Antoine Bordes, directeur du laboratoire d’IA de Facebook, entend ainsi dépasser les limites du machine learning dans le langage (en particulier en compréhension de texte, où le machine learning est très peu performant) en « créant des architectures qui peuvent être entraînées sur des données mais qui s’appuient sur le symbolique ».
« La prochaine génération d’IA aura une architecture hybride » confirme la chercheuse Véronique Ventos, qui a cofondé le laboratoire privé NukkAI avec un (premier) objectif : créer une IA capable de briller au Bridge (jeu qui y résiste encore)…
Une opportunité pour l’Europe ?
Dans une tribune parue en mars 2019, Virginia Dignum, professeur d’informatique à l’université d’Umeå en Suède, appelle l’Europe à « explorer des alternatives » au machine learning :
« Il y a peu, une étude ayant analysé 25 ans de recherche en IA a conclu que l’ère du deep learning touche à sa fin. L’Europe a traditionnellement été forte sur les approches symboliques de l’IA. Dès lors, ce serait une erreur de suivre aveuglement les US et la Chine dans leur « course » au machine learning alors que nous avons l’opportunité de montrer la valeur d’approches alternatives, dans lesquelles nous Européens pourrions avoir un avantage. »
Ces réflexions mériteraient d’être plus écoutées en France. Comme l’écrit Olivier Ezratty, « le rapport de la Mission Villani fait la part belle au deep learning. L’approche symbolique semble y être mise en sourdine. (…) De même, l’IA symbolique est assez maigrement représentée dans la feuille de route de l’INRIA de 2016. (…) Pourtant, en prenant du recul, on peut se demander si l’enjeu n’est que dans le deep learning »…
Mythe n°8 : croire que l’IA peut dépasser l’intelligence humaine de façon générale

La thèse de la singularité, selon laquelle l’IA sera capable de dépasser l’intelligence humaine au cours des toutes prochaines décennies, continue étonnamment d’être considérée par certains comme une hypothèse crédible, malgré de multiples remises en cause de la part de spécialistes :
-Jean Ponce, chercheur en vision artificielle à l’ENS, en avril 2017 : « La Singularité, ça m’énerve. Je ne vois personnellement aucun indice que la machine intelligente soit plus proche de nous aujourd’hui qu’avant ».
–Jean-Louis Dessalles, chercheur en intelligence artificielle et en sciences cognitives, auteur de l’ouvrage « Des intelligences très artificielles », en février 2019 : « La question de la Singularité technologique ressemble à celle de la surpopulation sur Mars : on ne peut exclure que le problème se pose un jour, mais ce n’est pas demain ».
-Luc Julia, vice-président de l’innovation chez Samsung, inventeur de l’assistant vocal d’Apple, en mars 2019 : « Notre vision menaçante de l’intelligence des machines découle en partie de notre anthropomorphisme. Ces assistants ne sont que des mathématiques et des statistiques, ils répondent à des règles édictées en amont. Jamais une IA ne sera aussi intelligente qu’un humain ».
Comment comprendre, dès lors, la permanence de la thèse de la Singularité ? Dans son ouvrage « Le mythe de la Singularité – faut-il craindre l’intelligence artificielle ? » paru en 2017, l’informaticien et philosophe Jean-Gabriel Ganascia tente d’apporter une explication. Selon lui, cette thèse est avant tout défendue par des ingénieurs travaillant, en large partie, pour des géants technologiques et ayant l’impression, réelle ou exagérée, de changer le monde. Il parle d’un « sentiment de vertige » et de puissance chez ces ingénieurs qui en viennent à surestimer la capacité des géants du numérique à bouleverser les réalités existantes et l’humanité. Ce sentiment est accentué par le fait que ces entreprises ont réussi en très peu de temps – quelques années, contre plusieurs décennies pour les entreprises traditionnelles – à devenir des géants économiques. Il estime qu’il existe donc des prédispositions chez ces ingénieurs à croire les thèses de la Singularité.
A cette prédisposition se rajoute une forme de complaisance liée à l’envie de « se faire peur face à la technologie » : cette complaisance, juge-t-il, est véhiculée par certains médias qui préfèrent le spectaculaire à la réalité plus prosaïque et…scientifique. Il prend ainsi l’exemple de l’idée selon laquelle il deviendra un jour possible de télécharger son propre esprit sur une machine afin de rendre son esprit immortel. Cette idée, portée notamment par un milliardaire russe ayant initié le projet 2045.com (qui, à son lancement, invitait l’internaute à appuyer sur un “bouton d’immortalité”), ne repose sur aucun fondement scientifique, et a pourtant été amplement médiatisée, contribuant ainsi à véhiculer les peurs et inquiétudes liées à l’IA.
Enfin, Ganascia relève le fait que ces craintes remontent bien avant l’invention d’Internet et avant même l’arrivée des ordinateurs. Il prend ainsi l’exemple d’une scène du film Fantasia, sorti en 1940, où plusieurs balais commencent à s’animer et à porter des seaux d’eau à la place du personnage principal. “Cette inquiétude-là, d’être dépassé un jour, me semble ancrée dans le cœur de l’homme. C’est pour cela que l’idée de Singularité est assez populaire” juge-t-il.
***
Pour autant, si de nombreuses voix ont remis en cause la Singularité, peu d’entre elles se sont attelées à déconstruire cette thèse méthodiquement.
C’est en cela que le long article intitulé « Le mythe de l’intelligence artificielle super-humaine », écrit par l’auteur américain Kevin Kelly en 2017, est particulièrement précieux.
Dans cet article, il montre que croire que l’IA peut être plus intelligente que l’homme relève d’une mauvaise compréhension de ce qu’est l’intelligence.
Selon les défenseurs de la Singularité, comme Nick Bostrom, il existerait une échelle de l’intelligence, comme il existe une échelle des niveaux sonores en décibels. Dans ce paradigme, il est envisageable de penser une extension de l’intelligence qui ne ferait que croître, étape par étape, et in fine dépasserait notre propre intelligence.
Or la réalité scientifique s’oppose à la vision simpliste d’une intelligence à une seule dimension qui augmenterait de façon linéaire.
L’idée d’une échelle de l’intelligence n’est pas valable scientifiquement, montre Kevin Kelly, de la même façon qu’il n’existe pas d’échelle de l’évolution contrairement à une croyance tenace. “Chacune des espèces présentes aujourd’hui sur Terre a survécu à une chaîne de trois milliards d’années de reproductions successives, ce qui signifie que les bactéries et les cafards sont aujourd’hui aussi évolués que les humains : il n’y a pas d’échelle”, écrit-il. C’est la même chose pour l’intelligence : loin de pouvoir être réduite à une seule dimension, elle est constituée de différents modes cognitifs, composés de multiples nœuds, chacun suivant son propre continuum. “Certaines intelligences peuvent être très complexes, avec de nombreux sous-nœuds de pensée ; d’autres peuvent être plus simples mais plus extrêmes, plus pointues sur certains aspects”.
Il appelle à voir l’intelligence comme une symphonie où co-existent plusieurs types d’instruments : ceux-ci n’ont pas seulement des différences en termes de volume, mais aussi en tempo, en mélodie, etc. Dans cette perspective, il convient selon lui de penser les intelligences dans une logique d’écosystème, où les différents noeuds de pensée sont co-dépendants. “L’intelligence humaine fait appel à de multiples raisonnements cognitifs : la déduction, l’induction, le raisonnement par symboles, l’intelligence émotionnelle, la logique spatiale, la mémoire de court terme, de long terme” énumère-t-il. Du reste, il rappelle que notre intestin, et son système nerveux, présente des caractéristiques similaires à celles du cerveau et a développé sa propre logique cognitive. L’homme, loin de penser seulement avec son cerveau, pense avec tous les éléments de son corps.
Cette analyse permet d’éclairer avec un autre regard les questions d’intelligence artificielle. L’IA surpasse déjà l’homme dans certaines compétences, comme le calcul arithmétique, ou la mémoire (sous certains aspects). L’homme conçoit des IA pour qu’elles l’aident à atteindre l’excellence sur des compétences précises. Il s’agit d’éléments que l’homme est capable de réaliser, mais que l’IA peut mieux faire.
Il existe également des modes cognitifs auxquels l’homme n’a pas accès, au contraire de l’IA : par exemple, retenir (et indexer) tous les mots et expressions présents sur des milliards de sites internet. Pour Kevin Kelly, il est probable qu’à l’avenir l’homme concevra spécialement pour l’IA de nouveaux modes cognitifs inexistants chez lui ou dans la nature, en particulier pour des tâches précises.
“Certains problèmes nécessiteront une solution en deux étapes : d’abord, inventer un nouveau mode de pensée pour travailler avec les nôtres ; puis les combiner pour trouver la solution au problème donné. Dès lors, comme nous pourrons résoudre des problèmes que nous ne pouvions pas résoudre jusqu’alors, nous voudrons qualifier ce mode comme “plus intelligent” que nous, alors qu’il sera en réalité simplement différent.”
En définitive, le grand avantage de l’IA réside pour lui dans les différences de façons de penser qu’elle permettra d’atteindre. “Je pense qu’un modèle utile est de penser l’IA comme étant une intelligence étrangère ; c’est sa différence qui sera son actif clef”.
Il est donc faux d’affirmer que l’intelligence artificielle peut dépasser l’intelligence humaine de façon générale. Certes, certains modes cognitifs permis par l’IA pourront régler des problèmes que l’homme ne pouvait pas régler, et il sera alors tentant de parler d’IA “superhumaine”, mais cela serait erroné : “nous ne qualifions pas aujourd’hui Google d’IA superhumaine même si sa capacité de mémorisation est plus forte que la nôtre !”. Google, malgré sa puissance de mémorisation, reste impuissant pour réaliser de nombreuses tâches que l’homme peut (mieux) faire que lui. En somme, pour des tâches spécifiques très complexes, l’IA pourra dépasser l’homme, mais “aucune entité ne fera mieux tout ce que fait l’homme”. Kevin Kelly dresse le parallèle avec la force physique des humains : “la révolution industrielle a 200 ans ; même si les machines battent les hommes sur des aspects précis (rapidité à se déplacer, précision, etc.), il n’existe aucune machine capable de battre un humain moyen sur tout ce qu’il ou elle fait”.
Pour compléter le propos, Kevin Kelly montre qu’il est extrêmement difficile, si ce n’est impossible, de mesurer la complexité d’une intelligence de façon scientifique. “Nous n’avons pas de bons outils de mesure de la complexité qui pourraient déterminer si un concombre est plus complexe qu’un Boeing 747, ou les façons dont leur complexité diffèrent”. Dès lors il juge que cela n’a aujourd’hui pas de sens de dire qu’un esprit A est plus intelligent qu’un esprit B. Ce qui compte avant tout n’est pas de se préoccuper d’une IA potentiellement plus avancée que nous à l’avenir, mais de la complémentarité de l’IA avec l’humain, et des défis que cela pose.
La crainte d’une IA globalement supérieure à l’humain est d’autant moins fondée, estime-t-il, que l’IA suivra très probablement la même règle qui s’applique à toute création : il n’est pas possible d’optimiser l’ensemble de ses caractéristiques. Des compromis sont nécessaires. Autrement dit, il n’est pas envisageable de voir naître une IA qui soit capable à la fois de tout faire et de le faire mieux que des humains ou des IA spécialisées. Il souligne d’ailleurs que cette même règle est également valable pour l’homme. “L’intelligence humaine n’est pas en position centrale, avec les autres intelligences spécialisées qui tourneraient autour d’elle. Elle représente en réalité un type très, très spécifique d’intelligence qui a évolué durant des millions d’années pour permettre à l’homme de survivre sur cette planète.” Il explique que si l’on établissait une carte de toutes les formes possibles d’intelligences, celle humaine serait située “quelque part dans un coin, de la même façon que notre monde est situé quelque part dans un coin d’une vaste galaxie”.
Enfin, il estime que la peur d’une IA capable de battre l’homme sur son propre terrain, c’est-à-dire sur des modes cognitifs similaires, est infondée car cela nécessiterait de concevoir une IA fonctionnant sur les mêmes substrats que le cerveau humain. “La seule manière d’atteindre un processus de pensée très proche de celui de l’humain est de faire fonctionner le mécanisme avec une matière très proche de la matière humaine. La matière physique influence en effet très fortement le mode cognitif”. Or les coûts de création d’une telle matière seraient immenses ; plus le tissu à créer serait similaire au tissu d’un cerveau humain (à supposer bien sûr que cela soit faisable), plus les coûts seraient élevés, ce qui rendrait in fine l’opération extrêmement peu efficiente. “Après tout, concevoir un humain est quelque chose qu’on peut faire en neuf mois” rappelle-t-il…Et ce d’autant plus que l’intelligence humaine, comme déjà montré précédemment, n’est pas seulement présente dans le cerveau de l’homme, mais bien dans tout son corps. “Un nombre important de données montre que le système nerveux de nos intestins guide nos processus de prise de décisions rationnels, et peuvent aussi bien prédire qu’apprendre. Une intelligence qui fonctionnerait sur une matière très différente penserait différemment.”
Pour toutes ces raisons, Kevin Kelly appelle à inventer de nouveaux termes, un nouveau vocabulaire, pour décrire les différentes formes d’intelligence, avec lesquelles l’homme agira de plus en plus à l’avenir. Il cite les travaux de Murray Shanahan, professeur de robotique cognitive à l’Imperial College de Londres pour évoquer le fait qu’il existe des millions de types d’intelligences possibles. Pour l’illustrer, il donne plusieurs exemples : un esprit similaire à celui humain, mais plus rapide dans ses réponses ; un esprit très lent, mais disposant d’une très grande capacité de stockage et de mémorisation ; un esprit capable d’imaginer un esprit plus intelligent mais incapable de le concevoir ; un esprit capable de concevoir un esprit plus intelligent ; un esprit très logique mais dépourvu d’émotions ; etc.
In fine, tout porte à croire selon lui qu’il n’y aura pas des IA “superhumaines” mais plutôt plusieurs centaines d’IA qui dépasseront chacune les capacités cognitives humaines sur des compétences précises, mais dont aucune ne pourra couvrir aussi bien que l’homme tous les champs cognitifs. “Je comprends que l’idée d’une IA superhumaine soit très attrayante ; mais si on inspecte les données que nous avons jusqu’à présent sur l’intelligence, aussi bien naturelle qu’artificielle, nous ne pouvons en conclure qu’une chose : c’est un mythe.”
Conclusion
En 1956, le chercheur Herbert Simon, qui recevra des années plus tard le « prix Nobel » d’économie et le prix Turing en informatique, prédit que « les machines seront capables, d’ici vingt ans, de faire n’importe quel travail pouvant être fait par l’homme ».
Plus de soixante ans plus tard, la prédiction ne s’est toujours pas réalisée…et semble loin de l’être prochainement.
La vision de l’IA va s’affiner. Une certaine bulle pourrait éclater lorsqu’il deviendra clair que certaines promesses ne seront pas délivrées (de sitôt).
D’ores et déjà, en Chine le temps des « désillusions » s’est ouvert, selon la correspondante « tech » en Asie du Financial Times : « le secteur chinois de l’IA, auparavant très actif, vit une forme de découragement : rejeté par les investisseurs, incapable de délivrer des technologies de pointe et ayant du mal à générer des profits. (…) Les investisseurs sont confrontés à des évaluations démesurées, à des discours exagérés et à des modèles de monétisation usés ».
Le terme IA pourrait lui-même mal vieillir, lui qui est déjà assez décrié.
Comme l’explique Luc Julia : « Tout est parti d’un immense malentendu. En 1956, lors de la conférence de Dartmouth, [l’informaticien] John McCarthy a convaincu ses collègues d’employer l’expression « intelligence artificielle » pour décrire une discipline qui n’avait rien à voir avec l’intelligence. Tous les fantasmes et les fausses idées dont on nous abreuve aujourd’hui découlent, selon moi, de cette appellation malheureuse. »
Pour Luc Julia, il faudrait plutôt parler d’« intelligence augmentée » ; Jean-Louis Dessalles prône quant à lui l’expression d’« informatique avancée ».
Toutes ces remarques ne doivent pas faire oublier les progrès bien réels réalisés dans le domaine, parfois formidables, parfois glaçants (à relier au « capitalisme de surveillance »). Mais une chose est sûre : intelligente ou non, l’IA est encore très loin d’atteindre tout ce que l’Homme peut réaliser, à commencer par notre capacité…d’humour. Les concepteurs d’assistants vocaux se sont ainsi aperçus, au fur et à mesure de l’usage de leurs outils, que la fonction la plus utilisée s’avère être « raconte-moi une blague ». Face à la quantité de demandes de blagues, Amazon (pour Alexa) et Microsoft (pour Cortana) n’ont donc eu d’autres choix que d’embaucher des humoristes – autrement dit, de bons vieux humains…