La bêtise artificielle


par  G. GOURÉVITCH
Publication : mars 2018
Mise en ligne : 5 juillet 2018

En complément aux articles très documentés de Marie-Louise Duboin et Guy Evrard sur la révolution numérique et ses conséquences, je souhaiterais partager quelques réflexions sur l’intelligence artificielle, élément aussi central que fantasmatique de cette évolution technologique.

Les mythes naissent souvent à des moments où l’humanité se sent perdue devant des problèmes qui lui apparaissent insolubles, en général quand elle a déjà le nez dans les catastrophes. La fabrication d’un mythe étant plus pratique et moins fatigante que de remettre en question son mode de vie ou le fonctionnement de la société, on en invente donc beaucoup en ce moment, et je voudrais m’arrêter un instant sur le tout dernier, le transhumanisme ; il est intéressant à plusieurs égards.

Nous conviendrons d’abord que le terme sonne moins bien à l’oreille qu’humanisme tout court ; mais c’est là une question de goût personnel.

“Intelligence militaire” est une contradiction dans les termes.

Groucho Marx

Le transhumanisme, donc, consiste à croire en la possibilité pour l’Homme de « s’augmenter », c’est-à-dire de créer des artefacts capables de multiplier ses capacités sensorielles, et surtout de compréhension et d’intelligence. On conviendra qu’un bref aperçu des échanges sur les réseaux sociaux montre qu’il y a là un vrai besoin.

Ne serait-ce que sur les « sens augmentés » ; imaginez donc le rêve que serait la possibilité d’intégrer des caméras infra-rouge aux yeux de biche de votre bien-aimée, des micros ultra sensibles aux oreilles de votre fiston - de manière à ce qu’il soit encore un peu plus équilibré - et des capteurs de mouvements au bout de vos phalanges, qui n’en demandaient pas tant.

Mais ceci n’est rien. Rien, à côté des puces multi-cœurs - c’est joli - composées des derniers processeurs peta-flops - je n’invente pas non plus - capables d’associer à votre pauvre cerveau de pauvre humain quelques tera-octets supplémentaires, vous permettant de traiter par la pensée les grands volumes de données (ou “big data”) que vos sens, désormais augmentés, auront recueillis.
Et tout ceci pour vous améliorer un peu, tant vous faites pitié lorsque vous vous mettez à réfléchir, à parler d’amour, regarder les mouches voler, ou, pire, à hésiter chez Carrefour devant le dernier tire-bouchon à effet tunnel, pourtant en promo.

Trêve de sarcasmes. Le transhumanisme est directement dérivé (au sens propre du terme, car il s’agit bien d’une dérive) de recherches, bien réelles celles-là, en intelligence artificielle. Mais le terme est trompeur, et il conviendrait de savoir de quoi on parle.

L’Intelligence Artificielle, IA en abrégé, comporte deux grandes approches : l’imitation du comportement humain et sa modélisation.

La première se contente de reproduire, souvent grossièrement mais parfois subtilement, un comportement dit “intelligent” ou “prédictif”. Essentiellement liée à la recherche appliquée, elle a généré des applications dont les premières datent d’une trentaine d’années, avec l’apparition de « systèmes experts » et de premiers traducteurs automatiques.
Ce domaine connaît depuis quatre à cinq ans une croissance spectaculaire, profitant de l’augmentation exponentielle des performances de processeurs et des mémoires, allant de pair avec leurs baisses de coûts.
La littérature nomme souvent l’imitation du comportement humain “l’intelligence artificielle faible“ ; en font partie les raisonnements déductifs, la recherche d’analogies, la prédiction d’évolution de systèmes, des stratégies simples de coopération entre “agents intelligents”, l’apprentissage automatique, tout ceci, et c’est important, en se limitant à des ontologies et des domaines prédéfinis.
Même traitées de façon un peu condescendante de faiblement intelligentes, les applications sont incontestablement intéressantes, par exemple dans l’aide au diagnostic médical, la reconnaissance vocale, l’analyse d’images, une certaine automaticité dans la traduction de textes, ou de premiers systèmes auto-correcteurs.
On peut trouver de telles fonctions jusque dans les “smartphones” (téléphones intelligents), et dans “l’internet des objets”, où ceux-ci, dotés d’électronique, échangent des informations issues de capteurs pour générer des actions adaptées à des situations données (pilotage à distance d’appareils de chauffage, alertes de sécurité, …).
Même les fers à repasser peuvent ainsi espérer devenir intelligents.

La seconde approche, la modélisation, est à comparer à celle des phénomènes climatiques ou cosmologiques. Elle est plus ambitieuse et elle exige des travaux de recherche fondamentale, alliant les « neuro-sciences », la psychologie cognitive et comportementale, la robotique et la cybernétique. Générant des modèles mathématiques complexes, cette approche doit être supportée par des ordinateurs dotés de techniques de calcul intensif et parallèle.

La modélisation du comportement humain est aussi appelée « intelligence artificielle forte », se fixant des objectifs tels que la simulation de comportements affectifs, ou la reconnaissance globale (visages, œuvres musicales, picturales).
Les applications de l’IA forte concernent prioritairement la robotique, mais pas seulement. Car les militaires, les services de sécurité et les départements marketing des grandes marques industrielles, sont extrêmement friands de ses retombées potentielles ; comme par hasard, les crédits de recherche, ici, ne manquent pas.
Au passage, on peut souligner que les problèmes sociétaux et éthiques posés par cette “IA forte”, ne manquent pas non plus.
Pour plus de détails, on peut se référer à de nombreux ouvrages, dont certains, que j’ai arbitrairement sélectionnés, se trouvent en référence.

Ce qui me semble important ici, est d’insister sur le fait qu’en matière d’intelligence artificielle, le fantasme, très utile en soi, doit rester à la place qui est la sienne, et ne peut pas venir interférer avec la réalité, même dans une perspective à long terme.
C’est exactement les cas, souvent évoqués, d’applications telles que les « détecteurs de beauté », les artistes, les écrivains, voire les juges « numériques », la « pensée automatique » …
Ces rêves, ou délires selon le point de vue, frappent l’imaginaire de tout un chacun, et ne sont évidemment pas exempts de perspectives marketing et d’espoirs de monétisation. Plus grave, à mon sens, est le cas des théories transhumanistes déjà citées, menant au remplacement de l’espèce humaine par une espèce humanoïde augmentée. Ces théories ne sont pas étrangères à l’idéologie de la race pure supérieure, souvenir dont nous devrions quelque peu nous méfier.

Or il existe une barrière structurelle, fondamentale, entre la recherche scientifique en IA et le fantasme  ; elle se situe dans le concept même d’intelligence, ou peut-être dans celui, plus précis, de compréhension. C’est cette barrière qui nous empêche d’envisager pour l’IA aussi forte soit-elle, autre chose que dans le meilleur des cas, un modèle mathématique sérieux et efficace du comportement humain, c’est-à-dire, comme toute modélisation, une simplification de la réalité offrant des perspectives d’applications utiles.
Les machines telles que “Deep Blue” d’IBM, célèbre pour ses succès au jeu d’échecs face à des champions du monde, ou “Alpha Zero” en jeu de Go, font leur travail à un tel point de perfection qu’elles sont capables d’exploits incontestables et tout à fait étonnants ; mais elles ne comprennent pas ce qu’elles font.
Elles ne comprennent rien, essentiellement parce qu’elles n’ont aucune conscience d’elles-mêmes, de leur “moi”, de leur intégrité, de leur histoire, du “façonnage” de la vie qui les amenées, un jour, devant une table d’échecs ou de go. Et elles ne se posent jamais la question de savoir pourquoi elles sont là, ce qu’elles y font : elles sont dans l’incapacité de douter de leur finalité de machine [1].

Je voudrais décrire brièvement deux éléments, parmi d’autres, qui donnent une idée de cette limite conceptuelle qui nous interdit de faire d’une machine un humain, ou même de faire d’un humain, un humain supérieur.
Le premier élément est d’ordre quantitatif et topologique. Dans le cadre des travaux de recherche en apprentissage automatique (« deep learning »), on a construit des en­sembles de neurones artificiels, c’est-à-dire des processeurs interconnectés qui simulent les neurones et leurs connexions chimiques à seuil, les synapses.
Dès aujourd’hui, on est ainsi parvenu à construire des réseaux de quelques centaines de neurones artificiels, puis à connecter ces « plans de neurones » entre eux. On arrive donc à disposer de systèmes à plusieurs couches de processeurs neuronaux.
Ces systèmes, à l’instar d’une assemblée de neurones de notre matière grise, restructurent leurs connexions en fonction des informations qui leur arrivent, et « apprennent » ainsi divers processus (opérations arithmétiques, guidage à travers des obstacles…) par correction itérative d’erreurs.
Ces simulateurs sont extrêmement intéressants pour comprendre les processus d’apprentissage et mesurer les vitesses de convergence (s’il y a convergence) vers les bonnes solutions. En ce sens, ce sont également de bons outils d’aide à la compréhension de l’Évolution d’une façon générale.
Or, d’une part, le cerveau a une structure d’espace à trois dimensions (et non à « multi-deux dimensions », ce qui est fondamentalement différent) ; et d’autre part, il comporte une centaine de milliards de neurones, connectés à l’aide, en moyenne, de dix mille synapses par neurone, qui se restructurent en permanence, en élaborant des zones spatiales et des aires, souvent éloignées les unes des autres et désynchronisées. Ce processus de structuration, et surtout son lien avec un comportement général cohérent, reste en l’état actuel des connaissances, inexpliqué.
Mais il apparaît néanmoins que ce saut quantitatif et topologique, génère un saut qualitatif qui semble hors de portée, sinon définitivement, du moins à très long terme.

Un autre aspect est sans doute plus spectaculaire et plus fondamental encore.
Un ordinateur, quelles que soient sa structure interne et ses performances, travaille toujours de façon réactive : il attend un évènement extérieur (un clic de souris, une frappe clavier, un contact sur un écran tactile, un son, un signal lumineux ou d’un réseau externe…) puis réagit selon un procédé prédéterminé, au moins déterministe, pour générer une ou plusieurs actions, qui sont fonction de ses algorithmes et des données qui lui sont accessibles. C’est ce qu’on appelle un mode « entrée-sortie ».
Le cerveau n’opère pas de cette façon : il travaille continuellement, se structure et se restructure dès qu’il commence à se constituer au stade embryonnaire [2], jusqu’à ce qu’il ne soit plus alimenté en oxygène et en nutriments, et meurt.
Tout au long de sa vie, le monde extérieur est une contrainte pour lui : c’est grâce aux informations du système nerveux et de ses capteurs, les sens, qu’il est contraint de ne pas faire n’importe quoi.
Si on disjoint le cerveau du reste du corps, et qu’on l’alimente convenablement mais sans aucune information extérieure, il poursuit imperturbablement son activité, continue à se structurer et à se déstructurer, à connecter et à déconnecter des neurones et des aires, mais pour rien, en vain. Il devient fou.
Dit autrement, le cerveau est un « moteur de structures », qui fonctionne sans fin et sans but ; seul le corps permet à ce curieux ensemble de processeurs et de réseaux, de générer un « logiciel », une « application » concrète, (oserai-je dire une finalité ?) qui n’est autre que le comportement intelligent, expressif et éminemment adaptatif de chacun de nous.
Nous sommes là devant un fonctionnement de nature essentiellement différente d’un ordinateur déterministe, ou même non déterministe.
Rien n’indique d’ailleurs que même si nous arrivions à passer la barrière quantitative et la barrière topologique des trois dimensions, et si nous connections un tel système de neurones artificiels sur une structure mécanique et électronique extrêmement évoluée, nous puissions créer finalement un comportement homogène, censé, relevant d’un être capable à la fois de penser, de créer, d’agir, de réagir, d’échanger, de socialiser, de prévoir, de décider, d’aimer, de sentir, d’oublier, de se souvenir, …

Un tel comportement, aussi riche, aussi multiforme, aussi « élastique » et adaptatif, mais aussi formidablement efficace, devrait sans doute nécessiter des dizaines de milliers d’années d’évolution, de mutations, d’expérimentations, d’erreurs et d’apprentissage autonome et social ; de surcroît, dans un environnement favorable à un processus convergent.
Et même dans ces conditions, même dotés d’une très grande patience, nous n’avons aucune garantie d’y parvenir …


Bibliographie arbitraire

Aspects techniques

Alan Turing, Les Ordinateurs et l’Intelligence, p. 133–174
Jean-Yves Girard, La machine de Turing, éd.du Seuil
Elaine Rich, Artificial Intelligence, McGrawHill International Student Edition
Jean-Louis Laurière, Intelligence Artificielle, Eyrolles, 1986
Jean-Paul Delahaye, Outils logiques pour l’intelligence artificielle, Eyrolles
D. Partridge, IA et Génie Logiciel, Masson

Aspects philosophiques

Alan Ross Anderson, Pensée et machine, Editions Champ Vallon, 1983
Jean-Gabriel Ganascia, L’âme-machine, les enjeux de l’intelligence artificielle, éd. du Seuil, Col. Science Ouverte

Fondements cognitifs, psychologiques et biologiques

Hervé Chaudet et Liliane Pellegrin, Intelligence artificielle et psychologie cognitive, éd. Dunod
Jean-Pierre Changeux, l’Homme Neuronal, Fayard
Alain Connes et JP Changeux, Matière à Pensée, Odile Jacob

Aspects linguistiques

Gérard Sabah, L’intelligence artificielle et le langage, Représentations des connaissances, Hermès, 1989

Vulgarisation

Hugues Bersini, De l’intelligence humaine à l’intelligence artificielle, Ellipse, 2006
Jean-Gabriel Ganascia, L’Intelligence artificielle, éd. du Cavalier bleu, coll. Idées recues, 2007 Revue d’IA, Hermès, 1990
Colloque Entretiens du Nouveau Monde Industriel, Centre Pompidou, Décembre 2017.
Bêtises et intelligences artificielles : quand les calculs bouleversent le savoir et la science : Cap Digital et l’Institut de Recherche et d’Innovation : liens entre les savoirs académiques humains et les connaissances tirées des machines et de leurs calculs. Avec Bernard Stiegler, Laurence Devillers, Giuseppe Longo et Rand Hindi. 


[1À ce sujet, je conseille de voir ou de revoir I-Robot, film de science-fiction assez moyen, mais qui a au moins le mérite de poser le problème imaginaire que constituerait la prise de conscience de soi par une machine.

[2Un embryon développe pendant ses 4 premiers mois, 500.000 neurones par minute, jusqu’à atteindre entre 80 et 120 milliards de neurones. À partir de 25 ans, nous perdons irrémédiablement 20.000 neurones par jour, soit un total de perte de 400 millions, ce qui représente à peine 0,4% du total. Pas de quoi s’inquiéter, donc.
De nouveaux neurones continuent certes à être produits tout au long de la vie adulte, mais dans deux zones très restreintes, l’hippocampe et le bulbe olfactif.
À titre de curiosité, et sans qu’on puisse en tirer des conclusions quant à l’intelligence de certains de nos congénères, le cerveau n’est pas le seul organe comportant des neurones : nos intestins aussi, environ 500 millions…