Hop, deuxième épisode, suite du précédent, consacré cette fois-ci aux IA, publié dans le même supplément numérique à Fiction.
ici aussi, l'illus est de Gewll
Intelligence Artificielle
Les mains dans le cambouis, la tête dans les étoiles
« J'ai peur, Dave » lâchait au bout du compte le superordinateur Hal 9000 au moment où l'astronaute David Bowman le lobotomisait sans pitié aucune (désolé de vous avoir spoilé la fin du film au passage). Ce cri pathétique est autant destiné à son bourreau qu'au spectateur : il s'agit de faire comprendre que malgré sa froideur, malgré sa logique, malgré ses crimes, Hal n'est pas si différent de nous, que s'il présente une différence de nature matérielle, spirituellement c'est beaucoup moins tranché.
Il peut sembler redondant de se livrer dans ces colonnes à une petite réflexion sur l'intelligence artificielle si peu de temps après avoir y évoqué le robot, tant les deux problématiques sont liées. Mais dans le cas du robot, quand on met en scène ce genre d'être mécanique, on considère le problème de l'intelligence artificielle comme résolu d'emblée. Le robot parle, interagit, résout des problèmes et en pose d'autres, mais il est considéré comme un interlocuteur par ceux qui le côtoient. Tout au plus se pose-t-on des problèmes essentiellement métaphysiques sur son libre arbitre et son âme, sur un mode essentiellement binaire (oui/non) assez raccord après tout avec les modes de fonctionnement de ses microprocesseurs.
Le traitement de l'intelligence artificielle en tant que telle est tout autre. Il est généralement basé sur la notion de seuil. À partir de quand l'ordinateur atteint-il le stade d'intelligence ? À partir de quand se dote-t-il d'une apparence d'âme ? C'est presque le même problème que celui posé par le robot, certes, mais s'y adjoint un critère de temporalité : on subodore un genre de masse critique de circuits, de connexions ou d'informations qui permet une sorte de saut quantique vers une nature transcendante de la machine. On a même trouvé un mot pour ça, la Singularité.
Et comme toujours, le problème est probablement mal posé, ou dans des termes trompeurs.
Tout est une question de définitions.
D'où un premier petit sujet de philo : avant de parler d'intelligence artificielle, ne devrait-on pas essayer de définir l'intelligence tout court ?
Intel inside
Si l'on prend la définition la plus scolaire de l'intelligence, celle qui vous a probablement été assénée à l'école par les forts en maths, alors c'est simple, l'intelligence artificielle existe déjà depuis Eniac, et même auparavant par Z3 et Colossus. Si le plus intelligent, c'est celui qui arrive à manipuler des notions mathématiques complexes, alors l'ordinateur est déjà très intelligent*.
Il faut probablement donc affiner la définition et les applications du concept.
L'intelligence artificielle se manifeste déjà dans certaines formes de data mining, qui consistent à faire ingurgiter à la machine des quantités énormes de données pour faire émerger patterns et des corrélations (en prenant bien garde à ne pas confondre corrélations et causalités, bien entendu). Cette capacité à trouver des liens entre les faits, c'est étymologiquement la nature de l'intelligence**.
Là encore, l'intelligence artificielle est à nos portes. Mais force est de constater que même un ordinateur de bureau capable de se livrer à des simulations complexes et de répondre à des requêtes formulées à haute voix dans une syntaxe à peu près humaine est très éloigné de HAL 9000 et consorts.
Le problème n'est pas en soi l'intelligence, quoi que l'intelligence froide de Hal, son petit côté Hannibal Lecter dans sa cage (et on se prend à cauchemarder d'un HANNIBAL 9000 qui dévorerait ses petits camarades I.A.s en les mettant en réseau, un peu à la Matrix) ne fasse pas de doute.
Non, ce que l'on recherche, en fait, c'est la conscience artificielle, et force est de constater que ce n'est pas du tout le même bestiau.
Parce que quand on pense à « intelligence artificielle », ce qu'on vise, c'est précisément ce petit supplément d'âme qui permet à Hal d'avoir « peur, Dave ». Et ce que Dave déconnecte, ce n'est pas l'intelligence de la machine, dont il continue d'avoir besoin pour assurer la bonne marche du vaisseau, mais ses fonctions dites « supérieures », ramenant graduellement son adversaire à un niveau enfantin, puis infantile, puis purement mécanique.
Éternelle distinction entre l'âme et l'esprit posée par bien des systèmes de croyance, mais qui reste toujours un peu délicate à manier et à trancher ? Ou se place le curseur, en définitive ?
Ce qui nous pose un deuxième, et très croustillant, problème de définition. Parce que si l'intelligence est déjà difficile à quantifier et à définir, la conscience, c'est encore plus compliqué.
L'autoréflexivité en est une condition, mais sans doute pas suffisante : n'importe quel ordinateur moderne dispose d'outils d'autodiagnostic, et ça n'en fait pas une machine doté d'une conscience de soi. Si l'on en revient encore à l'étymologie, la « con-science » implique une mise en relation, une rétroaction avec le soi, avec ce qui l'entoure, avec l'autre.
Poulpe fiction
Un embryon de réponse vient de l'éthologie. Avec un accent et sans « n ». L'éthologie, c'est un peu comme l'ethnologie, c'est une étude des comportements. Sauf qu'au lieu de s'appliquer à l'homme, elle s'applique aux animaux***. Depuis longtemps, l'étude de nos amies les bêtes a mis de l'eau dans son vin à propos de tout plein de notions comme « le pur instinct inné » et autres. Elle s'est mise en tête de repérer et quantifier le degré de conscience de certaines espèces, et de définir ses conditions d'émergence et de maintien (le fameux seuil évoqué plus haut).
Quatre conditions ont été repérées :
L'adaptation à un milieu, parce qu'une espèce mal adaptée aura des difficultés à y survivre, et que toutes ses ressources seront alors concentrées sur la survie et elle seule.
Un organe préhensile permettant une interaction fine avec ce même environnement, et une action sur lui, pour générer des mécanismes complexes de rétroaction.
Un gros cerveau, au moins comparativement à la taille du bestiau, parce qu'il faut avoir de la ressource « processeur » en trop qui ne soit pas monopolisée par la mécanique du corps.
Et en dernier lieu un langage permettant la communication entre membres de l'espèce considérée. Et là, il s'avère que le cas est beaucoup plus commun qu'on ne le croit. Les chimpanzés disposent d'un code tambouriné sur des troncs permettant de faire passer à distance un certain nombre d'information précises, et même de les combiner entre elles (prédateur-en approche-en haut, prédateur-pas loin-en bas, etc.) et les cétacés communiquent à grande distance des notions qui nous demeurent obscures****, mais avec des accents et des dialectes locaux.
Ce qui est très intéressant avec ce système de critères, c'est que du coup, le poulpe est sans doute plus haut sur l'échelle que gentil dauphin (qui n'y suis pour rien). En effet, malgré son cerveau développé et son langage très complexe, la capacité d'interaction de ces charmants bestiaux est très limitée. La conscience a clairement émergé chez eux, mais risque fort de se heurter à un mur.
Chez le poulpe, par contre, la présence de tentacules permet d'agir sur l'environnement et de le modifier, ainsi que de résoudre par l'intelligence des problèmes complexes (comment attraper une langoustine dans un bocal fermé, par exemple)(ça n'a l'air de rien, mais c'est quand même assez compliqué, et ils y arrivent).
Chez nos ancêtres préhumains, on a déterminé que chaque amélioration dans la façon de s'alimenter en protéines générait une amélioration du fonctionnement du cerveau et une augmentation de sa masse, qui en retour permettait d'optimiser à nouveau l'alimentation.
Mais le critère déterminant, ce n'est pas la conformité ou pas à des conditions préalables. Les éthologues ont mis au point un test tout simple permettant de repérer chez un être la complexité du premier niveau de conscience, la conscience autoréflexive, la conscience de soi-même : le test de la tache. Il ne demande, en plus du sujet à étudier, qu'un miroir et un colorant bien visible. On présente le sujet au miroir et on le lui laisse apprivoiser. Au mieux, un sujet « non conscient » saura y reconnaître un congénère, et pourra se lancer dans une parade d'intimidation, le voyant comme un rival. Un sujet conscient dépassera très vite ce stade et s'apercevra que l'image répond à ses actions, que l'image, c'est lui-même. Et pour être sûr que l'examinateur ne projette pas son propre anthropomorphisme sur son sujet, c'est là qu'intervient la tache. Pendant un moment d'inconscience de l'animal (sommeil ou narcose provoquée), on lui applique sur le front le colorant, de façon bien visible, d'une couleur qui soit bien en anomalie. Une fois présenté au miroir, s'il a le geste de tenter de l'effacer (ou s'il réagit à l'anomalie : les dauphins sont positifs à ce test, mais n'ont pas d'organe préhensile leur permettant d'agir sur la tache, de la gratter ou de la frotter), c'est bien qu'il y a reconnaissance et constitution du image de soi.
C'est par la comparaison des êtres positifs à ce test que nous pourrons peut-être avancer dans la définition et la compréhension de ces phénomènes cruciaux***** : la conscience et la pensée. C'est en les comprenant qu'on parviendra à les modéliser, puis à les simuler, puis à les reconstruire.
En apparence, tout ceci nous a quand même pas mal éloigné de notre sujet initial.
De fait, appliquer ces concepts à des machines demande de grosses adaptations : si la notion d'organe préhensile et de langage peuvent s'appliquer directement à un gros ordinateur, et que le problème du cerveau se pose dans d'autres termes, quid de l'adaptation au milieu, qui implique une relation suivie avec ce milieu ? Et comment réaliser le test de la tache ou lui trouver un équivalent ? Quels seront nos rapports avec ces intelligences forcément différentes, mais qui nous tendront néanmoins un miroir éclairant notre propre psyché ?
Miroir de l'esprit
Le test dit de Turing est censé offrir une alternative à celui de la tache. Il consiste en une discussion entre un humain et le sujet d'expérience. Si, après un temps suffisamment long, l'humain a l'impression d'être face à un autre humain, ou plus précisément à une « personne », alors le test est considéré comme positif. Mais ce test induit un biais très important : le résultat dépend au moins autant de la subjectivité du testeur que de la capacité du testé à reproduire un comportement humain. Pire encore, et Philip K. Dick avait très bien posé le problème en son temps, une simulation du comportement humain peut s'avérer manipulatrice par essence, et s'adresser à l'empathie de l'humain pour la tromper, comme dans Seconde Variété (1953). Et il indiquait que, pire encore, le risque de « faux négatif » est important : le test Voight-Kampf de Blade Runner (Do androids dream of electric sheep, 1966) est-il réellement capable de différencier un répliquant inhumain d'un simple sociopathe déconnecté de ses semblables ? Ces dernières années, on s'est même retrouvés avec des résultats positifs face à des logiciels de conversation, fonctionnant grâce à un moteur statistique déterminant quelles phrases semblent acceptables dans tel ou tel contexte sémantique en analysant les réponses faites par les utilisateurs humain précédents. Dans un tel cas, l'intelligence n'est pas dans la machine, mais dans la qualité de l'algorithme. Et se pose alors la question : quelle est la part de l'intelligence dans la conversation courante de nos semblables****** ?
Que dire aussi d'une machine du calibre de Shalmaneser, l'entité chargée de dépouiller les masses insensées de données produites par le monde surpeuplé de Tous à Zanzibar (Stand on Zanzibar, John Brunner, 1968) ? Shalmaneser ne prétend aucunement émuler le fonctionnement de l'humain, mais s'avère peut-être aussi manipulateur que ses opérateurs dans un rapport de rétroaction infiniment subtil.
Émulation de l'esprit humain, ou entité autre, ne s'abaissant à nous ressembler que pour communiquer avec nous, à quoi ressemblera l'intelligence artificielle, si toutefois nous arrivons à la produire ?
Ce sont toutes ces questions qui constituent en fait les murs auxquels se heurte la recherche dans ce domaine. On sait fabriquer ou simuler des réseaux neuronaux fonctionnant approximativement comme ceux des espèces animales, dont la nôtre. On sait assembler des machines permettant une énorme capacité de calcul et de traitement. Le problème n'est pas purement technique, il est conceptuel.
On l'a dit et l'on y reviendra toujours : c'est un problème de définitions…
Boîte à outils :
Un film à voir : A.I., de Steven Spielberg qui, malgré son titre, ne pose pas du tout le problème de l'intelligence artificielle, mais seulement celui du robot. C'est ça, la magie d'Hollywood.
Un livre à lire : Destination Vide, de Frank Herbert, (et éventuellement ses suites coécrites avec Bill Ransom). Le problème de la conscience artificielle y est directement posé et décortiqué, avec des conséquences étranges et métaphysiques.
Un disque à écouter : Les chants des baleines, parce qu'en s'y mettant tous, peut-être qu'on parviendra à les décrypter un jour !
*Et l'on note que pour nos petits Eniacs de cour de récré, le summum de l'intelligence, c'est d'entrer à l'ENA. Il y a peut-être un lien, et on voit le résultat d'ailleurs.
**Le mot tel qu'on le connait est construit sur la même racine signifiant « lien », qu'on retrouve aussi dans « religion », d'ailleurs, ce qui ne nous renseigne pas tant sur la nature de la religion en elle-même que sur la façon dont la pratiquaient et la concevaient les anciens Romains, mais cela nous éloigne de notre sujet. Ou pas tant que ça, mais je vous laisse vous débrouiller avec Frank Herbert.
***Mais des éthologues ont appliqué à l'homme, vu comme animal social, le résultat de leurs recherches, et c'est aussi enrichissant qu'amusant. Disons que malgré toutes ses prétentions de supériorité, Homo sapiens sapiens ne s'est pas toujours complètement éloigné de ses ancêtres simiesques qui se balançaient du caca à la figure pour régler leurs conflits. Seule la nature du caca diffère.
****J'appelle à la barre Monsieur Douglas Adams, de Cambridge, qui avait une théorie très élaborée sur le sujet.
*****Et pas que dans le domaine des ordinateurs : il est aussi à la clé des recherches de vie extraterrestre. Trouver des lombrics ou des paramécies de l'espace sera un exploit scientifique et fera avancer la connaissance, mais le cœur de ce que l'on cherche là-haut, ce sont bien des frères d'outre-espace, des civilisations capables de nous répondre.
******L'utilisation du téléphone portable dans les transports publics et la télé-réalité nous donnent déjà un début de piste pour répondre à cette dernière question.
Commentaires
mais y a bien un papier "cités perdues" qui trainaille dans un tiroir.