Je suis passé à Aurore Système, petit salon de SF organisé à Ground Control, à Paris, par la librairie Charybde. Je ne connaissais pas le lieu, que j'ai découvert et qui est très chouette. Je venais surtout pour une table ronde sur l'IA, qui est un des sujet importants de nos jours et déchaîne les passions, surtout sous sa forme "générative", les chat GPT, Midjourney et autres.
Je me suis tenu un peu à l'écart de ces trucs-là, pour ma part. Je suis très méfiant (même s'il m'est arrivé d'employer Deep-L professionnellement pour dégrossir des traductions du français vers l'anglais, que je retravaillais en profondeur ensuite), parce que l'ai bien conscience du processus et des arrières pensées derrière. J'en ai déjà causé sur ce blog, ici et ici.
La table ronde réunissait trois pointures, Olivier Paquet, Catherine Dufour et Saul Pandelakis, qui ont écrit sur le sujet, et pas mal réfléchi. Lors des questions qui ont suivi, on a eu aussi une assez longue intervention de Marion Mazauric, des éditions le Diable Vauvert.
Je ne fais pas en faire une recension ici, même si j'ai pris des notes, elles sont succinctes, mais je vais rebondir sur des trucs qui ont été dits.
Aucun des intervenants n'était hostile par principe à l'IA générative. Ça ne leur interdisait pas d'être critiques non seulement de l'emploi qui en est fait, mais aussi des résultats. Ils ont cité quelques expériences littéraires intéressantes, dues au fait que les bouquins n'étaient pas simplement générés par l'IA, mais intégraient aussi le processus, les prompts, les échanges. Il s'agissait de dialogues entre l'auteur et l'IA et de réflexions qui en naissaient.
Mais oui, le recours à l'IA peut générer une paresse intellectuelle, et un biais (qu'on a vu récemment avec cette politicienne qui interrogeait Chat GPT pour voir si une situation de la vie réelle était problématique et concluait que non puisque l'IA lui avait dit que non). Catherine Dufour emploie le mot "bulshitteur" pour parler de comment fonctionne l'IA générative : elle travaille en cherchant l'enchaînement le plus probable attendu par l'utilisateur. Vous voyez venir le biais ? Tout dépend des données sur lesquelles elle se fonde. Et on connait la qualité des données libre d'accès sur Internet. Abraham Lincoln le disait déjà en son temps "le problème des citations trouvées sur internet, c'est qu'elles sont parfois apocryphes".
Olivier Paquet note d'ailleurs qu'une partie de ce qui fait un auteur, c'est sa bibliothèque mentale, ce qu'il a lu, assimilé, aimé, détesté, ce qui fait que l'influence du bagage n'est pas univoque. Alors que le corpus d'une IA, même modéré par des algos, met tout sur le même plan ou presque, sans analyse ni perspective.
Marion Mazauric signale d'ailleurs que le problème de l'écriture algorithmique n'est pas nouveau, citant la collection Harlequin où les cahiers des charges étaient du même ordre, une recette permettant de produire un produit attendu par jeu combinatoire.
Cela suivait d'ailleurs une réflexion sur le rôle du lectorat, et surtout des influenceurs qui sont des révélateurs de préoccupations polluant parfois le débat. Sur des genres très codifiés, le rapport à l'attendu conduit à rejeter tout écart.
Un sujet évoqué en passant, c'était d'ailleurs le biais de langage que nous avons. On parle d'IA, mais le problème pour l'instant tient à l'IA "générative", celle qui est utilisée pour produire du contenu grâce à un algorithme cherchant à produire une imitation de forte probabilité. Elle n'est pas l'IA analytique utilisée en science, qui va faire un peu le contraire en cherchant les anomalies, des écarts, justement : sans elles, on n'aurait pas ces gros titres sur James Webb par exemple, parce qu'on ne parviendrait pas à extraire les choses exceptionnelles des masses de données qu'il produit. L'IA analytique peut poser des problèmes aussi (quand on l'utilise dans le domaine militaire ou la police prédictive, entre autres), mais pas du tout du même ordre que l'IA générative.
Et puis il y a ce que les participants appellent l'IA "générale", et ça c'est l'IA de science-fiction, Hal 9000 ou Skynet (ou Kitt, pour ceux qui aiment les Pontiac noires), capable d'analyser le réel et de prendre des décisions en conséquence, y compris pour assurer sa propre survie.
Se pose aussi alors la question du potentiel apocalyptique attaché à l'IA.
Digression : Dans une anthologie qui sort ces temps-ci chez Goater et que j'ai feuilletée juste avant la table ronde, Camille Leboulanger attaque sec en expliquant que l'apocalypse est un truc de réacs. C'est sans doute à nuancer un poil, mais Saul Pandelakis recoupe ça en interrogeant le poids de ces imaginaires-là.
Bref, plein de choses intéressantes que je ne fais qu'effleurer ici.
Commentaires