Temps de lecture : 12 minutes
Texte révisé le 5 janvier 2024
I think people should be happy that we are a little bit scared of this.
Sam Altman, CEO de OpenAI, société à l’origine de GPT1
Matinale
Vendredi 31 mars dernier, la Matinale de France Inter participait à l’effervescence mondiale engendrée par la lettre ouverte et inquiète signée par de nombreux chercheurs et ingénieurs réclamant un moratoire de six mois dans le développement de systèmes d’IA générative tels que ChatGPT, Midjourney ou DALL.E (« Pause Giant AI Experiments: An Open Letter »2).
L’IA a en effet atteint pour la première fois l’objectif rêvé dans les années 1960 par ses créateurs et auguré par la littérature de science-fiction : confondre l’humain et faire société avec lui. Si un grand média national comme Radio France donne voix à cette inquiétude, c’est que ces machines intelligentes parviennent enfin à ce que nous identifions comme le stade « 3 » de leur déploiement, celui nécessitant des moyens techniques et financiers considérables (PageRank, Parcoursup et autres « machines morales »). Elles sont désormais accessibles à tout le monde et donc, pour autant que nous leur prêtions une existence propre, font déjà société avec nous : elles peuvent en principe travailler, passer des examens, produire de la « vérité », de l’ « art », etc.
Lors de cette émission, Raja Chatila, roboticien, professeur émérite d’intelligence artificielle et d’éthique des technologies à Sorbonne Université, a justifié son paraphe3 :
Là, il fallait lever un carton rouge. Quelque chose est en train de se passer, et il fallait en prendre conscience collectivement. Il ne s’agit pas de faire peur, il s’agit de dire une certaine réalité. Un certain nombre d’institutions sont en train de déployer des systèmes qui sont des basés sur l’apprentissage automatique de très grande quantité de données, et qui sont arrivés à un point de développement de reproduire des textes qui semblent rédigés par des humains. Mais ces textes ne sont pas porteurs de vérité, il est difficile de distinguer le vrai du faux. Le deuxième problème, c’est l’absence totale de sens. Ces systèmes ne comprennent pas ce qu’ils écrivent ou ce qu’ils disent.
Il n’y a rien de vraiment nouveau ici, mais il faut reconnaître que cette présentation précipite une angoisse familière : celle du changement et de l’entrée dans l’inconnu. Cette angoisse est habituellement réduite par les injonctions positives à la disruption, à la destruction créatrice et au solutionnisme technologique. Mais dans les cas des IA génératives, les responsables du changement semblent réagir un peu différemment. Pourquoi eux-mêmes réclament-ils un moratoire ? La situation est-elle à ce point inquiétante ?
Sans douter une seconde de la soucieuse sincérité de M. Chatila ni de celle de la plupart des 2500 signataires de cette lettre ouverte (décompte au 1er avril 2023), ceux-ci jouent, peut-être à leur insu, une partition très classique de l’étape « 4 » de tout progrès technique : le ripolinage des « solutions » déployées à coups de milliards et de gigawattheures en machines morales, étape ultime de leur crantage dans nos systèmes de croyances. Car, en introduisant sans explications la question du bien et du mal, la demande de moratoire ainsi chargée de morale contribue paradoxalement à l’acceptation collective de ces IA génératives et à leur avènement effectif dans la société des humains.
Voyons ceci de plus près en commençant par un signataire dont nous connaissons les ressorts.
Elon Musk
Elon Musk, personnage vigoureux scanné dans Elon Musk, vassal spécial, est l’un des instigateurs de cette lettre ouverte, et pas grand monde n’est dupe de ses motivations égotiques.
ChatGPT est la créature de OpenAI, une structure qu’il a coprésidée à partir de 2015 puis lâchée en 2018 (faute de résultats !). Petit souvenir de 2016, bras croisés, regard perçant, parfait4 :
La réaction pour le moins crispée d’Elon Musk face au succès de ces IA génératives est parfaitement expliquée dans l’excellent article de Matt Novak qui conclut5 :
Musk était parfaitement satisfait de développer des outils d’intelligence artificielle à une vitesse fulgurante lorsqu’il finançait OpenAI. Mais maintenant qu’il a quitté OpenAI [ racheté par Microsoft ] et qu’il l’a vu devenir le chef de file d’une course aux technologies les plus pointues pour changer le monde, il veut que tout s’arrête pendant six mois. Si j’étais un parieur, je dirais que Musk pense pouvoir pousser ses ingénieurs à mettre au point leur propre IA avancée dans un délai de six mois. Ce n’est pas plus compliqué que cela.
Nous sommes prêts à parier avec lui et même à doubler la mise : les motivations d’Elon Musk ne se résument pas à un simple tournoi entre pairs dont il aurait perdu une manche. C’est bien plus que cela. Musk est viscéralement engagé dans la transformation de l’humanité (c’est-à-dire de lui-même…). Selon ce transhumaniste radical, la planète terre et l’humain « naturel » sont obsolètes. Par conséquent, l’IA en tant que simple technologie au service de l’humanité, au même titre que la voiture, l’électricité ou le numérique, est un trompe-l’œil et surtout un défi pour son projet « spéciste » à l’égard des machines. Pour résister à la machine qui advient et qui nous terrorise, l’humain doit en quelque sorte l’ « ingérer ». C’est le motif-même de son projet Neuralink, qui pose des problèmes éthiques bien plus redoutables que les IA génératives, du moins tant que ces dernières restent envisagées comme des outils et non pas comme des acteurs sociaux ou des véhicules du bien et du mal.
Invité de la Matinale, Clément Delangue, co-fondateur de la start-up française « Hugging Face », a pris la position qui nous semble la plus juste, dans la ligne de cette éthique du dévoilement qui nous est chère (Tristan Harris et le marais de l’éthique numérique) :
Je n’ai pas signé la pétition. Ce que l’on voit ici, c’est que cette pétition ressemble à une opération marketing un peu dirigée par Elon Musk. Il a été dépassé par l’intelligence artificielle. L’un des problèmes avec cette pétition, c’est que les solutions proposées sont très peu pratiques ou applicables. Ce qui est important, et ce que montre ce débat, c’est qu’aujourd’hui il faut plus de transparence et d’éducation au sujet de ces systèmes.
Mais cette posture beaucoup moins anxiogène appelant simplement à l’explication fait aussi beaucoup moins d’effet…
Stephen Hawking
Notons enfin qu’Elon Musk n’en n’est pas à son coup d’essai. Utilisant en 2015 son Future of Life Institute comme véhicule de propagande, il participait déjà d’une lettre ouverte et inquiète au sujet de l’IA6 signée, entre autres, par le regretté physicien Stephen Hawking. Ce dernier déclarait déjà ceci en 2014 à la BBC7 :
Les humains, limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient supplantés par l’I.A.
Cette prédiction « mathématique » d’un célèbre physicien a peut-être participé de l’inquiétude générale (si Hawking le dit…) mais, comme toute prédiction d’inspiration mathématique, elle ne projette qu’une dynamique présente liée aux faits du moment et à leur interprétation. Personne ne peut prédire l’avenir, mais on peut au moins affirmer que, si l’IA peut effectivement devenir une technologie destructrice par simple puissance d’action (comme la bombe atomique ou le moteur à explosion, chaque technologie puissante ayant son propre mode de destruction), elle ne « supplantera » jamais l’humain au sens biologique d’une compétition darwinienne entre espèces, car l’IA n’est pas une espèce. Cette anthropomorphisation de la technologie méconnaît, sincèrement ou par calcul, l’essence de la technologie.
Si Hawking est sincère, l’ « inquiétude » de Musk, comme de nombreux autres signataires, n’est pas liée aux hypothétiques dangers civilisationnels de l’IA mais au risque de passer à côté (ou en second) d’un business considérable, voire pire : de permettre à la puissance publique et à la société civile, toutes deux honnies du libertarien, de comprendre elles-mêmes les dangers de l’IA et d’entraver la liberté du business en légiférant pour la première, en vociférant pour la seconde.
Voyons donc comment s’emparer préventivement du bien et du mal pour éviter ce cauchemar.
Le Bien et le Mal
Parmi les acteurs remarquables du Future of Life Institute et signataires de ces lettres ouvertes, nous reconnaissons trois personnages déjà croisés ici : Jaan Tallinn, milliardaire estonien et « altruiste efficace »8 (mentionné ici comme prototype pour une recension ultérieure du courant moral de l’ « Effective Altruism » – voir aussi le mention de Jaan Tallinn dans Un futur sans nous), Tristan Harris (Tristan Harris et le marais de l’éthique numérique où il est question entre autres de l’éthique de dévoilement) et enfin Stuart Russell (Being Stuart Russell – Le retour de la philosophie morale). Tous cautionnent des formes diverses et variées de ce conséquentialisme qui inspire les signataires les plus sincères.
Les traces du retour de cette philosophie morale, c’est-à-dire d’une axiologie du « bien » et du « mal » (catégories désormais numérisables) sont perceptibles dans la pétition. Nous lisons ainsi :
Faut-il laisser les machines inonder nos canaux d’information de propagande et de contre-vérité ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains, qui pourraient un jour être plus nombreux et plus intelligents, nous périmer et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ?
Mais tout ceci existait bien déjà, et parfois depuis longtemps, sans l’IA, et il y a toujours eu certains humains à la manœuvre, mystérieusement confondus dans ce vaste « nous » collectif. Alors, qui « inonde nos canaux d’information de propagande et de contre-vérité » (c’est mal), si ce n’est quelqu’un, bénéficiant certes aujourd’hui de médias numériques et smart ? Qui cherche inlassablement à « automatiser tous les emplois, y compris les plus gratifiants » (c’est mal), si ce n’est, depuis le XIXème siècle, le capitalisme industriel, bénéficiant certes aujourd’hui de mégamachines informatiques ? Qui cherche inlassablement à « développer des esprits non humains » (c’est mal), si ce n’est, au moins, le complexe militaire, creuset de l’IA moderne rappelons-le, bénéficiant certes aujourd’hui d’armes intelligentes ?… Alors qui peut penser sérieusement que nous puissions « perdre le contrôle de la civilisation » (c’est mal) à cause de l’IA, alors que la responsabilité incombe à certains humains à l’abri d’un vaste « nous » collectif, bénéficiant toujours, certes, de la technologie du moment ?
L’IA en tant que telle n’a pas à être blâmée ni crainte, mais il faut lui reconnaître une spécificité réellement problématique héritée de sa matrice informatique et sur laquelle nous avons souvent insisté : son opacité. On ne sait pas vraiment dire de quoi il s’agit. N’importe qui peut donc dire n’importe quoi, et en particulier actionner à sa guise le curseur du bien et du mal. L’altruisme « efficace » n’a aucun sens précis mais, parlant du bien et du mal, parle à tous, se présentant ainsi comme le cheval de Troie d’un techno-solutionnisme débridé (« doing things better »). Dans ce registre, la demande de moratoire atteint un rare niveau d’hypocrisie car les signataires, Elon Musk en premier, savent parfaitement que ce moratoire est impossible pour des raisons stratégiques. Dans le brouillard opaque de l’IA, sans explications, ils agitent donc eux-mêmes le spectre du mal avant que « nous » le fassions.
Régulez-« nous » !
La lettre ouverte finit logiquement en exigeant un contrôle accru de ces systèmes :
La recherche et le développement dans le domaine de l’IA devraient être recentrés sur l’amélioration de l’exactitude, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et de pointe d’aujourd’hui.
Curieusement, à rebours de la doxa libertarienne, c’est même une forme de contrôle social qui est suggéré, avec plus de réglementation et de fonds publics pour la recherche en matière de sécurité technique de l’IA (« technical AI safety research »). Chacun ne peut que souscrire, évidemment, puisqu’il s’agit de combattre le mal et en particulier de préserver notre « modèle démocratique » (bien) :
… [ et ] des institutions dotées de ressources suffisantes pour faire face aux bouleversements économiques et politiques spectaculaires (en particulier pour la démocratie) que l’IA provoquera.
Soit dit en passant, de quels épouvantables maux démocratiques supplémentaires l’IA est-elle capable quand, ne supportant plus aucun risque, ne supportant plus les incertitudes de l’avenir, nous avons déjà déposé notre liberté aux pieds de pouvoirs munis d’instruments de contrôle et de réglementations préventives (Génération François Sureau), quand, exigeant d’être débarrassés du souci, nous avons déjà confié la numérisation de nos existences à ceux-là même qui, comme Elon Musk, réclament un moratoire ? Nous, c’est-à-dire la société civile structurée par des politiques publiques, sommes donc déjà disqualifiés pour exercer le contrôle social suggéré en toute mauvaise foi.
Tout le monde le sait : la recherche en IA (comme d’ailleurs la recherche en médecine, en biologie, en robotique…) échappe en grande partie aux capacités financières de la puissance publique civile et donc à un certain « bien commun by design », pour ainsi dire. Raja Chatila le reconnaît bien lui-même :
La recherche académique n’a pas les moyens d’être en compétition avec des entreprises de ce type-là [ OpenAI, Google, etc. ]. Ils ont tout, et dans les universités on est « petits joueurs ».
Pour la première fois peut-être, la plupart des États (démocratiques) n’ont plus les moyens de mener ces recherches ni donc de donner la possibilité aux citoyens d’y participer a priori. On ne demande donc plus à cette puissance publique, bonne fille, qu’une régulation a posteriori (Europe, championne du monde), et on lui octroie donc quelques miettes comme la « recherche en matière de sécurité technique de l’IA ».
Cela peut faire illusion et rasséréner les plus contrits. Mais les régulations demandées ne pourront évidemment être élaborées que par des cabinets d’experts, des structures de conseil et des spécialistes capables de comprendre les technologies en jeu, de sorte que la régulation reste un business avançant main dans la main avec la tech et partageant les mêmes réseaux d’influence. C’est ainsi que l’on passe effectivement de la « phase 3 » à la « phase 4 », en faisant semblant de nous associer au combat contre le mal alors que la main est conservée par les puissances privées du numérique.
Conclusion
Le vrai « péril » est que prenions vraiment peur et qu’ainsi tétanisés nous finissions par croire que l’IA et ses avatars sont bien plus que des instruments : des « choses » capables de provoquer une dangereuse rupture de civilisation. Ce discours alarmiste rend (préventivement) impossible toute discussion critique au sujet de la nécessité ou de l’inéluctabilité de ces technologies, posant qu’un polish éthique ou réglementaire, sur lequel les signataires nous invitent à nous concentrer, viendra à bout des derniers problèmes, quand bien même ces problèmes seraient « mortels ». L’IA générative doit trouver sa place dans la société et cette lettre ouverte nous intime de faire notre part en préparant son lit règlementaire.
Nous invitons plutôt, à la suite de Clément Delangue, à instruire notre regard, aussi bien sur les techniques d’IA que sur les puissances qui les contrôlent. Depuis les millénaires de progrès technique, l’humain a toujours su vaincre l’effroi de son propre remplacement, c’est-à-dire de son absence de singularité, en se familiarisant avec les outils forgés par les artisans et en contrôlant leurs représentations par le langage (ce que nous nous efforçons de faire ici), puis par des formes ironiques et artistiques. Ce sont toutes ces représentations qu’il faut presser d’advenir.
Version pdf : IA monstres : le grand frisson !
1. ↑ Victor Ordonez , Taylor Dunn, Eric Noll / ABC News – 16 mars 2023 – OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’
2. ↑ Future of Life Institute – Pause Giant AI Experiments: An Open Letter
3. ↑ Radio France / Matinale de France Inter – 31 mars 2023 – Le patron de Twitter Elon Musk et des centaines d’experts réclament une pause dans l’intelligence artificielle. Ils réclament un moratoire jusqu’à la mise en place de systèmes de sécurité.
4. ↑ Wired / Cade Metz – 27 avril 2016 – Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free
5. ↑ Matt Novak / Forbes – 29 mars 2023 – Elon Musk’s AI History May Be Behind His Call To Pause Development
6. ↑ Future of Life Institution – Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter
7. ↑ Michael Sainato / Observer – 19 août 2015 – Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence
8. ↑ Wikipedia –Jaan Tallinn
La découverte de la roue ou, mieux encore et bien avant, du feu, ont elles entrainé des moratoires de 600 ans ? ( tout s’accélère ) ?
Bien vu ! Mais 600 ans entre l’invention du feu et le poulet rôti ? Même si tout s’accélère, ça me parait insupportablement long !