PageRank, Parcoursup et autres « machines morales »

Temps de lecture : 17 minutes


Les jeunes, de nos jours, ne sont plus équipés pour un monde qui, pour l’essentiel, est d’une complexité technique bien supérieure à la formation que leur assure l’école. Personne ne reçoit plus les armes nécessaires pour s’en sortir, s’élever et trouver une structure qui permet de s’insérer dans un monde chaque jour plus cataclysmique.

David Bowie

Théories de l’information

Si David Bowie était peut-être trop pessimiste, reconnaissons au moins que nous avons un problème : nous utilisons les « solutions » du système technicien en ignorant à peu près tout de leur fonctionnement. Bref, nous ne maîtrisons à peu près rien.

Mais est-il utile de savoir que le GPS de notre automobile est animé par un système de satellites, des ondes électromagnétiques, les équations de la relativité générale… ? Faudrait-il savoir que notre climatiseur est une machine thermodynamique utilisant des fluides frigorigènes issus de la chimie du pétrole ? Que l’écran de notre smartphone est animé par un transfert de charges électriques vers notre doigt ? Que l’algorithme de recherche de Google est validé par l’étonnant théorème mathématique du point fixe ?…

La plupart d’entre nous sommes évidemment indifférents à ces innombrables théories et techniques, aussi ingénieuses et remarquables soient-elles. Il est d’ailleurs impossible d’en connaître ne serait-ce qu’un petit nombre. Et pourtant, une fois diffusées dans le système technicien, ces inventions abstraites ont des effets proprement gigantesques, qu’ils soient sociaux, économiques, environnementaux…

Les théories de l’information jouent ici un rôle de premier plan. Elles portent en effet sur la façon dont nous (au sens large, c’est-à-dire artefacts inclus) interprétons le monde et communiquons. Ces théories ont même acquis, fait totalement inédit dans l’histoire des sciences et des techniques, un pouvoir performatif car, étant immédiatement numérisables, elles peuvent être projetées sans difficulté dans ce milieu naturel digital qui nous enserre déjà. D’une certaine façon, les théorèmes nous « parlent » à travers les objets.

Rappelons ceci[1] :

La performativité est le fait pour un signe linguistique (énoncé, phrase, verbe, etc.) d’être performatif, c’est-à-dire de réaliser lui-même ce qu’il énonce. Le fait d’utiliser un de ces signes fait alors advenir une réalité. […]

Le philosophe du langage américain John Searle, dans « La Construction de la réalité sociale », sorti en 1995, affirme de façon généralisée que les actes de langage fabriquent les réalités sociales, distinctes des réalités naturelles (physiques, etc.), et sur lesquelles reposent des institutions (religieuses, civiles) et des conventions (jeux).

Il est désormais tout à fait possible de remplacer « signe linguistique » et « acte de langage » par « algorithme » ou « modèle mathématique » (au sujet de l’extraordinaire performativité des mathématiques, voir aussi Femmes en mathématiques). Si les théories et les techniques de l’information « fabriquent nos réalités sociales », il est alors recommandé de ne pas les ignorer et, surtout, de comprendre l’intention de leurs auteurs. De « recevoir les armes nécessaires » comme disait Bowie.

Le PageRank de Google

Démontons par exemple le moteur de recherche de Google, animé à l’origine par un algorithme nommé « PageRank »[2]. Le sociologue Dominique Cardon a publié en 2013 un article intitulé « Dans l’esprit du PageRank, Une enquête sur l’algorithme de Google »[3] et dans lequel il déclare en préambule :

Le PageRank est une machine morale. Il enferme un système de valeurs, donnant la prééminence à ceux qui ont été jugés méritants par les autres, et déployant une volonté : faire du web un espace où l’échange des mérites n’est ni freiné ni déformé.

Le thème de la « morale algorithmique » est alors dans l’air du temps. Les consommateurs, la société civile, et même les pouvoirs politiques, commencent à prendre conscience et à s’inquiéter des effets de puissance des algorithmes qui exercent un véritable contrôle social et vassalisent des pans entiers de l’économie (petites entreprises, autoentrepreneurs, consommateurs…). Rappelons aussi que le fameux terme « Uberisation » est né en 2014. Dominique Cardon expose ainsi sa thèse dans ce moment de sidération collective.

Pour revenir au PageRank, comment cette intention morale (« l’échange des mérites ne doit pas être ni freiné ni déformé »), formulée au passage lors de la naissance d’un web que nous rêvions tous « idéal », sous-tendue par un principe technique simple (le brevet initial déposé par Larry Page, propriété exclusive de l’Université de Stanford jusqu’en 2011, tient en quelques pages[4]) a-t-elle pu se concrétiser aussi rapidement en une puissante machine morale universelle ? Comment l’algorithme PageRank a-t-il pu devenir à ce point performatif ? C’est précisément ce en quoi réside le véritable tour de force de Google : sa diffusion dans le système technicien.

Cette capacité de diffusion dépend d’au moins deux conditions d’égale importance.

D’abord une condition technique : comment exécuter efficacement un algorithme sollicité aujourd’hui 40 000 fois par seconde pour rechercher parmi 30 000 milliards de pages ? Les ingénieurs de Google ont conçu pour cela des architectures techniques bien plus complexes et déterminantes, mais aussi bien moins connues que le PageRank.

Ensuite une condition financière : aucun des déploiements techniques massifs n’aurait été possible sans un système financier tolérant, pour le moins, des investissements massifs et longtemps déficitaires. Sans cette « cavalerie », aucun des géants du web n’aurait pu voir le jour, aussi bonnes fussent leurs théories, aussi ingénieux fussent leurs ingénieurs.

Petite méthode de connaissance des théories de l’information et de leurs effets

Les théories elles-mêmes ne sont pas neutres. Elles ne s’élaborent pas dans un monde éthéré ; elles ne partent pas à la recherche de vérités platoniciennes (même si certains en sont convaincus) ; elles émergent bien d’une « culture », d’une « morale », d’un ensemble de croyances portant sur ce que le monde est ou devrait être. Nous les retrouvons en quelque sorte « incarnées » en machines morales dans le système technicien. Leur usage modifie à leur tour nos croyances. La spirale du « progrès » se déploie, ainsi illustrée avec l’exemple du PageRank :

Machine PageRank

(1) Le système de croyances : « L’idée d’utiliser le lien de citation pour définir le classement de l’information remonte d’abord à la révolution sociométrique de Moreno qui, dans les années 1930, voulait décrire la structure de la société à partir des liens entre individus, plutôt qu’à partir des catégories servant à identifier et différencier les personnes » (dixit Dominique Cardon). Voici donc une première croyance : le lien social est comme un vote.

Voici une seconde croyance, plus déterminante encore : le web est un moyen de libération. Rappelons cette incantation de John Perry Barlow, à laquelle souscrivait toute la génération des origines du web :

Nous créons un monde où n’importe qui, n’importe où, peut exprimer ses opinions, aussi singulières soient-elles, sans craindre d’être contraint au silence ou au conformisme.

La vitesse à laquelle ce système de croyances s’est effondré (y compris au cœur de la Silicon Valley) est à peine croyable, après seulement une vingtaine d’années d’usage des premières grandes machines morales (Google, Facebook, Twitter…).

(2) Un « inventeur » et une théorie raisonnée, en l’occurrence un algorithme qui « coïncide » avec le système de croyances et ainsi justifié par une éthique « privée » (celle de Google) qui agit comme une « baseline » d’entreprise.

(3) Des moyens techniques et financiers. Insistons bien sur l’extrême ingéniosité et la remarquable habilité des ingénieurs qui ont conçu et fabriqué les machines et les mécanismes capables de répandre l’algorithme dans le système. Il s’agit en quelque sorte d’un problème d’impulsion, c’est-à-dire de mobilisation extrêmement rapide d’une énorme « puissance » (dans un tout autre domaine, l’exemple de la Gigafactory de Tesla est saisissant).

(4) Une machine morale, dont l’origine, l’intention, le principe et le mécanisme nous sont en général indifférents, voire inconnus. Nous nous contentons de l’utiliser sans considérer qu’elle embarque tout ce qui précède. Et cette machine modifie à son tour notre système de croyances.

Ce schéma résume beaucoup de bonnes questions au sujet de toute technologie de l’information : sur quel système de croyances repose-t-elle ? Quelle est la théorie sous-jacente qui performe ? Qui l’a inventée ? Quels sont les moyens techniques et financiers de sa diffusion dans le système technicien ? Quelles en sont les machines moralesc ? Éventuellement : en quoi ces machines modifient-elles notre système de croyances ?

Y répondre n’est pas toujours simple mais toujours possible.

Machines morales, objets, relations

Qu’est-ce au fond qu’une « machine morale » ?

Tentons une réponse sommaire : dans une situation donnée, une machine morale doit sélectionner un comportement relativement à une norme. Dans le cas du PageRank, la « situation » est la requête, le « comportement » est la réponse et la « norme » est l’éthique proposée par Larry Page.

Il y a, selon nous, deux types essentiels de normes dans un système d’information, pas incompatibles entre elles mais aux intentions très différentes. De quoi s’agit-il ?

Rappelons qu’à la suite des travaux de Moreno, la « valeur » d’une page web ne dépend pas de son contenu, de ce qu’elle raconte, mais des citations (liens hypertextes) dont elle fait l’objet dans d’autres pages. Ce qui nous paraît aller de soi aujourd’hui est le résidu de cette révolution générale de nos représentations qui s’est jouée au XXème siècle : le transfert de valeur et de signification de l’objet vers la relation. L’objet n’existe (et n’est défini) que comme élément d’une structure et n’a de valeur que par ses relations et ses différences avec les autres objets[5].

Cette révolution résout a priori de nombreux problèmes éthiques. En effet, il n’est plus nécessaire d’attribuer directement une valeur aux choses selon des critères moralement discutables mais de réguler leurs relations par une main invisible. Google, comme l’explique Dominique Cardon, aspire (aspirait) ainsi à ne pas être vu. Voici donc la « philosophie » originelle du web, à la Barlow, qui doit être indifférent aux êtres et aux choses, ne pas les juger :

Pure intertextualité, le graphe du web ne serait constitué que d’associations entre énoncés, sans qu’il soit nécessaire de qualifier les personnes qui les ont produits. La disparition de l’énonciateur est au cœur de cette vision idéalisée d’un monde d’idées dialoguant entre elles dans un rapport d’argumentation et de raison débarrassé du poids des intérêts, de la personnalité ou de la psychologie de ceux qui les ont émises.

Mais, pour aller vite, cette ambition « morale » a fait long feu. Cette vision structuraliste fait désormais place au retour à l’ « objet » (contenu des pages, personnalité de l’auteur, esthétique du post…) dans les machines morales de la décennie : nombre de likes, notation Uber, TripAdvisor, note de crédit social en Chine (Chine et IA : impérial !), modération manuelle des contenus violents, etc. C’est ce retour à l’objet qui entraîne avec lui le retour de formes de « jugement » dans ces machines, et donc nécessairement l’intervention de l’homme et de son assistant à temps partiel : l’intelligence artificielle.

Si l’on repère donc une machine morale au fait qu’elle sélectionne un comportement relativement à une norme, alors notre investigation devrait au moins répondre à cette question : la norme en question s’applique-t-elle à une structure, dont les objets sont en quelque sorte « libres » (et donc les « citoyens » égaux) (Type 1), ou renvoie-t-elle les objets à un système de valeurs (chacun est jugé) (Type 2) ? Notons au passage que la plupart des intelligences artificielles équipent des machines du second type (Being Stuart Russell – Le retour de la philosophie morale).

Voiture autonome, machine morale

Considérons l’exemple de la voiture autonome. Situation : l’environnement routier. Comportements : freiner, tourner, etc. Mais quid de la norme ?

La voiture autonome embarque ce fameux dilemme algorithmique et ses multiples variations : qui sacrifier en cas d’accident inévitable ? Le chauffeur ou le piéton ? Quel comportement sélectionner ? Soit l’algorithme choisit selon une « valeur » intrinsèque attribuée en situation par une norme aux potentielles victimes (l’âge apparent – un « vieux » a moins de valeur qu’un « jeune » –, la note de crédit social du conducteur, etc.), soit selon une norme du premier type indifférente aux « objets » eux-mêmes (le nombre potentiel de victimes ou, s’il y a bien le choix, ce sont les occupants du véhicule qui va provoquer l’accident qui doivent se sacrifier).

Ce simple dilemme fait de la voiture autonome une « machine morale », relevant de toutes nos questions relatives aux théories de l’information. Elle mérite donc que nous dépassions l’ « effet waouh » et que, suivant la « petite méthode de connaissance des théories de l’information », nous nous posions quelques bonnes questions : qui a conçu son algorithme de conduite ? Selon quel système de croyances ? Par quels moyens techniques (Gigafactory…) et financiers (giga dettes) se répand-t-elle dans le système technicien ? Selon quelles normes sélectionne-t-elle son comportement ? En quoi modifie-t-elle notre système de croyances (et, en l’occurrence, notre environnement) ?

Parcoursup : un cas d’école !

Parcoursup est la plateforme d’orientation scolaire qui a remplacé APB (Admission Post Bac) en 2018. L’ambition est d’inscrire chaque jeune titulaire du baccalauréat (ou d’un diplôme de niveau équivalent) dans une voie de formation « qui le conduise au succès ».

Le cas de Parcoursup est évidemment différent de celui de Google, mais il est maintenant clair que cette plateforme est aussi une « machine morale » : elle sélectionne relativement à une norme. Contrairement au PageRank, qui se conforme à une « éthique privée », cette norme est publique et a donc fait l’objet d’un travail de documentation. Un Comité Ethique et Scientifique de Parcoursup (CESP) a ainsi rendu un avis documenté préalable à la mise en place de la plateforme[6].

Techniquement, l’orientation est un problème d’appariement entre les jeunes d’un côté et les voies de formation de l’autre. La plupart des pays qui ont mis en place ce type de plateforme ont recours au même algorithme, dit des « mariages stables », mis au point en 1962 par les mathématiciens et économistes David Gale et Lloyd Shapley.

Le problème général est formulé de la façon suivante (témoignant au passage d’un certain système de croyances…) : trouver, étant donné n hommes et n femmes, et leurs préférences, une façon « stable » de les mettre en couple[7]. Il y a instabilité lorsqu’un homme et une femme préfèrent tous deux se mettre en couple l’un avec l’autre plutôt que de rester chacun avec leurs conjoints respectifs. L’algorithme de Gale et Shapley garantit une solution à ce problème.

Cet algorithme, dans toute sa pureté mathématique, garantit ainsi un « mariage stable » entre chaque jeune et chaque voie de formation : étant donné un jeune inscrit à une formation, il ne se produira jamais le cas où le jeune préférera une autre formation en même temps que la formation préférera se proposer à un autre jeune. Ceci ne veut évidemment pas dire que le jeune aura sa formation « préférée », ni même que l’école sera « satisfaite » d’accueillir ce jeune mais en tout cas :

Aucun candidat ne peut contester son affectation au motif qu’il se serait vu refuser l’admission dans une formation qui aurait accepté un candidat moins bien classé que lui.

Retour de l’humain

A priori, Gale et Shapley équipent donc des machines morales sélectionnant leur comportement selon une norme de type 1, neutre et surplombante par la grâce d’une relation de préférence. Notons que l’algorithme obéit lui-même à une croyance : la préférence initiale assure la stabilité pour toujours (rigoureusement vraie dans l’univers mathématique mais, on le sait bien, seulement vaguement applicable au monde réel)[8].

Dans le cas de Parcoursup, la préférence d’un jeune est ainsi matérialisée par l’ordre de ses choix et la préférence des formations pour les jeunes par leurs classements pédagogiques.

Si le cadre algorithmique proposé est neutre, équitable et garantit mathématiquement la stabilité, il faut bien calculer ces préférences. Il faut bien, en particulier, que la formation effectue un classement pédagogique des élèves (une norme de type 2). Or, contrairement à APB, ce classement pédagogique est désormais réalisé manuellement par des Commissions d’Examen des Vœux. Pourquoi ? Voici l’argument du CESP :

Le recours aux algorithmes conduit à interroger la place de l’humain dans la prise de décision publique. Il est un fait que les décideurs publics semblent de plus en plus souvent abandonner leur pouvoir décisionnel à ces algorithmes, parés des vertus de la rationalité algorithmique. De ce point de vue, Parcoursup ne se substitue pas à l’homme. Il laisse une large part à l’intervention humaine. Il n’a pas davantage à voir avec un système d’intelligence artificielle ou de caractère prédictif qui prédéterminerait automatiquement en fonction du profil des candidats leurs chances de réussite dans l’enseignement supérieur, voire leur destin professionnel.

Pour toute machine morale « de type 2 », l’homme et l’intelligence artificielle sont désormais en compétition pour évaluer les « objets ». On ne pourra pas toujours se passer de l’homme (modérateurs Facebook, quality raters pour Google,  écoutants des assistants vocaux…) mais le choix de l’IA est souvent le plus tentant car le moins coûteux et parfois le plus efficace. La machine morale TripAdvisor, par exemple, a dû se résoudre à juger les avis algorithmiquement (IA) avec un résidu confié à l’humain[9] :

En 2018, 2,7 millions d’avis, soit 0,04 % des avis publiés, ont […] été examinés […] par les modérateurs de la plate-forme.

Le feedback du « type 2 » vers le système de croyances est sévère : la plupart des machines morales, passant de la transparence algorithmique (Mariages stables, PageRank…) à l’opacité de la construction de leur jugement sur les choses, annihilent l’idée-même de « web idéal » et renforcent le soupçon. Conséquence : la nouvelle croyance est que le numérique n’est pas un moyen d’émancipation mais de contrôle, voire de surveillance.

Explicabilité

Le retour du jugement humain ou artificiel dans les machines morales dévoile un nouveau problème. Les éthiciens prétendent que ces machines ne pourront se passer de l’homme qu’à condition de pouvoir expliquer leurs décisions et surtout leurs jugements. Ils visent principalement la compréhension par l’utilisateur de la relation établie par la machine entre lui-même, la situation, la norme et le comportement sélectionné. L’éthique voudrait en effet que cet utilisateur puisse accepter ou contester la décision algorithmique sur la base d’une explication claire.

Le CESP a donc fait son travail en publiant l’algorithme de Parcoursup. En voici un court extrait :

On considère le nombre total A de candidats ayant actuellement une proposition pour cette formation, la capacité C du groupe, et le facteur f de taux d’appel supplémentaire renseigné par la formation. Si A est en deçà de f.C, alors on envoie une proposition aux f .C – A premiers candidats dans l’ordre d’appel, parmi ceux qui ont un vœu en attente dans ce groupe.

Bon courage ! Dans la plupart des cas, à quelques exceptions près, personne n’est capable et/ou n’a le temps de comprendre un déroulement algorithmique, même relativement simple (et avec de l’ « intelligence artificielle » dedans, c’est aujourd’hui à peu près impossible).

Le CESP devait évidemment faire ce travail. Mais nous voyons bien que l’ « explication » vise d’abord à prouver la neutralité et à assurer la transparence de jure d’un algorithme qui doit surplomber les cas particuliers. Ainsi, elle équipe avant tout les auteurs de la machine d’une armure morale et juridique face à ceux qui ont la capacité de contester, par exemple des professionnels du droit associés à des experts techniques.

Retour sur la méthode

Méthhode machine moraleEn résumé, les théories de l’information (2), mathématisées et algorithmisées, sont devenues performatives : elles fabriquent de nouvelles réalités sociales. C’est désormais possible parce que leur diffusion dans le système technicien est assurée par des moyens techniques et financiers considérables (3). Ainsi recyclées en « machines morales » (4) elles transforment à leur tour nos systèmes de croyances (1). Nous avons notamment observé l’abandon du « rêve » d’un système numérique neutre, égalitaire, et l’installation du soupçon généralisé.

Enfin, une machine morale déploie une « norme », publique ou privée, qui tente d’ignorer les « objets » (nous, nos posts…) en s’attachant autant que possible à leurs seules relations (nos amis, nos likes…). Ce dépassement étant impossible, le retour à l’objet lui-même, à sa « valeur », est effectué par des humains (ou des IA, du scoring…), souvent dans la plus grande opacité.

En dernière l’analyse, il reste donc la question de l’ « explication ». Mais il paraît que la solution arrive : XAI, « Explainable Artificial Intelligence », l’intelligence artificielle qui sait expliquer ce qu’elle décide. Des moyens considérables sont déployés en ce moment-même pour développer cette technologie. Voilà qui nous promet un déferlement de machines morales… enfin insoupçonnables ?


Post-scriptum : discours sur la méthode

Ce schéma circulaire est un outil destiné à « démonter » certaines machines morales (chacun pourrait d’ailleurs proposer d’autres outils). Celui-ci est d’essence complexe, au sens où il met à jour les relations entre des éléments disjoints, hétérogènes (les mathématiques, la finance, le droit, les croyances…), expose des contradictions, entraine des approximations. Cet outil ne permet pas d’effectuer la moindre synthèse. Ce n’est pas un emporte-pièce pour une conférence Ted. Prenons-le plutôt comme un instrument d’observation, ou plus précisément comme un instrument dialectique de mesure[10] :

La dialectique n’est pas cette triade d’airain thèse-antithèse-synthèse sensée tout expliquer ; elle ne délivre pas de formule apte à prouver ou prédire quoi que ce soit; elle n’est pas non plus la force motrice de l’histoire. La dialectique, en tant que telle, n’explique rien, ne prouve rien, ne prédit rien et n’est la cause de rien. La dialectique est plutôt une façon de penser qui oriente notre attention sur toute la palette des changements et interactions possibles qui s’exercent dans la réalité. Dans cette mesure, elle inclut également une manière d’organiser la réalité observée dans le but de l’étudier, et une façon de présenter les résultats obtenus aux autres, la grande majorité desquels ne pensent pas dialectiquement.

Cette « manière d’organiser la réalité observée » est complexe. Mais, pour Mundus Numericus, elle doit être tentée de toutes les manières possibles, même au risque de la confusion !


Version pdf : PageRank, Parcoursup et autres « machines morales »


1. Wikipédia – Performativité
2. Google utilise aujourd’hui un algorithme complexe basé sur environ 200 paramètres de classement. PageRank n’est plus que l’un d’entre eux. A vrai dire, nous n’en savons plus grand-chose depuis 2014. L’une des caractéristiques des machines dont nous allons parler est leur opacité de plus en plus marquée.
3. Dominique Cardon dans Réseaux 2013/1 (n° 177), pages 63 à 95 – Dans l’esprit du PageRank – Une enquête sur l’algorithme de Google
4. Google patents – Method for node ranking in a linked database
5. On assistera ainsi à l’émergence du structuralisme en sciences humaines, de la théorie des catégories en mathématiques, de la théorie des graphes en algorithmique, etc.
6. Ministère de l’Enseignement Supérieur, de la Recherche et de l’Innovation – Document de présentation des algorithmes de Parcoursup (lien cassé)
7. Wikipédia – Problème des mariages stables
8. Cette croyance à la stabilité mathématique en toute chose alimente peut-être à notre insu, via la performativité des théories associées, le monde étrange.
9. Elsa Dicharry pour Les Echos – 17 septembre 2019 – Quand TripAdvisor s’attaque aux faux avis sur son site
10. Bertell Ollman – 1935 – La dialectique mise en œuvre : Le processus d’abstraction dans la méthode de Marx (lien cassé)

2 Responses

  1. 2 avril 2023

    […] 3 » de leur déploiement, celui nécessitant des moyens techniques et financiers considérables (PageRank, Parcoursup et autres « machines morales »). Elles sont désormais accessibles à tout le monde et donc, pour autant que nous leur prêtions […]

  2. 20 mai 2023

    […] la « machine » Amazon de Jeff Bezos (Homo Amazonus), de la machine morale Parcoursup en France (PageRank, Parcoursup et autres « machines morales ») ou même de ChatGPT (GPT-3, LaMDA, Wu Dao… L’éclosion des IA « monstres »), toutes ces […]

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.