Après avoir expliqué pourquoi selon moi GPT est un game changer, je vais convoquer certaines théories critiques des technologies et de l’innovation pour souligner que ce nouveau “printemps de l’intelligence artificielle” ne fait que renforcer une trajectoire dans laquelle nous sommes déjà; en d’autres termes, ça ne change rien. Je défends ici une thèse, j’ai un parti pris que je vais m’efforcer de défendre. Toutefois, pour reprendre la citation de Fitzgerald dans mon précédent billet, ça n’exclut pas des interprétations différentes, voire a priori contradictoires. Quand bien même ma thèse serait en partie juste, ça n’empêche pas d’autres thèses antinomiques d’être non seulement défendables, mais de pouvoir également se réaliser.
Quelle contribution face aux crises longues?
Si j’avais encore un lecteur de feed RSS, il serait surement en surchauffe considérant le nombre d’articles sur les risques soulevés par les technologies du type de GPT, et une large proportion des discussions concernent la question de savoir si cela représente un risque existentiel pour l’Humanité. Cela amène une kyrielle d’obsessions cataclysmiques et surtout monopolisant les discussions. Comme avec les changements climatiques, il semble nécessaire d’invoquer le jugement dernier pour espérer des actions sérieuses.
Ma posture est la suivante: je ne sais pas si ces risques existentiels sont réalistes et s’ils le sont, je sais encore moins à quelle échéance. Et pour continuer sur le parallèle avec les changements climatiques (dont l’envergure exacte, les effets de rétroaction, etc. demeurent encore imprévisibles), je préfère m’occuper des causes et des conséquences actuelles, vérifiables et qui sont déjà bien assez inquiétantes pour ne pas agir. L’avantage des enjeux actuels, c’est que l’on sait de quoi on parle. Dit autrement, je préfère m’occuper des enjeux actuels en me disant que cela servira également à amoindrir les enjeux futurs plutôt que de penser uniquement en termes futurs incertains et laisser les problèmes actuels devenir insoutenables.
Dans un livre que je lisais récemment, le moine bouddhiste Matthieu Ricard relatait les propos d’un lama:
« La science et l’efficacité occidentale ont apporté une contribution majeure à des besoins mineurs. »
Cela met parfaitement la table pour la réflexion sur les modèles de langage comme GPT, les fameux LLM: répond-on à des besoins majeurs ou mineurs? Et j’ajouterai: pour quels risques?
Dire que nous faisons face à de multiples crises est rendu une lapalissade . Certaines perdurent depuis des siècles, comme les inégalités sociales, d’autres ont émergées dans les deux ou trois dernières décennies: crise climatique, extinction massive du vivant, crise de confiance dans les institutions, vieillissement dans les pays ayant passé leur transition démographique au milieu de XXe siècle, etc.
Est-ce que les travaux en intelligence artificielle peuvent sérieusement apporter une contribution à ces crises? Toutes sortes d’initiatives en IA existent depuis plusieurs années pour répondre positivement: modélisation du climat, amélioration des technologies propres, soutien aux personnes âgées en perte d’autonomie, et bien d’autres. Et les progrès réalisés avec GPT peuvent surement contribuer à améliorer certaines choses.
Toutefois la majorité des crises que nous vivons sont avant tout des crises politiques. En tant qu’Humanité, ce n’est pas l’incapacité technologique qui nous empêche de surmonter ces crises, c’est l’incapacité de prendre les bonnes décisions, ensemble, à l’échelle de la planète ou ne serait-ce qu’à l’échelle d’une société. On peut s’imaginer que la technologie est une voie (LA voie selon certains) pour sortir de ces crises sans avoir à faire preuve de courage politique et collectif, mais ça me semble du domaine du rêve. Pour des problèmes circonscrits, comme la couche d’ozone, nécessitant un courage politique modéré (retrait des CFC), la technologie peut être la réponse. Pour les crises plus complexes, les décisions politiques difficiles deviennent une nécessité. S’il suffisait d’avoir un modèle de langage qui nous dise quelle est la bonne marche à suivre, ce serait facile: nous avons déjà des tonnes de données nous disant quoi ne pas faire et pourtant ça continue. Bref, la lumière ne viendra pas d’une quelconque clairvoyance artificielle nourrie avec toute la sagesse du monde.
En d’autres termes, je ne vois pas comment les modèles de langage et autres transformers, pour ne parler que d’eux, peuvent avoir une influence plus que marginale pour naviguer toutes les crises auxquelles nous faisons face comme Humanité. Pour reprendre ma thèse: pas de changement de trajectoire ici. Ça ne veut pas dire qu’il ne faut pas explorer ces technologies, toute contribution est bonne à prendre. La question qui suit toutefois est la suivante: en échange de cette contribution marginale, qu’est-ce que nous acceptons collectivement?
Ivan Illich -une critique radicale la technologie
Non seulement ces technologies ne vont pas nous aider à changer de trajectoire dans les crises existantes, mais je vais même soutenir qu’elles vont renforcer certaines trajectoires néfastes dans lesquelles nous sommes déjà pris.
Je vais me baser sur la pensée d’Ivan Illich, penseur critique de la technologie malheureusement insuffisamment connu. Sa pensée, développée dans les années 70, demeure à mon avis indépassable à certains égards. Impossible de lui rendre justice dans un modeste billet de blogue, voici tout de même quelques principes que je mobilise ici et je commence par une citation:
« Au stade avancé de la production de masse, une société produit sa propre destruction. La nature est dénaturée. L’homme déraciné, castré de sa créativité, est verrouillé dans sa capsule individuelle. La collectivité est régie par le jeu combiné d’une polarisation exacerbée et d’une spécialisation à outrance. Le souci de toujours renouveler les modèles et les marchandises -obsolescence rongeuse du tissu social- produit une accélération du changement qui ruine le recours au précédent comme guide de l’action. Le monopole du mode industriel de production fait des hommes la matière première que travaille l’outil. »
De manière plus spécifique, Illich positionne plusieurs phénomènes invariables quant au développement de la technologie dans l’ère moderne:
- Dépassement de seuil: partant d’un objectif spécifique, la majorité des outils (au sens très large, ça inclut même des éléments non technologiques comme les institutions) vont dépasser un seuil d’utilisation qui va amener une autonomisation de l’outil. Ce dernier va se retourner contre la fin qui a justifié sa création puis menacer le corps social au complet. Le principe d’autonomie de la technologie vient de Jacques Ellul qui remarque que la condition d’utilisation de la technologie dans un monde productiviste amène invariablement des usages insoupçonnés, imprévisibles et généralement néfastes pour la collectivité.
- Monopole absolu: Le principe du monopole absolu repose sur l’idée qu’un outil ou une technologie façonne le monde d’une manière à se rendre indispensable. La voiture est un exemple de monopole absolu: dans bien des places, il devient impossible de se déplacer sans voiture, ne serait-ce qu’à cause de l’empiètement des infrastructures nécessaires qui rendent toute autre forme de déplacement quasiment impossible. Fait que je trouve particulièrement important: l’atteinte du stade de monopole absolu se fait souvent dans l’indifférence complète, l’outil en situation de monopole absolu devient aussi naturel que l’air que nous respirons… et ses conséquences deviennent aussi évidentes et naturelles que le fait que l’eau mouille. Si une technologie fait écarquiller les yeux au moment où elle est introduite, la transformation du monde qu’elle opère est de l’ordre de l’imperceptible tout en étant majeure.
- Gestion des technologies: selon Illich, la gestion de l’impact d’une technologie aura généralement pour seule conséquence de stabiliser les effets de cette technologie à son plus haut niveau de production endurable. En d’autres termes, les mécanismes d’encadrement auront pour effet d’éviter une situation de rupture complète (qui ne serait évidemment pas profitable pour la diffusion de la technologie et ses promoteurs), mais sans pour autant pleinement réinsérer ladite technologie dans un cadre qui ne soit pas aliénant pour une large partie de la population.
- La convivialité: La porte de sortie pour Illich est représentée par l’outil convivial, un outil dont les propriétés ne l’amènent pas à se retourner contre la société. Les exemples habituellement cités sont la bicyclette et le téléphone (on parle des années 70). Par extension, Illich définit une société conviviale « où l’outil moderne est au service de la personne intégrée à la collectivité, et non au service d’un corps de spécialistes. »
Ces principes sont d’ores et déjà en action dans le déploiement de ce que l’on nomme l’intelligence artificielle et pour les modèles de langage en particulier. Ainsi, il est parfaitement entendu que ces outils vont se retourner contre le corps social autant qu’il est clair que ces technologies vont se fusionner avec un monopole absolu existant, celui des technologies numériques pour se rendre incontournable: celui qui décide de ne pas les utiliser va se retrouver inexorablement à la traine. De même, il semble généralement accepté que les outils de gestion (législation, institutions, etc.) ne seront qu’un pis-aller, un moyen d’éviter les dérives les plus graves (et encore! ça ne semble pas convaincre tout le monde). Cela n’empêchera pas l’aliénation massive, la perte de liberté ou la subordination de la majorité à un corps de spécialistes: ceux qui développent et rendent disponibles ces outils.
Les conséquences, aujourd’hui
Certains diront, à juste titre, que les projections de l’impact futur de ces technologies sont fortement exagérées et renforcent bien au-delà de toute réalité même future l’impact réel de ces technologies. Pour revenir sur mon billet précédent, nous sommes possiblement (certains le contestent) dans la zone de hype de la technologie, hype autant dans le positif anticipé que dans les craintes (le “criti-hype”). Toutefois, et indépendamment du hype, ce qu’on appelle intelligence artificielle a déjà des impacts évidents aujourd’hui. Certains problèmes sont déjà connus, que ce soit pour les modèles de langage ou d’autres procédés d’apprentissage automatisé de manière plus large: biais, fonctionnement en boite noire et autres joyeusetés. Ces éléments sont déjà bien documentés, je souhaite donc explorer les conséquences un peu moins évidentes et non moins concrètes.
Doctrine du choc au service d’une précarisation
Dans un article publié durant la pandémie, Naomi Klein soulignait comment les entreprises technologiques utilisent la pandémie pour poursuivre la logique de doctrine du choc. Et j’ai l’impression que ces mêmes entreprises poursuivent en créant leur propre logique du choc. Certes, la doctrine du choc part d’une crise sociopolitique majeure et la pandémie est effectivement un cas d’école dans cette logique. J’ai pourtant l’impression que ce qui entoure l’arrivée de cette nouvelle technologie rentre dans la même logique d’instrumentalisation de la déstabilisation. Contrairement aux exemples canoniques de la doctrine du choc, le choc en question n’est pas aussi violent qu’un attentat ou un événement naturel dévastateur.
Rappelons-nous que les investissements dont bénéficient des entreprises comme OpenAI dépendent de l’ampleur du potentiel économique. Difficile, dans ce contexte, de ne pas avoir dans la mire les marchés de plusieurs centaines de milliards de dollars liés au remplacement de la main-d’œuvre, même partiel, dans des domaines d’activité. Ce n’est pas par hasard si OpenAI se lance dans des recherches concluant qu’environ un travailleur sur cinq va voir 50% ou plus de ses tâches significativement modifiées par l’arrivée des modèles de langages: ils préparent leur marché. Dit autrement, leur modèle de développement repose sur la déstabilisation de pans complets de l’économie. Dans la logique de créativité destructive, plus on peut prétendre détruire l’existant, plus on peut espérer des investissements importants. Et cela a une valeur performative: convaincre suffisamment de personnes, à commencer par les décideurs, que cela va arriver est une première étape importante pour que cela se produise effectivement -même si les résultats ne sont pas au rendez-vous finalement.
De manière plus concrète, les exemples abondent, et sont largement relayés: des personnes ayant perdu des contrats (par exemple de designer remplacé par MidJourney), des dirigeants d’entreprises satisfaits du remplacement de salariés, ou au contraire des personnes multipliant les “emplois” grâce à la productivité accrue avec ce genre d’outil. Il y a quelques jours je parlais à un médecin qui se posait des questions sur son avenir professionnel. Évidemment, ce n’est pas le sentiment d’effroi qui peut nous habiter après un vrai choc, mais je pense que la couverture faite autour des LLM et leur potentiel effet dévastateur sur les conditions d’emploi sont suffisants pour changer des rapports de forces. Même si le marché de l’emploi est actuellement plutôt à l’avantage des travailleurs, tout le monde sait que cela peut changer rapidement. Avec l’arrivée des LLM, les “gagnants” se permettent de pointer du doigt les “perdants”.
Tout ceci se passe dans un contexte économique qui n’est pas anodin: la majorité des protections des travailleurs ont été battues en brèche dans les dernières décennies (et j’ai d’ailleurs l’impression que le contexte globalement favorable aux travailleurs ces temps-ci est une opportunité que certains ne manquent pas pour continuer ce travail sans créer trop de levées de boucliers). Si les scénaristes américains arrivent à faire bloc pour repousser (pour le moment) l’arrivée de cette technologie dans leur domaine, nombre d’emplois ont été “centrifugés” et atomisés selon Yannick Noiseux: des rôles relégués au rang d’indépendants ou d’employés relativement précarisés avec peu de capacité de mobilisation pour faire face à des changements importants. En d’autres termes, bien des personnes se sentent très vulnérables.
Pour revenir à la doctrine du choc, une telle déstabilisation est un moyen efficace pour continuer un agenda néolibéral agressif qui, jusqu’à preuve du contraire, bénéficie surtout à ceux qui sont déjà en position de pouvoir et de supériorité économique. Pour finir sur ce sujet, je veux souligner que je n’adhère pas nécessairement au narratif d’un remplacement massif de la main-d’œuvre, je souligne l’instrumentalisation de la déstabilisation.
Appauvrissement sous toutes ses formes
Des outils comme ChatGPT viennent avec une logique d’appauvrissement qui est tellement énorme qu’elle est difficile à voir… et qui fait suite à un travail préalable dans la même direction. D’abord la création de ChatGPT, Dall-E et autres résulte d’un pillage monumental. Ces outils n’existent pas sans les immenses quantités d’information que bien des personnes ont contribuées sur Internet ou ailleurs et parfois malgré elles.
Évidemment, cela fait suite à l’acceptation progressive de la logique extractiviste de nos données pour toutes sortes de raisons au point qu’on se demande ce qui ferait qu’on arrêterait d’empiéter sur nos données. La question n’est évidemment pas de savoir si le processus viole le droit d’auteur, il est question de savoir si cette pratique viole l’esprit du contrat social quant à l’utilisation du travail d’autrui.
Ce que j’ai contribué à Wikipédia, je ne l’ai pas fait pour que ce soit ingéré par une grosse startup au point de potentiellement rendre Wikipédia, son esprit et son rôle, en partie obsolète. Comme on le disait à l’époque information wants to be free; j’ai contribué à plusieurs initiatives dans cette logique et je m’y tiens. Cette expression tient à la valeur d’un accès large et universel de l’information. Même si certains diront que ChatGPT participe à rendre l’information libre, c’est à travers une logique d’appropriation et d’extraction de la valeur sans précédent. J’aime croire en la générosité du partage, ici c’est tout l’inverse, on peut y voir un début d’enclosure de biens communs informationnels. D’ailleurs, pour mémoire, une règle de base dans la logique de liberté de l’information, c’est l’attribution de la source.
Ce pillage est complété par le travail avilissant imposé à des labelleurs et validateurs de contenu payés trois fois rien. Rien de nouveau sous le soleil me direz-vous : depuis l’introduction du Mechanical Turk d’Amazon, il est devenu normal de pouvoir apprendre aux machines à être efficace sur le dos d’une main-d’œuvre bon marché. Ici, la logique est poussée à un nouveau sommet.
De manière générale, on note une tendance à un appauvrissement de la compréhension de ce que signifie être humain. Vers la fin de sa vie, Illich se penchait sur la manière dont les technologies influencent notre perception de nous-mêmes, les technologies jouant le rôle de miroir déformant, créant des imaginaires nouveaux: au XIXe siècle, l’humain était une machine, au XXe, son cerveau devenait un ordinateur. Maintenant, Sam Altman glose que nous sommes des “perroquets stochastiques”, autant dire un salmigondis biologique de processus probabilistes.
« i am a stochastic parrot, and so r u. »
Sam Altman, P.-D.G. de OpenAI
Ce miroir déformant, et plus généralement la vision héritée d’outils comme GPT, fournit une vision très diminuée de ce que nous sommes, de ce que nous faisons, avec des conséquences encore une fois très concrètes. Aaron Benanav s’est penché sur la robotisation des soins pour les aînés et pointe que dans ce contexte, les actions humaines sont souvent modélisées comme une suite de tâches et de transactions simplifiées à l’extrême. Le rôle d’un préposé dans un centre pour personnes âgées se résume ainsi à lever des charges fragiles -exit toute notion de contact humain. Dans l’étude sur l’impact des LLM sur les emplois, OpenAI utilise des bases de données de descriptions de tâches pour chaque emploi et demande à GPT d’évaluer le potentiel de remplacement par des modèles de langage avancés. En plus de la logique circulaire de la chose, c’est une vision horriblement rabougrie et comme le souligne Benanav, il apparait assez vite que ça ne marche simplement pas. Si cette vision restait entre les deux oreilles de quelques nababs de la technologie, on pourrait se dire qu’il n’y a pas d’enjeu. Le problème, c’est que cette compréhension se traduit par des décisions très concrètes dans le monde du travail.
Autant dans la manière de créer ces technologies que dans ce qu’on en projette dans l’essence humaine, on saute joyeusement de l’extraction à l’appauvrissement de ce qu’est une vie humaine sans vraiment expliquer pourquoi il faudrait accepter tout cela hormis pour justifier le succès de certains et la précarisation des autres.
Hyperactivation de l’attention
Désormais, je ne suis plus trop capable de voir une image minimalement inhabituelle sans me demander si c’est une image synthétique (E.g produite par Dall-E, Midjourney ou autre). Vous me direz que Photoshop existait avant. C’est vrai et ça devenait déjà une plaie. Toutefois, la facilité avec laquelle il est possible de produire des contenus convaincants est désormais sans borne: avant il fallait quelques centaines d’heures d’apprentissage d’utilisation de Photoshop puis quelques heures de réalisation d’une image; maintenant en 5 minutes, sans connaissance préalable, c’est fait, et très bien fait. D’ailleurs j’ai déjà dû mettre en garde plusieurs de mes contacts sur les réseaux sociaux contre de (faux) animaux, plantes ou lieux qu’ils avaient partagés.
Là encore, tout ceci n’apparait pas hors contexte: notre attention est déjà bombardée de toutes parts dans une économie stimulant une escalade constante pour obtenir une fraction de seconde de regard; la fameuse économie de l’attention. Ce phénomène produit une fatigue attentionnelle qui a des conséquences variées… et généralement peu positives. Au-delà de la fatigue, ce qui m’attriste c’est le surdéveloppement du muscle de la méfiance. Certains diront que c’est bien d’être un peu plus sceptique, que finalement on devrait toujours se comporter comme si on était le 1er avril: tout prendre avec des pincettes. Mais a-t-on vraiment envie de vivre dans un monde où tout est sujet à caution? Par ailleurs, les mécanismes de gestion de l’attention ne fonctionnent pas aussi simplement, et le cerveau a justement évolué pour ne pas avoir à tout traiter de manière approfondie (le fameux système 2 mis de l’avant par Kahneman & al.)
Certains proposent de combattre le feu par le feu, comme le propose Philippe Beaudoin avec Waverly. Peut-être que ça va marcher, mais quand? Et surtout pour qui? En attendant, on voit déjà au quotidien l’effet de la production de contenu synthétique incroyablement crédible avec pour conséquence une suractivation du système 2 et une accentuation de la fatigue attentionnelle.
Isolement et perte de capacité de l’action collective
Tout ceci soulève la question de l’isolement. Isolement qui peut prendre plusieurs formes: d’abord de ceux qui n’utilisent pas ces technologies. Comme l’explique Illich avec le concept de monopole absolu, ceux qui ne veulent ou ne peuvent utiliser une technologie en situation de monopole absolu se retrouvent de facto au ban de la société. Bien des personnes âgées se retrouvent déjà sur la touche ou constamment sur le bord de l’être avec l’utilisation d’Internet ou des cellulaires. Certains rétorqueront que les LLM vont rendre l’accès aux technologies beaucoup plus facile, plus intuitif; l’histoire montre que la réalité est plus compliquée. Malgré sa simplicité d’utilisation, bien des personnes ne savent pas trop quoi faire avec ChatGPT considérant son champ d’utilisation extrêmement vaste.
Il y a aussi l’isolement sous forme d’enfermement avec les LLM. Cela peut sembler encore lointain et tiré par les cheveux, pourtant les témoignages de personnes utilisant Replika soulèvent bien des questions et on ne peut pas nécessairement imaginer une fin positive comme dans le film Her. Je crains qu’en allant dans cette direction, on me taxe de contribuer à une panique morale. Toutefois, dans le contexte d’économie de l’attention mentionné plus haut, je vois mal comment des organisations ne vont pas être tentées d’utiliser ce genre de technologie pour s’assurer que leurs utilisateurs passent plus de temps sur leur plateforme; d’ailleurs, j’ai du mal à interpréter autrement la création de l’ami virtuel My AI sur Snapchat.
Dans un cas comme dans l’autre, je me questionne sur l’impact que cela a sur notre capacité d’action collective. Ici, je tombe dans l’hypothétique et j’en suis bien conscient, mais j’ai l’impression que de manière générale nos moyens d’action collective (au-delà de notre cercle de connaissances pensant comme nous) sont généralement en recul et des outils comme les LLM tels que proposés actuellement n’aident pas vraiment. Or, la sortie des crises que nous vivons passe, à mes yeux, par l’action collective. On peut créer des communs, s’outiller en méthodes de communication plus efficaces ou mettre en place des collectifs citoyens, si le bassin de personnes s’engageant dans ces démarches est en constante attrition, la capacité d’action ira en regressant.
Accélération et indisponibilité
Enfin, je ne peux pas non plus taire à quel point ces technologies sont une exemplification parfaite des notions d’accélération et d’indisponibilité d’Hartmunt Rosa. Accélération: comme tout le monde, je vois dans cette technologie un potentiel de gain d’efficacité. D’ailleurs, mes expérimentations récentes avec GPT répondent à mes besoins d’efficacité, et vont donc parfaitement dans ce sens; comme par exemple créer un assitant-bot qui me permet d’envoyer un courriel complet sur base d’une instruction vocale relativement simple. Disparition de l’indisponibilité: GPT rend tout disponible, et quand le tout n’est pas assez bon, des personnes comme moi s’occupent de l’instruire plus efficacement. D’ailleurs, peu importe que ChatGPT donne une information juste, l’important n’est-il pas qu’une information soit disponible?
Je ne vais pas rentrer dans le détail, mais selon Rosa, ces deux phénomènes sont à la base de notre aliénation collective menant à un rythme inhumain et à une perte de repère et de sens. La recherche de sens est placardée partout, mais les outils que l’on crée nous en éloignent constamment. Dit autrement, on peut bien s’imaginer que l’intelligence artificielle va prendre en charge certaines tâches désagréables, comme rédiger des courriels, mais pour quel gain finalement? Quelle autre conséquence possible que de recevoir encore plus de courriel, encore plus d’information qu’il faudra soit traiter, au moins partiellement, soit abandonner complètement à ce que la machine pense que nous pensons? Est-ce que cela va nous aider à nous sentir plus connectés au monde? J’ai du mal à imaginer comment cela pourrait se produire…
N’est-ce pas simplement le capitalisme?
Dans une critique de Shoshana Zuboff et du concept de capitalisme de surveillance, Evgeny Morozov pointe que Zuboff tend à mettre l’accent sur la surveillance et en oubliant un peu trop le capitalisme. Alors, est-ce que tous les maux liés à la mise en œuvre des LLM proviennent du capitalisme? Très certainement que oui, mais je m’aligne sur ceux qui pensent que la technologie est un élément majeur contribuant à donner sa forme au capitalisme. D’ailleurs c’est un peu ce que dit Zuboff par la bande: les technologies font muter le capitalisme.
Comment? Jacques Ellul considérait que la technologie est autonome et qu’elle domine la société parce que la technologie marche selon une logique interne qui lui est propre. Écrit ainsi, on ne peut s’empêcher de penser que la technologie est un construit humain et donc que nous contrôlons. Ellul comme Illich expliquaient dès les années 70 comment la technologie et la volonté perpétuelle de trouver de nouveaux problèmes à résoudre poussent effectivement une logique interne, autonome et incontrôlable.
La technique ne se contente pas d’être, et, dans notre monde, d’être le facteur principal ou déterminant, elle est devenu système.
Le système technicien, Jacques Ellul, 1977
Et ceci n’est pas seulement vrai dans le contexte du capitalisme: sous l’emprise du communisme soviétique, la technologie était également devenue une valeur suprême au service d’une productivité accrue. Selon cette analyse, la technologie n’est pas une fonction du système capitalisme, elle est une dynamique qui émerge dans des systèmes productivistes et qui vient ensuite façonner ces systèmes; les deux se nourrissent dans une logique symbiotique.
Mon argument de base pour ce billet est que l’arrivée de technologies comme les LLM ne change rien, dans le sens où ça ne change pas cette trajectoire d’un système productiviste nourrie par chaque nouvelle vague technologique. Pour clarifier mon propos: le fait de dire que ça ne change rien ne veut pas dire le statu quo, ça veut dire toujours plus de la même chose, toujours plus intensément. La conséquence directe et inévitable que nous pointent les critiques de la technologie, c’est que l’empiétement constant de la technologie va être justifié par les plus beaux principes, la lutte aux changements climatiques par exemple. D’ailleurs, Illich anticipait l’utilisation des crises environnementales comme moyen de mettre en place des mécanismes de tutelle appuyés par des technologies et des experts. (Est-ce besoin de préciser que je suis très préoccupé par les crises climatiques et de biodiversité ? Je souligne juste l’instrumentalisation de ces crises pour accroitre l’emprise des régimes en place).
Mais alors, que faire?
La constante de tous les livres critiques, de la technologie comme du système économique ou autre, c’est que le diagnostic est plus facile à poser que le remède à trouver.
Un moratoire? De la réglementation? Ces éléments ont très certainement un rôle à jouer. Mais il faut bien être conscient qu’au rythme où vont les choses, un moratoire n’est que bien peu de chose, surtout dans un contexte où un consensus est difficile à trouver. D’abord, comme plusieurs l’ont souligné, la réglementation est aussi poussée par l’industrie. Ne vous étonnez pas que Sam Altman réclame une réglementation: il préfère être du bon côté de la barrière pour orienter la réglementation dans une direction qui l’arrange tout en se positionnant comme un bon citoyen. La situation canadienne à cet égard est assez claire: une réglementation faite derrière des portes-clauses, et dont les arbitrages seront (si les choses restent ainsi) dans les mains du ministère de l’industrie…
La réglementation se veut une formalisation d’une sorte de contrat social: ce qu’on est prêt à perdre individuellement pour le bien collectif. Aujourd’hui, nous sommes bien loin d’une quelconque forme de compréhension commune sur l’apport et les risques liés à ces technologies, et comme souvent, les victimes, nommées implicitement dans les paragraphes précédents, sont celles qui ont le moins de chance d’être entendues.
Cependant, comme pour d’autres techniques représentant un danger, il est possible de mettre en place des clauses de protection, d’appliquer une forme de principe de précaution. À mes yeux, un tel principe pourrait découler de la logique d’outil convivial d’Illich. En voici quelques éléments fondateurs:
- Accessible et adaptable: un outil convivial doit être facile à comprendre et chacun doit pouvoir l’adapter à son besoin;
- Transparence: son fonctionnement devrait être compréhensible par ses utilisateurs;
- Contrôle de l’utilisateur: l’outil ne devrait pas être contrôlé par des experts sur lequel l’utilisateur n’a pas d’influence;
- Durabilité et environnement: l’outil doit pouvoir être réparé et avoir un impact limité sur l’environnement;
- Interaction sociale: l’outil doit soutenir les relations sociales et ne doit pas isoler.
J’ajouterai que dans la logique d’Ivan Illich, pour être effectifs, à ces conditions doivent correspondre de réels moyens. Par exemple, un LLM disponible en code ouvert et modifiable uniquement par une poignée d’experts n’en fait pas un outil accessible et adaptable. Et on se rend bien compte qu’il reste pas mal de travail pour qu’un LLM puisse souscrire à ces critères, même appliqués de manière très tolérante. Cela milite donc pour un contrôle assez serré de ce genre de technologie. D’ailleurs, je trouve assez risible que l’interface de ChatGPT (pour les utilisateurs gratuits) parle encore de « Free Research Preview » sous-entendant que la technologie est encore au stade de recherche, alors qu’OpenAI développe modèles d’affaires sur modèles d’affaires. Quoiqu’il en soit, la mise en application d’un tel principe de précaution donnerait le temps d’explorer de manière plus claire la place que nous voulons donner collectivement à ce genre de technologie.
Cependant, je suis bien conscient que le proverbial dentifrice sera difficile à faire rentrer dans son tube! Comme je l’ai esquissé plus haut, je suis moi-même un utilisateur intensif de GPT: dans le contexte global dans lequel nous évoluons, si une technologie est disponible pour tous et qu’elle peut nous aider au quotidien, il est difficile de s’en passer même si dans les faits les bénéfices sont marginaux et que des risques systémiques sont bien présents. Considérant que plusieurs modèles ont été rendus disponibles en code ouvert, le dentifrice n’est pas seulement sorti du tube, il est aux quatre coins de la pièce!
En me replongeant dans mes notes de lectures sur les critiques des technologies, je n’ai pu m’empêcher de faire le lien avec des lectures sur les mythes et légendes des Premiers Peuples de l’Île de la tortue / Amérique du Nord. Les mythes et légendes ont souvent pour vocation de définir des valeurs et des comportements attendus collectivement. Les histoires de Nanabozho ou du Windigo, tels qu’évoquées par Robin Wall Kimmerer et d’autres légendes mettent de l’avant la nécessité de résister à l’hubris et à l’égoïsme, d’être dans le partage et la découverte du monde sans volonté de se l’approprier. Nous sommes bien loin de réponses faciles et applicables sous forme d’une belle loi qui réglerait tout. Illich pour sa part fait une référence appuyée à un obscur théologien du XIIe siècle, Hugues de Saint-Victor, qui proposait une vision qui n’est jamais devenue réalité: la technologie est une assistance pour remédier au mal que l’humanité a fait au monde, notamment à travers le pêcher original. Une vision humble et bien loin du mandat hérité des premiers versets de la Genèse de soumettre et contrôler la surface de la Terre.
En fin de compte, j’ai du mal à voir comment sortir de cette même trajectoire sans remettre au premier plan certaines valeurs présentent dans la cosmogonie de bien des peuples à travers le monde mais enfouies sous les injonctions de domination, de productivité et dont la fuite en avant par l’innovation est un symptôme.
En conclusion
Alors que certains gouvernements semblent finalement se décider à sortir (un peu) les crocs face aux acteurs des médias sociaux et à leur usage des données, la vague suivante d’innovation de rupture est déjà là. Car GPT n’est que la pointe de l’iceberg: comme démontré dans le précédent billet, il va encore falloir du temps pour explorer l’ensemble des possibilités ouvertes par les LLM et les modes d’intégration aux systèmes existants. De plus, le potentiel d’amélioration et d’optimisation de cette technologie est encore énorme et la publication en code ouvert par Facebook de son modèle LLaMa permet à des milliers (millions?) de geeks d’explorer l’utilisation de leur propre instance de LLM, nourrie de romans à l’eau de rose ou de contenus venant du “dark web” (toujours pour une bonne cause!). Enfin, tel que proposé par Illich, je considère que le vrai travail transformateur d’une technologie comme celle-ci va s’étendre sur plusieurs années et pas toujours de manière évidente.
Karl Polanyi parlait de réencastrer l’économie dans la société, l’image pourrait s’appliquer également à la technologie. La définition du concept d’outil convivial nous fournit quelques guides, quelques questions à nous poser pour faciliter ce réencastrement, essayer d’aller vers une technologie au service de la société, en respect de l’environnement.
Les LLMs démontrent qu’ils ont tout pour “turbocharger” la logique technocapitaliste actuelle où le système technique et le régime capitaliste se renforcent et amplifient des problèmes existants: précarisation, accélération, extraction, aliénation et plus généralement une proposition rabougrie de ce qu’est la vie. À mon sens, ces effets nuisent à la capacité d’agir (surtout collectivement), aggravent le sentiment d’impuissance et ce fait renforcent les causes mêmes des crises que nous vivons.
Ça n’exclut pas des bénéfices à différentes échelles: les technologies prennent une controle et une autonomie sur le corps social spécifiquement parce qu’elles répondent à des problèmes concrets. Toutefois, les gains escomptés vont avant tout profiter à ceux qui sont en haut de la pyramide trophique. Les autres se consoleront avec une impression de gain (de productivité), possiblement quelques bénéfices sociétaux, mais à l’échelle individuelle une fuite vers l’accélération et l’aliénation et à l’échelle collective des enjeux de fond qui semblent toujours plus insolubles et accablants.
Les discussions sur les risques apocalyptiques de l’intelligence artificielle nous éloignent de considérations sur l’impact actuel de ces technologies et nous distraient des enjeux de fond qu’il nous faut résoudre à l’échelle politique. Après toutes ces heures à essayer de pondre le présent article, j’en viens moi-même à me demander quelle est la valeur d’épiloguer sur ces enjeux, et je me demande comment il se fait qu’en tant qu’Humanité on en est encore à devoir se faire des peurs dignes des pires films d’horreur pour envisager d’agir.
Encore une fois, je n’ai pas de boule de cristal, je ne sais pas de quoi demain est fait et je n’en ai pas la prétention. Dans ce billet, j’essaie de mettre de l’avant le type de perturbations néfastes moins visibles qu’amènent déjà ChatGPT et les LLM. J’ai du mal à croire que la nature de ces impacts va soudainement se renverser à mesure que la technologie est adoptée. Je ne parle pas ici de risque existentiel, je parle “simplement” de cette logique visant à continuer de pousser le système à son plus haut niveau de production endurable, encore et toujours. En deux mots comme en mille, c’est un renforcement de la trajectoire existante; ça ne change rien.