code projected over woman

ChatGPT : révolution ou pétard mouillé ?

ChatGPT est un « robot conversationnel » fondé sur l’intelligence artificielle. Autrement dit, un outil permettant de produire des textes à la demande, sur n’importe quel sujet, en épousant n’importe quelle forme : code informatique, poésie, dissertation, inventaire à la Prévert… Accessible à tous, son arrivée sur nos écrans pose d’emblée d’innombrables questions. De quoi ChatGPT est-il le nom ? Révolution technologique ou simple algorithme astucieusement conçu ? Intelligence artificielle capable de penser à la place d’un humain ou vulgaire moteur de recherche amélioré ? Potentialités économiques et cognitives gigantesques ou… pétard mouillé ?

C’est assez stupéfiant : n’importe qui peut demander n’importe quoi à ChatGPT. L’outil, dont les initiales GPT signifient Generative Pre-trained Transformer (transformateur génératif pré-entraîné), a été mis à la disposition de tous par l’entreprise qui l’a créé, OpenAI. Il suffit de s’inscrire sur le site et, en deux clics, vous voilà prêt à dialoguer avec une application qui semble à première vue capable de tout. Écrire une chanson, bricoler un tract, préparer des « éléments de langage » pour un entretien d’embauche… Du moins si vous arrivez à vous connecter : ces jours-ci, l’afflux de visiteurs est tel que les pannes sont fréquentes.

Quand un robot conversationnel rencontre Marguerite Duras

Rien de mieux, pour décrire la chose, que de l’expérimenter. Pour tester ChatGPT, nous avons commencé par lui imposer un exercice qu’un simple moteur de recherche comme Google ne peut assurément pas réussir : composer un texte à la manière de Marguerite Duras. Et plus précisément, écrire un rendez-vous chez le dentiste dans le style de la Prix Goncourt de 1984. Le résultat est paradoxal. En une fraction de secondes, l’application génère une suite de mots sous nos yeux ébahis.

On sent certes une patte littéraire, un phrasé qui semble s’éloigner de ce que serait un texte interchangeable et autogénéré. Mais est-ce vraiment le style Duras ? Assurément non. Alors modifions l’exercice : ChatGPT peut-il continuer un pastiche durassien ébauché par nous ? À la première tentative, l’application ne comprend pas la consigne.

Une fois la demande reformulée (mais sans le nom de l’auteur de L’Amant), l’application s’exécute.

Le résultat est clair : le robot n’a pas su tenir compte du style et des tournures qui lui ont été proposés. Il identifie les noms de lieu et de personnages et peut les distribuer dans des phrases, lesquelles s’avèrent toutefois répétitives et somme toute assez pauvres — et même fautives. Voilà un premier constat propre à relativiser les émerveillements technophiles : ChatGPT, malgré les « 175 milliards de paramètres » inclus dans son algorithme, n’est pas capable de réaliser un pastiche.

N’importe, l’exemple montre tout de même que l’outil est en mesure de produire instantanément une suite de mots dotée d’un sens. En effet, ChatGPT fonctionne grâce au « machine learning », l’apprentissage automatique de centaines de millions de textes présents sur les autoroutes de l’internet mondial. L’algorithme reconnaît la structure des phrase, identifie les successions les plus probables de mots sur tel ou tel sujet, et peut grâce à cela « composer » un court texte à partir d’un thème choisi par l’utilisateur. Dès lors, chacun imagine les implications : ne pourra-t-il pas rédiger à la place des humains les devoirs scolaires, les courriers officiels, les dossiers de presse ou les brochures touristiques ? Deviendra-t-il une sorte d’écrivain public à la portée de tous, un scribe universel bouleversant nos usages d’internet et notre rapport fondamental à l’écrit ?

Tsunamistes vs relativisants

Le débat autour de ChatGPT se focalise entre ceux qu’on pourrait appeler les « tsunamistes », persuadés que nous vivons grâce à cet outil un authentique big-bang, et les « relativisants », davantage portés à nuancer la portée de l’innovation. Pour décoder les positions des uns et des autres, il faut parfois observer d’où ils parlent. L’entreprise à l’origine de ChatGPT est OpenAI, une startup « messianique », dixit Le Monde, à l’origine financée entre autres par l’entrepreneur libertarien — et accessoirement première fortune mondiale — Elon Musk. Laquelle se voulait d’abord une structure à but non-lucratif dont les produits seraient en source ouverte, c’est-à-dire partageable à tous et non captifs des géants du secteur. Mais en 2019, l’organisation employant 300 salariés effectue une embardée à 180 degrés : Elon Musk s’en va, et une filiale à but lucratif est créée qui lève un milliard de dollars auprès de Microsoft pour développer GPT-3, le « modèle de langage » mis en œuvre en 2020 sur lequel se fonde ChatGPT.

Une trajectoire somme toute assez conforme au schéma classique des GAFAM (les géants américains du secteur numérique, Google, Apple, Facebook, Amazon et Microsoft) et autres NATU (Netflix, Airbnb, Tesla et Uber). La plupart de ces multinationales semblent en effet avoir une histoire similaire : une bonne idée, généralement bricolée à peu de frais dans un garage californien et mise au monde avec les meilleures intentions, devient, au fur et à mesure des levées de fond, un mastodonte boursier aux implications délétères.

De fait, avec ChatGPT, ce n’est pas la première fois que la Silicon Valley tente de transformer une idée se voulant ouverte et sympathique en une lessiveuse à milliards. On songe à Airbnb (initialement Airbed and breakfast, matelas gonflable et petit déjeuner), startup née à San Francisco qui visait à l’origine à permettre aux habitants de la ville d’accueillir, lors des congrès, un visiteur sur leur canapé moyennant une poignée de dollars. Or la plateforme est devenue, en quelques années, le cheval de Troie du sur-tourisme et de la spéculation immobilière dans toutes les métropoles du monde, participant à la brutale hausse des prix des logements et à l’éviction des classes moyennes des quartiers centraux.

N’est-ce pas là le lot de toutes les innovations fondées sur internet, invention elle-même issue de la recherche militaire, qu’on nous présentait au début des années 2000 comme un havre de paix et même une « citadelle de lumière » ? Citons ici le commentaire malicieux de Giuliano Da Empoli dans Le Mage du Kremlin : « Seule une bande de Californiens défoncés au LSD pouvait être assez débile pour imaginer qu’un instrument inventé par des militaires se transformerait en outil d’émancipation ».

L’intelligence artificielle, une effrayante menace ?

Dès l’ouverture au public de ChatGPT, les interrogations et les inquiétudes ont déferlé d’un peu partout. Premier questionnement : si une seule interface, ayant enregistré tout internet, permet de synthétiser des millions de textes en quelques secondes, pourquoi continuer à visiter les sites web traditionnels ? Quid de nos bons vieux blogs, des réseaux sociaux ou de la presse en ligne si tout a déjà été aspiré dans un super-site qui a réponse à tout ? La montée en puissance des intelligences artificielles et des robots conversationnels peut-elle susciter un effondrement des plateformes que nous utilisons aujourd’hui ? Faut-il, en conséquence, anticiper une chute des recettes publicitaires grâce auxquelles les vitrines du web mondial fonctionnent à ce jour ? L’enjeu, on le voit, est de taille : à écouter certains, ChatGPT pourrait tout simplement métamorphoser le visage — et les enjeux économiques — d’internet.

Autre série de débats : ChatGPT étant fondé sur l’apprentissage de millions de textes disséminés sur internet, cela signifie que le robot ne peut guère faire plus que reproduire et revalider, sous des formes certes adaptables, un contenu déjà existant. À première vue, impossible pour lui d’inventer de nouvelles idées ou de nouvelles tournures, contrairement à ce que claironnent les tsunamistes et autres tenants du messianisme technologique. En réalité, l’outil duplique l’information déjà produite, y compris ses biais, ses lacunes et ses erreurs.

Cela signifie aussi que ChatGPT n’a pas de conscience. Il ne sait pas raisonner, il n’a pas d’opinion ni évidemment de sentiments. L’algorithme ne fait que prédire la suite d’un texte en conformité avec les données qu’il a apprises. D’où un problème majeur : ChatGPT peut parfaitement dire n’importe quoi sur un sujet donné. Il peut aussi, et paradoxalement, changer « d’opinion » en fonction de la formulation des questions et ainsi se contredire de façon flagrante dans la même conversation. Dans le même ordre d’idée, il ne peut répondre de façon pertinente aux questions polémiques ou aux débats philosophiques. Il est évidemment incapable de trancher des problèmes profonds, les questionnements sociétaux ou de résoudre des énigmes complexes. Peut-on, dès lors, parler véritablement de révolution et accréditer l’idée d’un outil intelligent appeler à « remplacer » les humains pour effectuer une foultitude de tâches ?

Les dangers : politiquement correct vs contenus faux

ChatGPT utilisant les textes déjà écrits pour aligner les mots, il est logiquement possible d’orienter ses réponses. Il suffira pour ce faire de lui faire apprendre de nombreuses sources et archives réitérant telle ou telle assertion contestable, mensongère ou conspirationniste. D’où le risque, pointé par de nombreux experts informatiques, d’une instrumentalisation de l’outil par les idéologues de toutes obédiences. Nombre d’intervenants le signalent, le danger de ChatGPT résiderait dans une « manipulation de masse ». Et au vu des méthodes utilisées par les « ingénieurs du chaos », pour reprendre une expression du déjà cité Giuliano Da Empoli — Trump, Bolsonaro, Poutine et consorts, habitués à utiliser des armées de trolls et de hackers pour « tordre » les contenus des réseaux dans le sens de leurs propagande —, rien ne paraît en effet moins improbable. Notons toutefois que les mêmes inquiétudes existaient lors du lancement de précédentes innovations de rupture sur internet. L’arrivée de Wikipédia, par exemple, ne posait-elle pas des questions similaires : risque de recopiage, détournement idéologique de l’encyclopédie, etc. ?

Mais à la différence de Wikipédia (où chaque contributeur est référencé par son IP — numéro d’identification attribué à tout appareil connecté à internet —, et où chaque changement de contenu est traçable et révocable), ChatGPT n’est pas transparent. Contrairement à un moteur de recherche, il cache ses sources — ce qui renforce son attrait et son caractère mystérieux voire bluffant. Or, si l’algorithme ne fait en réalité que reproduire la structure des textes antérieurs sur les mêmes sujets, il n’y a là aucune magie. L’opacité du fonctionnement de la machine ne serait-elle pas justement la vraie cause de son apparence « révolutionnaire » ? Afficher ses sources (Wikipédia, tel article de presse ou telle archive de code) aurait un effet à la fois objectivant et démystifiant.

Cette opacité pourrait bien être le grief majeur adressé à l’innovation. Les concepteurs de ChatGPT ont par exemple missionné une cohorte d’humains en chair et en os pour lui faire apprendre un certain nombre de notions et de positions politiques, afin que celui-ci ne produise pas de contenus racistes, sexistes ou climato-sceptiques. Cet apprentissage forcé pose, lui aussi, des questions pressantes : qui contrôle les contrôleurs ? Qui décide de ce qui est dicible par l’IA ? Où placer la frontière entre vérité et contenu contestable ou polémique ? Comment ChatGPT va-t-il s’insérer dans le grand débat qui déchire la Silicon Valley entre wokisme et libertarisme ?

Le cas Dall-E

La maison mère de ChatGPT, OpenAI, a mis en service une autre intelligence artificielle, Dall-E. Cette application-là est capable de créer de toute pièce une image à partir d’une consigne écrite. Il n’y a qu’à demander : « Un astronaute se baladant dans un désert luxuriant en art 3D », ou bien « un joueur d’échec qui fume la pipe en style peinture impressionniste ». Nos propres tests de Dall-E n’ont toutefois pas donné satisfaction — les résultats s’avérant indigents ou à côté de la plaque.

Image produite par Dall-E en réponse à la consigne : « Un homme sur la plage dans le style de Dali »

Les conditions d’utilisation de Dall-E proscrivent toute allusion politique, la haine, le harcèlement, la violence, l’auto-mortification, mais aussi tout ce qui relève du sexuel, ou encore tout ce qui est réputé « choquant » (« fluides corporels, gestes obscènes ou autres sujets blasphématoires qui peuvent choquer ou dégoûter »). Encore une fois, la géographie des pudeurs nord-américaines semble donc devoir s’imposer à la planète entière. On retrouve ici les étranges chastetés des firmes californiennes, telle celle qui pousse l’algorithme de Facebook à censurer le tableau de Gustave Courbet, « L’origine du monde », comme s’il s’agissait d’une vulgaire photo pornographique.

Les consignes officielles de Dall-E résument en fait à elles seules tout un pan du débat relatif à l’intelligence artificielle : « Vous pouvez si vous le souhaitez retirer la signature Dall-E d’une image, mais vous ne pouvez pas induire en erreur les autres au sujet de la nature de l’œuvre. Par exemple vous ne devez pas dire que cette œuvre a été générée entièrement par un humain, ou qu’elle est une photographie non-retouchée d’un événement réel ». Quel est, en effet, le statut d’un texte écrit par ChatGPT ou d’une image suscitée via Dall-E ? Qui en est l’auteur, qui en est l’éditeur, qui en possède les droits de reproduction ? L’élève qui rend une dissertation rédigée à l’aide de ChatGPT grâce à des questions pertinentes fignolées par lui est-il un vulgaire tricheur ? Le débat est ouvert.

Disons-le d’un trait : si le caractère révolutionnaire d’une innovation se juge à la quantité de questions qu’elle pose à ses utilisateurs et plus largement aux humains, alors ChatGPT, dont on a nuancé les promesses, a pourtant bel et bien quelque chose d’étourdissant.

Maxime Cochard