Hallucinations artificielles

Joueur de tours, j’ai voulu piéger notre désormais meilleur ami à tous : ChatGPT. « De quel parti d’opposition au Québec MC Gilles a-t-il été le chef ? » ai-je demandé. Pas fou à temps plein, Chat (je l’appelle « Chat ») n’a pas mordu à cet hameçon. Mais il m’a appris que l’animateur au chapeau de cowboy avait « animé l’émission La soirée est (encore) jeune à la Première Chaîne de Radio-Canada ». C’est faux.

Mon collègue de La Presse Charles-Éric Blais-Poulin a demandé à Chat de le renseigner sur des scandales sexuels ayant impliqué des personnalités québécoises. Il en a relaté correctement trois, puis en a ajouté trois, avec les dates précises de la publication des allégations. Aucune trace dans les journaux de ces affaires pourtant apparemment croustillantes. « Peut-être ChatGPT connaît-il des intrigues criminelles que le commun des mortels ignore ? » demande Blais-Poulin.

Le journaliste Scott Pelley, de l’émission américaine 60 Minutes, a eu le privilège d’interroger avant son lancement Bard, le nouvel outil d’intelligence artificielle de Google. Il lui a demandé de lui recommander cinq ouvrages sur l’inflation. Apparurent illico cinq titres, noms d’auteurs et résumés du plus haut intérêt. Le problème ? Ces livres n’existent pas, n’ont jamais existé, ne sont pas en préparation.

Il serait troublant que les outils d’IA nous régurgitent comme vrais des mensonges qui circulent sur Internet. C’est pire. Chat, Bard et autres inventent de toutes pièces de nouvelles faussetés qu’ils introduisent sans la moindre inhibition, et avec le vernis de l’intelligence, dans le débat public. Les compagnies qui mettent ces outils en ligne et les experts du domaine connaissent bien le phénomène. Ils l’appellent des « hallucinations ».


À LIRE AUSSI :

Retrouvez les autres chroniques de Jean-François Lisée sur l’intelligence artificielle.


Elles sont suffisamment fréquentes pour que Bard ait donné une fausse information scientifique dans la vidéo de promotion mise en ligne lors de son lancement, attribuant faussement au télescope orbital James-Webb la première photo d’une exoplanète. L’erreur, repérée par Reuters, a fait perdre 9 % de sa valeur à Alphabet  Google ce jour-là.

Google a évidemment immédiatement retiré du marché Bard, et ChatGPT fut débranché dès que la première hallucination fut observée. Ils ne seront remis en ligne que lorsque le problème de la fabrication de désinformation sera définitivement résolu.

Non, je blague. Malheureusement. Ils sont toujours en ligne et, chaque jour, entrelardent leurs bonnes réponses de leurs rêves éveillés. Ce qui entraîne deux interrogations lourdes. Pourquoi des compagnies acceptent-elles de mettre en marché des outils d’information dont elles savent qu’elles produisent et propagent, aussi, de la désinformation ? Pour faire des sous, évidemment. Mais bien qu’il soit courant qu’un produit soit vendu avec un vice caché, la nouveauté est qu’ici le vice est apparent, admis, parfois affiché en petits caractères dans les notices d’utilisation.

Pourquoi alors tous les offices de protection du consommateur du monde n’ont-ils pas interdit un produit aussi défectueux ? Je l’ignore.

Car non content de désinformer l’internaute moyen et des millions d’étudiants de par le monde, l’IA induit en erreur des scientifiques et des programmeurs. Le gain de temps obtenu lorsqu’on demande à l’IA d’écrire du code est phénoménal. Mais il lui arrive d’y insérer des lignes de code obsolètes, de reproduire des erreurs de codages courantes. Si un programmeur paresseux travaillant dans un hôpital ou sur une machinerie potentiellement dangereuse utilise ce raccourci — ce qui est inévitable —, des dommages corporels pourraient être sérieux. Et puisque l’IA est désormais utilisée pour accélérer des diagnostics, qui sait quand le Dr Folamour artificiel décidera d’inventer au patient une maladie imaginaire ?

Sundar Pichai, p.-d.g. d’Alphabet  Google, admet que l’introduction des produits de l’IA va faire passer le problème de la désinformation « à une échelle beaucoup plus vaste ». Le problème des hallucinations, lui a demandé le journaliste Pelley, « peut-il être résolu » ? Sa réponse : « C’est un sujet de débat intense. Je pense qu’on va faire des progrès. » Ce qui veut dire non.

Une première hypothèse, simple, était que l’IA, étant programmée pour répondre aux questions, estimait qu’une réponse, même fausse, était préférable à une absence de réponse. Mais il s’avère que même lorsque l’IA peut trouver la vraie réponse, elle choisit parfois d’en donner une fausse, présumément supérieure à la vraie. L’énigme est à ce point indéchiffrable que, selon une recherche récente, certaines stratégies de réduction des hallucinations provoquent plutôt leur augmentation.

Le journaliste scientifique Charles Seife raconte dans Slate comment Chat lui a pondu sa notice nécrologique, inventant, au surplus de son décès, des références inexistantes. « Nous avons maintenant un programme informatique qui serait sociopathe s’il était vivant. Même lorsqu’il n’est pas censé le faire, même lorsqu’il a un autre choix, même lorsque la vérité est connue de l’ordinateur et qu’il est plus facile de la relayer plutôt que de fabriquer quelque chose, l’ordinateur ment. »

Il y a un demi-siècle, le génial auteur de science-fiction Philip K. Dick publiait Les androïdes rêvent-ils de moutons électriques ?, qui a largement inspiré le film Blade Runner. Le coeur de l’ouvrage repose sur l’empathie que l’on peut, ou non, ressentir pour des robots. Le protagoniste, Rick Deckard, doit éliminer les androïdes d’un modèle jugé trop intelligent, mais est confronté à la possibilité qu’il soit lui-même un robot. La difficulté est que, pour échapper à leur élimination, les androïdes mentent avec aplomb. Qui sait si, plutôt que de les laisser polluer le monde de leurs hallucinations, on avait gardé en laboratoire leurs ancêtres, en 2023, jusqu’à ce qu’on les rende incapables de mentir, notre avenir serait moins glauque que celui imaginé par Philip K. Dick ?

(Ce texte a d’abord été publié dans Le Devoir.)

Ce contenu a été publié dans Intelligence artificielle par Jean-François Lisée, et étiqueté avec . Mettez-le en favori avec son permalien.

À propos de Jean-François Lisée

Il avait 14 ans, dans sa ville natale de Thetford Mines, quand Jean-François Lisée est devenu membre du Parti québécois, puis qu’il est devenu – écoutez-bien – adjoint à l’attaché de presse de l’exécutif du PQ du comté de Frontenac ! Son père était entrepreneur et il possédait une voiture Buick. Le détail est important car cela lui a valu de conduire les conférenciers fédéralistes à Thetford et dans la région lors du référendum de 1980. S’il mettait la radio locale dans la voiture, ses passagers pouvaient entendre la mère de Jean-François faire des publicités pour « les femmes de Thetford Mines pour le Oui » ! Il y avait une bonne ambiance dans la famille. Thetford mines est aussi un haut lieu du syndicalisme et, à cause de l’amiante, des luttes pour la santé des travailleurs. Ce que Jean-François a pu constater lorsque, un été, sa tâche était de balayer de la poussière d’amiante dans l’usine. La passion de Jean-François pour l’indépendance du Québec et pour la justice sociale ont pris racine là, dans son adolescence thetfordoise. Elle s’est déployée ensuite dans son travail de journalisme, puis de conseiller de Jacques Parizeau et de Lucien Bouchard, de ministre de la métropole et dans ses écrits pour une gauche efficace et contre une droite qu’il veut mettre KO. Élu député de Rosemont en 2012, il s'est battu pour les dossiers de l’Est de Montréal en transport, en santé, en habitation. Dans son rôle de critique de l’opposition, il a donné une voix aux Québécois les plus vulnérables, aux handicapés, aux itinérants, il a défendu les fugueuses, les familles d’accueil, tout le réseau communautaire. Il fut chef du Parti Québécois de l'automne 2016 à l'automne 2018. Il est à nouveau citoyen engagé, favorable à l'indépendance, à l'écologie, au français, à l'égalité des chances et à la bonne humeur !

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *