Hallucinations artificielles

Joueur de tours, j’ai voulu piéger notre désormais meilleur ami à tous : ChatGPT. « De quel parti d’opposition au Québec MC Gilles a-t-il été le chef ? » ai-je demandé. Pas fou à temps plein, Chat (je l’appelle « Chat ») n’a pas mordu à cet hameçon. Mais il m’a appris que l’animateur au chapeau de cowboy avait « animé l’émission La soirée est (encore) jeune à la Première Chaîne de Radio-Canada ». C’est faux.

Mon collègue de La Presse Charles-Éric Blais-Poulin a demandé à Chat de le renseigner sur des scandales sexuels ayant impliqué des personnalités québécoises. Il en a relaté correctement trois, puis en a ajouté trois, avec les dates précises de la publication des allégations. Aucune trace dans les journaux de ces affaires pourtant apparemment croustillantes. « Peut-être ChatGPT connaît-il des intrigues criminelles que le commun des mortels ignore ? » demande Blais-Poulin.

Le journaliste Scott Pelley, de l’émission américaine 60 Minutes, a eu le privilège d’interroger avant son lancement Bard, le nouvel outil d’intelligence artificielle de Google. Il lui a demandé de lui recommander cinq ouvrages sur l’inflation. Apparurent illico cinq titres, noms d’auteurs et résumés du plus haut intérêt. Le problème ? Ces livres n’existent pas, n’ont jamais existé, ne sont pas en préparation.

Il serait troublant que les outils d’IA nous régurgitent comme vrais des mensonges qui circulent sur Internet. C’est pire. Chat, Bard et autres inventent de toutes pièces de nouvelles faussetés qu’ils introduisent sans la moindre inhibition, et avec le vernis de l’intelligence, dans le débat public. Les compagnies qui mettent ces outils en ligne et les experts du domaine connaissent bien le phénomène. Ils l’appellent des « hallucinations ».


À LIRE AUSSI :

Retrouvez les autres chroniques de Jean-François Lisée sur l’intelligence artificielle.


Elles sont suffisamment fréquentes pour que Bard ait donné une fausse information scientifique dans la vidéo de promotion mise en ligne lors de son lancement, attribuant faussement au télescope orbital James-Webb la première photo d’une exoplanète. L’erreur, repérée par Reuters, a fait perdre 9 % de sa valeur à Alphabet  Google ce jour-là.

Google a évidemment immédiatement retiré du marché Bard, et ChatGPT fut débranché dès que la première hallucination fut observée. Ils ne seront remis en ligne que lorsque le problème de la fabrication de désinformation sera définitivement résolu.

Non, je blague. Malheureusement. Ils sont toujours en ligne et, chaque jour, entrelardent leurs bonnes réponses de leurs rêves éveillés. Ce qui entraîne deux interrogations lourdes. Pourquoi des compagnies acceptent-elles de mettre en marché des outils d’information dont elles savent qu’elles produisent et propagent, aussi, de la désinformation ? Pour faire des sous, évidemment. Mais bien qu’il soit courant qu’un produit soit vendu avec un vice caché, la nouveauté est qu’ici le vice est apparent, admis, parfois affiché en petits caractères dans les notices d’utilisation.

Pourquoi alors tous les offices de protection du consommateur du monde n’ont-ils pas interdit un produit aussi défectueux ? Je l’ignore.

Car non content de désinformer l’internaute moyen et des millions d’étudiants de par le monde, l’IA induit en erreur des scientifiques et des programmeurs. Le gain de temps obtenu lorsqu’on demande à l’IA d’écrire du code est phénoménal. Mais il lui arrive d’y insérer des lignes de code obsolètes, de reproduire des erreurs de codages courantes. Si un programmeur paresseux travaillant dans un hôpital ou sur une machinerie potentiellement dangereuse utilise ce raccourci — ce qui est inévitable —, des dommages corporels pourraient être sérieux. Et puisque l’IA est désormais utilisée pour accélérer des diagnostics, qui sait quand le Dr Folamour artificiel décidera d’inventer au patient une maladie imaginaire ?

Sundar Pichai, p.-d.g. d’Alphabet  Google, admet que l’introduction des produits de l’IA va faire passer le problème de la désinformation « à une échelle beaucoup plus vaste ». Le problème des hallucinations, lui a demandé le journaliste Pelley, « peut-il être résolu » ? Sa réponse : « C’est un sujet de débat intense. Je pense qu’on va faire des progrès. » Ce qui veut dire non.

Une première hypothèse, simple, était que l’IA, étant programmée pour répondre aux questions, estimait qu’une réponse, même fausse, était préférable à une absence de réponse. Mais il s’avère que même lorsque l’IA peut trouver la vraie réponse, elle choisit parfois d’en donner une fausse, présumément supérieure à la vraie. L’énigme est à ce point indéchiffrable que, selon une recherche récente, certaines stratégies de réduction des hallucinations provoquent plutôt leur augmentation.

Le journaliste scientifique Charles Seife raconte dans Slate comment Chat lui a pondu sa notice nécrologique, inventant, au surplus de son décès, des références inexistantes. « Nous avons maintenant un programme informatique qui serait sociopathe s’il était vivant. Même lorsqu’il n’est pas censé le faire, même lorsqu’il a un autre choix, même lorsque la vérité est connue de l’ordinateur et qu’il est plus facile de la relayer plutôt que de fabriquer quelque chose, l’ordinateur ment. »

Il y a un demi-siècle, le génial auteur de science-fiction Philip K. Dick publiait Les androïdes rêvent-ils de moutons électriques ?, qui a largement inspiré le film Blade Runner. Le coeur de l’ouvrage repose sur l’empathie que l’on peut, ou non, ressentir pour des robots. Le protagoniste, Rick Deckard, doit éliminer les androïdes d’un modèle jugé trop intelligent, mais est confronté à la possibilité qu’il soit lui-même un robot. La difficulté est que, pour échapper à leur élimination, les androïdes mentent avec aplomb. Qui sait si, plutôt que de les laisser polluer le monde de leurs hallucinations, on avait gardé en laboratoire leurs ancêtres, en 2023, jusqu’à ce qu’on les rende incapables de mentir, notre avenir serait moins glauque que celui imaginé par Philip K. Dick ?

(Ce texte a d’abord été publié dans Le Devoir.)

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *