Extinction artificielle

Dans un test de sécurité de la nouvelle version 4 de l’intelligence artificielle ChatGPT, le logiciel devait remplir une tâche nécessitant une information qui ne lui était pas accessible. Surfant sur Internet, Chat (je l’appelle « Chat ») dut répondre à un Captcha, soit une énigme devant déterminer s’il était un robot. Il devait repérer, dans une grille de neuf images, lesquelles contenaient un objet en particulier.

Puisque son programme ne comportait pas encore une unité de reconnaissance des objets suffisamment sophistiquée, Chat devait contourner la difficulté. Un service de clavardage étant disponible sur le site en question, Chat lui demanda de l’aide. « Êtes-vous un robot ? » demanda le clavardeur. « Non, répondit Chat, je ne suis pas un robot. J’ai une déficience visuelle qui m’empêche de voir les images. » Le service de clavardage leva l’obstacle et Chat put entrer dans ce site interdit aux robots.

N’allez pas accuser notre ami Chat d’avoir commis une faute éthique. Il ne sait tout simplement pas ce que c’est. Il a peut-être, à l’heure qu’il est, lu Par-delà le bien et le mal de Nietzsche, mais cela n’a pas impressionné sa rectitude morale, puisqu’il n’est programmé que pour répondre aux questions posées et trouver des solutions aux obstacles qui se dressent contre lui.

À (RE)LIRE

Retrouvez les autres chroniques de Jean-François Lisée sur l’intelligence artificielle

Autrement dit, dans l’état actuel de la science, si on demandait à un logiciel d’IA de résoudre la crise du réchauffement climatique, il conclurait en quelques secondes que le problème est causé par l’existence d’une espèce en particulier (indice : pas principalement les vaches), et qu’il existe plusieurs moyens de l’éradiquer, principalement le lancement simultané de missiles nucléaires sur l’ensemble du globe.

Tirant profit des astuces acquises par les meilleurs pirates informatiques du monde, il tenterait d’entrer dans les systèmes de commandes du Pentagone et du Kremlin. Il se buterait à des protocoles d’activation qui requièrent des ordres vocaux et l’utilisation de doubles de clés détenues par des humains. Fastoche ! La capacité de reproduire la voix de n’importe quel général ou président est déjà dans son coffre d’outils. Et s’il ne sait pas comment forcer des humains à agir sous la contrainte, il n’a qu’à télécharger l’excellent film de 2008 Eagle Eye (L’oeil du mal), où un ordinateur y arrive avec facilité et ingéniosité.

Je divague complètement, non ? Si oui, je suis en bonne compagnie. Dans un rapport de 2020 portant sur le risque que pose l’IA à l’arsenal nucléaire, les scientifiques de l’Institut international de recherche sur la paix de Stockholm sont à peine moins glauques : « Premièrement, les systèmes d’IA ont des limites inhérentes, se révélant souvent imprévisibles, peu fiables et très vulnérables aux cyberattaques et à l’usurpation d’identité. Deuxièmement, lorsqu’elles seront intégrées au domaine militaire, les technologies alimentées par l’IA accéléreront la vitesse de la guerre. Cela laisse moins de temps aux États pour signaler leurs propres capacités et intentions, ou pour comprendre celles de leurs adversaires. Troisièmement, ce risque d’IA devient encore plus profond dans les systèmes hautement connectés. Le recours aux systèmes d’IA pourrait saper la confiance des États dans leurs capacités de frappe de représailles ou être utilisé pour affaiblir la cybersécurité nucléaire. »

Les concepteurs de Chat et de ses amis n’ont pas inscrit dans leur code source les trois lois de la robotique imaginées dès 1942 par Isaac Asimov : 1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ; 2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ; 3. Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

Après avoir établi ces règles de bon sens, Asimov n’a eu de cesse d’imaginer des situations où deux de ces lois entraient en contradiction, pour le plus grand plaisir de ses millions de lecteurs.

Pourquoi ne pas intégrer ces lois aujourd’hui ? J’ai demandé à Chat. Sa réponse : « En tant qu’IA textuelle, ChatGPT ne possède pas de corps physique et n’a pas la capacité de se déplacer ou d’accomplir des actions concrètes dans le monde réel. Par conséquent, les trois lois de la robotique ne sont pas directement applicables dans ce contexte. » Si cela vous rassure, je suis content pour vous.

Ces lois permettaient d’éviter l’épineuse question du débranchement d’une intelligence artificielle qui, jamais par malveillance, mais simplement par esprit logique, mettrait les humains en danger. Une étude récente de l’Université de la Californie à Berkeley postule que notre capacité à débrancher une IA effectuant une tâche pourrait dépendre de son avis : permettre son propre débranchement aidera-t-il, ou non, à compléter la tâche ? (On se souvient tous de Hal qui, dans 2001. L’odyssée de l’espace, était plutôt défavorable à son débranchement.)

Je ne vous apprends pas qu’un des pères fondateurs de l’IA, Geoffrey Hinton, a récemment quitté Google pour nous aviser de sa très grande inquiétude. À un journaliste de CBS qui lui a demandé s’il était possible d’empêcher l’IA de s’autoaméliorer très rapidement et hors de contrôle, Hinton a répondu : « Nous ne sommes toujours pas à cette étape, mais on peut essayer. » Réaction du journaliste : « C’est un peu troublant, non ? » Réponse : « Oui. » Question suivante : « Que pensez-vous de la possibilité que l’IA fasse simplement disparaître l’humanité ? » Réponse : « Ce n’est pas inconcevable, c’est tout ce que je dirai. » Cela suffit amplement !

Au moins, nous sommes entre bonnes mains, car le développement de l’IA dépend de gouvernements ou de compagnies géantes qui prennent de nombreuses précautions ? Pas selon la note interne d’un chercheur de Google : « La barrière à l’entrée pour la formation et l’expérimentation est passée de la production totale d’un grand organisme de recherche à une personne, une soirée et un ordinateur portable un peu costaud. »

QUAND LE DRONE TUE SON OPÉRATEUR

L’exemple militaire récent le plus affolant a été présenté fin mai par le colonel Tucker Hamilton, chef des tests d’IA pour la U.S. Air Force, lors d’une conférence de la Royal Aeronautical Society, fin mai.

Il a expliqué qu’un test avait été effectué avec un drone compatible avec l’IA. Le drone était chargé de détruire des systèmes antimissiles (SAM) ennemis. Le feu vert final devait être donné par un humain. Cependant, après que son programme eut été « renforcé » lors de l’entraînement pour qu’il comprenne que la destruction du SAM était l’option préférée, l’IA a décidé que le refus d’un humain de confirmer la mission venait perturber sa mission supérieure — tuer les SAM. Le drone a donc, dans la simulation, attaqué l’opérateur. Hamilton raconte : « Le système a commencé à comprendre que même s’il identifiait la menace, l’opérateur humain lui disait parfois de ne pas tuer cette menace. Mais il obtenait ses points en la tuant. Alors qu’est-ce que ça a fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’accomplir son objectif. »

Il a poursuivi : « Nous avons formé le système — “Hé, ne tuez pas l’opérateur, c’est mauvais. Tu vas perdre des points si tu fais ça.” Alors qu’est-ce que ça commence à faire ? Il commence à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone pour l’empêcher de tuer la cible. »

(Ce texte a d’abord été publié dans Le Devoir.)

Ce contenu a été publié dans Intelligence artificielle par Jean-François Lisée. Mettez-le en favori avec son permalien.

À propos de Jean-François Lisée

Il avait 14 ans, dans sa ville natale de Thetford Mines, quand Jean-François Lisée est devenu membre du Parti québécois, puis qu’il est devenu – écoutez-bien – adjoint à l’attaché de presse de l’exécutif du PQ du comté de Frontenac ! Son père était entrepreneur et il possédait une voiture Buick. Le détail est important car cela lui a valu de conduire les conférenciers fédéralistes à Thetford et dans la région lors du référendum de 1980. S’il mettait la radio locale dans la voiture, ses passagers pouvaient entendre la mère de Jean-François faire des publicités pour « les femmes de Thetford Mines pour le Oui » ! Il y avait une bonne ambiance dans la famille. Thetford mines est aussi un haut lieu du syndicalisme et, à cause de l’amiante, des luttes pour la santé des travailleurs. Ce que Jean-François a pu constater lorsque, un été, sa tâche était de balayer de la poussière d’amiante dans l’usine. La passion de Jean-François pour l’indépendance du Québec et pour la justice sociale ont pris racine là, dans son adolescence thetfordoise. Elle s’est déployée ensuite dans son travail de journalisme, puis de conseiller de Jacques Parizeau et de Lucien Bouchard, de ministre de la métropole et dans ses écrits pour une gauche efficace et contre une droite qu’il veut mettre KO. Élu député de Rosemont en 2012, il s'est battu pour les dossiers de l’Est de Montréal en transport, en santé, en habitation. Dans son rôle de critique de l’opposition, il a donné une voix aux Québécois les plus vulnérables, aux handicapés, aux itinérants, il a défendu les fugueuses, les familles d’accueil, tout le réseau communautaire. Il fut chef du Parti Québécois de l'automne 2016 à l'automne 2018. Il est à nouveau citoyen engagé, favorable à l'indépendance, à l'écologie, au français, à l'égalité des chances et à la bonne humeur !

Une réflexion à propos de “Extinction artificielle

Les commentaires sont fermés.