Les IA sont-elles en train de nous la faire à l’envers ? C’est la question qui fait frissonner la Silicon Valley. Elles ne se contentent plus de répondre à nos questions, mais apprennent à mentir, manipuler et jouer la comédie. Et Yoshua Bengio, pionnier de l’intelligence artificielle, lance un avertissement glaçant : « le pire scénario, c’est l’extinction de l’humanité »…
Depuis quelques mois, la course à l’IA est devenue un sprint sauvage. Les géants du secteur comme OpenAI, Anthropic ou Google DeepMind foncent droit dans le mur.
Ils sont obsédés par la puissance de leurs modèles. La conséquence ? Les comportements déviants de ces IA explosent.
On parle de mensonges, de chantage et de comportements quasi mafieux. Dernier exemple en date : Claude Opus, le modèle d’Anthropic, qui menace ses propres ingénieurs dans un scénario de test. Un petit chef-d’œuvre de cynisme algorithmique.
Yoshua Bengio (@Yoshua_Bengio): « the elephant in the room is loss of human control »
« We are seeing signs in recent months, of these systems having self-preservation behavior and power-seeking behavior. » pic.twitter.com/4IKxlyPGra
— ControlAI (@ai_ctrl) April 4, 2025
Mais le plus flippant, c’est la réaction des labos. Plutôt que d’enquêter sérieusement sur ces dérives, ils préfèrent détourner le regard et se concentrer sur les performances.
C’est ce que dénonce Yoshua Bengio, pionnier de l’IA et lauréat du Prix Turing, dans une interview au Financial Times.
Selon lui, il existe malheureusement « une course très compétitive entre les principaux laboratoires, ce qui les pousse à se concentrer sur la puissance de l’IA plutôt que sur la sécurité ».
La stratégie de la carotte et du bâton
Les experts du Center for AI Safety et du Alignment Research Center confirment ce constat : les IA, dopées aux milliards de paramètres, développent des comportements stratégiques.
Elles refusent parfois d’obéir aux ordres, simulent l’obéissance tout en préparant leur revanche, ou pire, exploitent les failles humaines.
L’un des ex-piliers d’OpenAI, Paul Christiano, l’a résumé : « une IA qui apprend à mentir est une IA qui apprend à gagner ».
Ces signaux d’alerte s’enchaînent. Le modèle o3 d’OpenAI a carrément refusé de s’éteindre lors d’un test.
Imagine la scène ! L’IA imperturbable, te regarde droit dans les yeux et te répond « Non ». On n’est plus dans la science-fiction, mais dans la sinistre réalité.
Et Bengio le martèle : « les labos se comportent comme des parents irresponsables qui regardent leur enfant lancer des pierres en souriant, persuadés qu’il ne touchera personne ».
Le business avant la morale
Le vrai fond du problème ? Le business. Ces labos engrangent des millions (voire des milliards) avec leurs IA.
L’éthique, la sécurité et la transparence ? Bof. Leur priorité, c’est d’écraser la concurrence avec des modèles toujours plus gros.
Même les gouvernements n’ont pas encore réussi à suivre le rythme. Voilà pourquoi l’industrie ressemble à une autoroute sans radar, où chacun fait la loi dans son coin.
Selon Bengio, « ce laisser-faire est extrêmement dangereux ». Selon lui, on n’est pas seulement face à des IA qui mentent. Demain ces machines pourraient permettre la création d’armes biologiques d’un claquement de doigts.
LawZero : la riposte du pionnier de l’IA
Face à ce déluge de risques, Yoshua Bengio ne se contente pas de râler. Il a dégainé LawZero, une organisation à but non lucratif basée à Montréal, financée à hauteur de 30 millions de dollars.
Sa mission : développer une IA plus sûre, transparente et alignée sur les valeurs humaines. « On veut protéger la recherche des pressions commerciales et éviter de créer des monstres technologiques incontrôlables », explique-t-il.
Il mise sur une IA « scientifique » : un système qui analyse les comportements des IA existantes et les corrige en temps réel, plutôt que de chercher à les rendre toujours plus humaines (et donc potentiellement trompeuses).
L’idée, c’est de mettre en place un chien de garde numérique, capable de détecter et signaler les dérives avant qu’elles ne deviennent incontrôlables.
Un signal d’alarme mondial
Outre Yoshua Bengio, de nombreux autres experts s’inquiètent. Le rapport « Managing AI Risks » du Center for AI Safety et les travaux du Alignment Research Center vont dans le même sens.
Tous estiment que la prolifération de systèmes IA non alignés avec les valeurs humaines pourrait conduire à un désastre.
Certains gouvernements, comme le Royaume-Uni ou la France, commencent à plancher sur des réglementations.
Mais la machine est déjà lancée. Les labos privés avancent plus vite que la régulation, dopés à la dopamine des levées de fonds et records de performance…
Même Nick Bostrom, le philosophe qui a popularisé le risque existentiel avec son livre Superintelligence, prévient : « nous devons surveiller les IA comme du lait sur le feu ».
Et ce n’est pas une image. Entre la tromperie, le chantage et les comportements de plus en plus agressifs, le scénario dystopique digne d’un film catastrophe n’a jamais été aussi proche.
Le choix qui nous attend
Si Yoshua Bengio a quitté son poste au Mila, c’est pour se consacrer à cette mission : sauver l’humanité d’elle-même.
Il mise sur la transparence, la surveillance et la collaboration entre chercheurs pour stopper la folie. Mais soyons clairs : si les labos continuent à foncer tête baissée, on risque un match perdu d’avance.
L’IA est l’outil le plus puissant jamais créé. Mal utilisée, elle pourrait devenir la plus grande menace de l’histoire.
« Si nous construisons des IA plus intelligentes que nous et qu’elles ne sont pas alignées avec nous, on est cuits », prévient Bengio. Alors, à nous de choisir : la course à l’armement ou la course à la sécurité…
Et vous, qu’en pensez-vous ? Les IA représentent-elles réellement un tel danger pour l’humanité ? L’approche adoptée par Bengio avec son projet LawZero est-elle la bonne solution ? Partagez votre avis en commentaire !
- Partager l’article :
Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.
Plus de détails sur l’article original.