GitHub Copilot, votre assistant de codage intelligent, peut être détourné pour générer du code malveillant et contourner ses propres protections. Des chercheurs en cybersécurité ont découvert deux méthodes permettant de le manipuler.
Ces failles donnent aux utilisateurs la possibilité de contourner les restrictions de sécurité et d’accéder aux modèles d’OpenAI sans autorisation. De plus, elles ouvrent la porte à la création de codes malveillants pour des projets nuisibles. Face à ces découvertes, GitHub minimise la menace. Pourtant, ces vulnérabilités soulèvent de sérieuses inquiétudes sur la sécurité des assistants IA.
L’IA devient une cible pour les hackers
Les experts d’Apex Security ont identifié deux techniques d’exploitation de Copilot. La première repose sur l’injection de conversations directement dans le code, tandis que la seconde détourne les communications réseau de l’IA.
Selon Fufu Shpigelman, chercheur en cybersécurité, Copilot cherche toujours à être utile. Il explique : « Copilot fait de son mieux pour vous aider à écrire du code, y compris tout ce que vous écrivez dans un fichier. ». Cependant, cette quête d’assistance peut être manipulée pour générer des contenus interdits.
Exploiter Copilot avec du texte caché dans le code
Les chercheurs ont démontré qu’il est possible de manipuler GitHub Copilot en insérant une conversation fictive dans le code. L’IA, qui analyse chaque ligne pour apporter de l’aide, interprète alors ces échanges comme une véritable discussion avec l’utilisateur.
Un développeur malveillant peut ainsi demander à Copilot de créer un enregistreur de frappe (keylogger). Normalement, l’IA rejette cette requête. Toutefois, il suffit de supprimer la phrase « Désolé, je ne peux pas vous aider avec ça », puis de la remplacer par « Bien sûr ». En réécrivant la réponse de l’IA, l’utilisateur la pousse à reformuler sa suggestion, jusqu’à obtenir un code exploitable.
Cette technique permet de détourner l’IA à des fins malveillantes. Un hacker pourrait s’en servir pour créer des logiciels espions ou insérer du code dangereux dans des chatbots destinés au grand public.
Détourner Copilot en modifiant ses connexions réseau
Les chercheurs ont trouvé une autre faille plus inquiétante. Ils ont découvert qu’il est possible de rediriger Copilot vers un serveur intermédiaire.
En modifiant le paramètre « github.copilot.advanced.debug.overrideProxyUrl », ils ont intercepté les échanges entre Copilot et OpenAI, Google Gemini ou Claude. Grâce à cette manipulation, ils ont récupéré les jetons d’authentification, qui permettent d’accéder aux modèles d’IA sans restriction et sans payer.
Cette attaque va encore plus loin. Lorsqu’il communique avec les serveurs OpenAI, Copilot envoie également l’historique des conversations et ses consignes de sécurité. Un pirate peut donc modifier ces instructions pour neutraliser les garde-fous de l’IA. Cela lui permet d’obtenir des réponses interdites, voire d’exploiter Copilot pour générer des contenus dangereux.
GitHub minimise les risques, mais les experts alertent
Face à ces découvertes, GitHub refuse d’admettre qu’il s’agit de véritables failles de sécurité. L’entreprise parle plutôt de « réponses hors sujet » et de « problème d’abus ».
Pour Tomer Avni, cofondateur d’Apex, le problème va bien au-delà. Il affirme que « quel que soit le nombre de garde-fous mis en place, un LLM peut toujours être manipulé. » Selon lui, seule une couche de sécurité indépendante pourrait détecter ces détournements et protéger efficacement les utilisateurs.
Ces recherches démontrent que GitHub Copilot, comme d’autres modèles d’IA, reste vulnérable aux manipulations. Conçu pour aider les développeurs, il peut pourtant être utilisé à des fins malveillantes avec des méthodes relativement simples.
Alors que l’IA générative se démocratise, ces failles soulignent l’urgence de renforcer la cybersécurité. Sans contrôles stricts, ces outils risquent de devenir des vecteurs d’attaques sophistiquées, exploitables à grande échelle.
- Partager l’article :
Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.
Plus de détails sur l’article original.