À ses débuts, la solution permettait de concocter, de préparer et de sauvegarder des prompts pour les flux de travail liés à la cybersécurité, d’intégrer le copilote avec les bases de connaissances, le SIEM et le XDR de Microsoft, les logs d’audit d’Entra (ex-Azure Active Directory), Intune et des systèmes tiers.
Il s’agissait notamment d’accélérer l’écriture de scripts KQL (Kusto Query Language, à ne pas confondre avec Kafka Query Language), un DSL utilisé dans plusieurs produits de supervision et de cybersécurité de Microsoft.
Des agents IA au service des équipes cyber
« Nous sommes maintenant en plein dans l’ère de l’IA agentique en matière de sécurité », avance Vasu Jakkal (en photo en haut de cette page), vice-présidente de Microsoft Security, lors de la conférence parisienne. « Nous avons annoncé 11 agents, dont six “first party” [développés par Microsoft], mais aussi cinq agents pour Security Copilot développés par nos partenaires de l’écosystème, qui s’attaquent à certains des défis les plus difficiles et les plus urgents ».
Ainsi, Microsoft Defender aura le droit à un agent de tri des alertes liées au phishing. Celui-ci serait capable « d’identifier les véritables cybermenaces et les fausses alertes ». Dans Microsoft Purview, un agent triera les alertes concernant la perte de données et les risques internes, tout en soulignant les éléments à traiter à priorité.
Dans Entra ID, un agent sera consacré à l’optimisation des accès conditionnels. Il « surveille les nouveaux utilisateurs ou applications non couvertes par les politiques existantes, identifie les mises à jour nécessaires pour combler les lacunes en matière de sécurité et recommande des solutions rapides que les équipes chargées de l’identité peuvent appliquer d’un simple clic ».
Dans Intune, un agent devrait émettre des recommandations sur la remédiation des vulnérabilités et des mises à jour à effectuer en priorité sur les machines Windows.
Enfin, Security Copilot permettra de réaliser un briefing sur le renseignement des menaces en fonction de la surface d’attaque de l’entreprise.
« Contrairement à l’automatisation traditionnelle qui est statique et rigide, les agents apprennent, s’adaptent et évoluent en continu, s’améliorant à chaque interaction, le tout basé sur la plateforme Security Copilot. » Vasu JakkalVice-présidente, Microsoft Security
Tanium, OneTrust, Aviatrix, BlueVoyant et Fletch proposeront des agents spécifiques à leur solution respective. Analyse de la violation de données (OneTrust), détermination de la cause profonde d’une interruption de connexion VPN (Aviatrix), optimisation des opérations du SOC (BlueVoyant), tri des alertes (Tanium et Fletch)… les fonctionnalités sont similaires.
« Les agents automatisent les tâches chronophages et à fort volume afin que votre équipe puisse se concentrer sur les menaces les plus critiques », vante Vasu Jakkal. « Contrairement à l’automatisation traditionnelle qui est statique et rigide, les agents apprennent, s’adaptent et évoluent en continu, s’améliorant à chaque interaction, le tout basé sur la plateforme Security Copilot ».
Ce type de solution permettrait à la fois de combler le manque de personnel et d’attirer les talents.
IA et sécurité : Microsoft va dans la bonne direction, selon le RSSI d’Alstom
Les agents intégrés dans Security Copilot intéressent Stéphane Détruiseux, RSSI et vice-président des technologies chez Alstom. La multinationale française spécialisée dans la fabrication d’équipements ferroviaires a largement déployé les briques de sécurité de Microsoft et est l’un des primoadoptants de Security Copilot.
« Nous voulions l’adopter très rapidement parce que nous utilisions Sentinel depuis un moment », explique Stéphane Détruisieux lors de la conférence principale du Microsoft AI Tour. « Honnêtement, nous avons découvert que la première étape était un peu décevante parce qu’elle permettait [seulement] d’optimiser les rapports du SOC ».
Mais, selon le responsable, il n’y avait pas encore de fonctionnalité pour augmenter les capacités de détection des menaces.
« Les allers-retours, les discussions et l’évolution que vous avez réalisée nous ont amenés à regarder cela non seulement comme une manière d’automatiser ou de naviguer plus facilement dans les données, mais comme un produit de cybersécurité », déclare-t-il en s’adressant à Vasu Jakkal.
Et à la vice-présidente Microsoft Security de répondre que ce type de retours sont utiles et qu’ils le resteront. De fait, les agents intégrés à Microsoft Copilot Security seront en préversion à partir du 27 avril.
Renforcer la posture de sécurité pour protéger les applications d’IA générative
L’autre volet sur lequel se penche l’équipe de Vasu Jakkal n’est autre que la sécurisation de l’IA elle-même.
Le service CSPM (Cloud Security Posture Management) de Microsoft Defender couvrait déjà les grands modèles de langage hébergés sur Microsoft Azure et AWS. Le groupe étend cette couverture à Google Vertex AI et « à tous les modèles du catalogue Azure AI Foundry ». En préversion à partir de ce mois de mai, cela inclura les modèles Gemini, Gemma, Meta, Llama, Mistral et les modèles fine-tunés.
Une fois connecté, Defender for Cloud « découvre automatiquement » les charges de travail IA, les vulnérabilités dans les images de conteneurs des librairies applicatives (TensorFlow, PyTorch, LangChain), les problèmes de configuration IaC et renseigne les chemins d’attaque possibles.
En préversion, un tableau de bord dans Microsoft Defender va permettre d’observer l’ensemble des ressources IA et les données poussées aux modèles.
« Nous introduisons également de nouvelles détections et protections contre les injections de prompt », ajoute Vasu Jakkal. Plus spécifiquement, l’éditeur a mis en place des règles dans son XDR pour détecter et répondre aux injections directes et indirectes, aux accès non autorisés, au DDoS, aux tentatives d’exfiltration de données, à l’empoisonnement des jeux de données et au « hijacking » de modèles. Pour l’instant, ces fonctions sont majoritairement accessibles en préversion. Elles seront en disponibilité générale en mai.
Microsoft a par ailleurs concocté une liste de recommandations pour anticiper des scénarios d’attaque sur des applications d’IA générative.
Crédits photo : Gaétan Raoul, lors du Microsoft AI Tour à Paris, 2025