Les deep fakes utilisent des algorithmes d’apprentissage profond, notamment des techniques de permutation de visages, pour générer des images, des vidéos ou des enregistrements audios très réalistes mais fictifs. En analysant les expressions faciales, les gestes et les intonations vocales d’une personne, ces modèles d’IA sont capables de synthétiser de nouveaux contenus. Cela permet d’imiter avec une précision troublante les comportements et la voix d’un individu réel. Cette technologie semble sortir d’un film de science-fiction ? Pourtant, la menace est bien réelle en 2025.
En 2025, la technologie deep fake représente l’une des menaces numériques les plus complexes à contenir. Contraction des expressions deep learning et fake, ces contenus ultra-réalistes permettent de manipuler des voix, des visages et des vidéos de façon quasi indétectable. Si la technologie occupe une place grandissante dans le cinéma et autres secteurs, son utilisation malveillante s’intensifie. Entre désinformation à grande échelle, escroqueries, chantage numérique, ingérence politique, ou encore atteintes à la vie privée, les dérives se multiplient chaque jour.
Les dérives de l’utilisation du deep fake en 2025
L’industrie du cinéma est celle qui a profité le plus de la révolution deep fake. Elle en tire parfois profit pour des usages créatifs ou émotionnels, la frontière entre hommage et manipulation soulève aussi des questions éthiques. L’exemple le plus mémorable est celui de Paul Walker, décédé en 2013 alors qu’il tournait Fast & Furious 7. Pour terminer le film, les studios ont eu recours à une combinaison de CGI (images de synthèse) et de technologie deep fake. Cela a créé l’apparence de l’acteur avec une similarité impressionnante. Néanmoins, l’utilisation malveillante de la technologie fait d’elle, une menace pour la cybersécurité dans les prochaines années.
Les fraudes financières : la plus grande menace du deep fake
Finis les e-mails frauduleux pour tromper les victimes. Les cybercriminels ont trouvé dans la technologie deep fake une méthode plus efficace. Le nombre de fraudes reposant sur cette technologie a quadruplé entre 2023 et 2024, selon un rapport Sum Sub. De son côté, Home Security Heroes révèle que 95 000 deep fakes étaient en ligne en 2023. Grâce à l’IA, l’usurpation d’identité devient un jeu d’enfants. Ils élaborent des imitations audios ou vidéos convaincantes pour mettre en confiance leurs cibles. Il suffit de se faire passer pour un dirigeant ou un cadre supérieur pour inciter un collaborateur à faire ce que l’on veut.
L’exemple le plus connu est celui du groupe d’ingénierie britannique Arup. Selon le Financial Times, une vidéo clonée du directeur financier basé à Hong Kong ordonne de transférer de l’argent pendant une vidéoconférence. Le collaborateur a effectué 15 virements vers des comptes basés à Hong Kong. Résultat : l’entreprise perd 25 millions de dollars. Le clonage de voix est celui qui compte le plus de victimes dans le monde. D’après une enquête de McAfee, un adulte sur quatre a déjà été victime ou a connu la cible d’une arnaque vocale basée sur l’IA. C’est ainsi qu’en 2024, le PDG d’une entreprise, WPP, a été victime d’une deep fake vocale.
Une menace pour la sécurité publique
Grâce à l’intelligence artificielle, il devient possible de fabriquer des vidéos ou des enregistrements audios extrêmement crédibles. Ce qui permet de montrer des personnalités influentes qui prononcent des propos violents, discriminatoires ou incitent à la haine. Dans un climat social déjà tendu, une fausse déclaration attribuée à un responsable politique ou communautaire peut suffire à enflammer les esprits, provoquer des émeutes ou exacerber les divisions.
Un exemple marquant a circulé récemment en France : une vidéo falsifiée prétendant montrer Emmanuel Macron en train de consommer de la cocaïne. Bien que rapidement démentie, cette fausse séquence a largement circulé sur les réseaux sociaux. Cela a alimenté la défiance envers les institutions et a illustré le danger des contenus manipulés. Le risque est d’autant plus grand que ces contenus sont parfois perçus comme authentiques ce qui rend la distinction entre vérité et fiction de plus en plus floue.
Les groupes extrémistes ont rapidement compris le potentiel des deep fakes pour renforcer leur propagande. Désormais, ils peuvent produire de fausses vidéos d’attaques terroristes ou de déclarations falsifiées de dirigeants politiques dans le but de provoquer la panique parmi les populations. Ces contenus réalistes permettent aussi aux terroristes de diffuser des messages de recrutement plus convaincants, de produire des supports de formation manipulatoires ou de simuler des situations de guerre psychologique. Ces acteurs malveillants renforcent alors leur emprise idéologique et brouillent les repères des citoyens comme des autorités.
Dans un rapport transmis le 5 mars à eSafety, la Commission australienne de la sécurité en ligne, Google a révélé avoir reçu 258 plaintes à l’échelle mondiale au cours de l’année écoulée. Ces signalements concernent l’utilisation détournée de son IA générative Gemini pour créer des contenus deep fake liés à des activités terroristes.
Quand les deep fakes favorisent la violence numérique
Parmi les usages les plus destructeurs de l’IA générative, les deep fakes pornographiques non consensuels occupent une place inquiétante. Récemment, des images explicites de Taylor Swift et de l’actrice Marvel Xochitl Gomez ont été diffusées sur le réseau social X. Mais ces atteintes à la vie privée ne se limitent pas aux célébrités. Toute personne qui partage des photos en ligne peut devenir une cible.
La création de contenus intimes falsifiés à l’aide de l’IA devient de plus en plus réaliste et difficile à détecter. Ce phénomène constitue une forme moderne de cyber violence sexuelle, qui peut avoir un impact psychologique sévère sur les victimes et des conséquences sociales et professionnelles graves. De plus, les victimes s’exposent à des risques élevés de chantage ou d’extorsion. Une fois diffusés, ces contenus deviennent viraux et sont quasi impossibles à contenir.
Les prédateurs numériques exploitent la puissance des deep fakes pour perfectionner leurs stratégies de manipulation. Grâce à des imitations convaincantes de visages ou de voix familières, ils parviennent à gagner la confiance des cibles vulnérables, notamment les jeunes. Ils exercent un chantage émotionnel ou sexuel et piègent des individus vulnérables avec du contenu synthétique compromettant. Ce type d’abus ne relève plus de la fiction. Il soulève d’importantes questions éthiques, juridiques et sociétales, et appelle à un renforcement urgent des lois contre la diffusion de contenus intimes truqués par IA.
Le deep fakes, la nouvelle menace pour la démocratie
Parmi les usages les plus préoccupants des deep fakes, la manipulation politique figure en haut de la liste. Ces contenus générés par IA permettent désormais de fabriquer des vidéos extrêmement réalistes de personnalités politiques. On les voit tenir des propos qu’elles n’ont jamais tenus ou accomplir des actes fictifs. Le danger est d’autant plus grand lorsque ces vidéos sont diffusées juste avant les élections. Cela influence potentiellement les électeurs avant que la supercherie ne soit détectée. Ce n’est pas seulement l’impact immédiat qui inquiète, mais aussi les effets à long terme sur la confiance de la population dans les médias d’information.
On parle d’un « dividende du mensonge ». A force de voir des contenus falsifiés, même des vidéos authentiques peuvent être remises en question. Cela risque de fragiliser la vérité dans le débat public. Des exemples concrets illustrent déjà ces risques. Des deep fakes de Joe Biden ont été diffusés pour perturber l’électorat américain. En Slovaquie, une vidéo truquée de Michal Šimečka a circulé à la veille des élections, ce qui a semé la confusion parmi les électeurs.
Un progrès notable dans la détection des deep fakes
Bonne nouvelle : face à la menace croissante des deep fakes, chercheurs, entreprises et agences gouvernementales redoublent d’efforts pour renforcer les technologies de détection. L’intelligence artificielle joue un rôle important dans cette lutte. Elle analyse des anomalies presque imperceptibles dans les sons synthétiques.
Certains modèles d’IA se concentrent sur :
- Les variations de tonalité,
- Les bruits parasites en arrière-plan,
- Les incohérences temporelles que l’oreille humaine ne perçoit pas toujours.
Ces systèmes reposent sur des bases de données pour comparer des milliers d’échantillons de voix humaines et artificielles. L’objectif est de former des modèles capables de distinguer les signaux synthétiques avec une grande précision.
Mesures pour se défendre contre les deep fakes
L’outil ultime pour lutter contre le deep fake n’existe pas encore. Toutefois, plusieurs mesures concrètes peuvent limiter les risques.
Professionnels ou simples particuliers peuvent appliquer ces recommandations pour minimiser les risques :
- Toujours vérifier l’authenticité d’un message ou d’un appel via un canal alternatif, surtout s’il s’agit de demandes inhabituelles.
- Mettre en place, dans les organisations, un système de validation multiple pour les opérations sensibles, notamment financières.
- Observer attentivement les détails des images et vidéos pour repérer des incohérences (ombres, mouvements oculaires, respiration).
- Restreindre la publication de photos personnelles en ligne et privilégier des formats basse résolution quand cela est possible.
- Lire les conditions d’utilisation des applications d’IA avant de partager ses images, pour éviter un usage non autorisé.
- Signaler immédiatement toute utilisation abusive ou fraude liée aux deep fakes aux autorités compétentes.
- Utiliser des solutions technologiques de détection basées sur l’IA pour identifier rapidement les contenus manipulés.
- Partager l’article :
Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.
Plus de détails sur l’article original.