Skip to content
Retour aux guides
Guide

Sensibiliser vos équipes au phishing IA et aux deepfakes : guide 2026

Comment les modèles d'IA générative transforment le phishing, les arnaques vocales et les fraudes en visioconférence. Méthodes concrètes pour former vos équipes aux nouvelles techniques de social engineering.

Thomas Ferreira 17 min de lecture

Votre organisation filtre les emails de phishing grossiers depuis des années. Vos équipes reconnaissent les fautes d’orthographe, les liens suspects, les expéditeurs étrangers. Ces réflexes, acquis avec effort, sont en train de devenir insuffisants.

L’IA générative a changé les règles du jeu. Pas progressivement — radicalement. Les emails de phishing rédigés par des modèles de langage ne contiennent plus de fautes. Ils sont contextuels, personnalisés, rédigés dans un français parfait. Et la menace ne s’arrête pas aux emails : les voix se clonent en quelques secondes, les visages se falsifient en temps réel lors d’appels vidéo.

Ce guide, rédigé par Thomas Ferreira (CISSP, GCFA) à partir des données de threat intelligence collectées sur les campagnes analysées en 2025-2026, vous donne une vision claire de ces nouvelles techniques et des méthodes concrètes pour adapter la formation de vos équipes.

Comment l’IA a transformé le phishing

Pendant une décennie, les campagnes de phishing de masse se distinguaient par trois marqueurs : une grammaire approximative, des formulations génériques, et une incapacité à personnaliser au-delà du prénom. Ces limitations venaient des barrières linguistiques et du coût de production des emails frauduleux.

Les modèles de langage de grande taille (GPT-4, Claude, Gemini) ont supprimé ces trois contraintes simultanément.

La grammaire parfaite dans toutes les langues. Un attaquant russophone, chinois ou nigérian peut aujourd’hui générer un email en français impeccable, avec les formules de politesse appropriées au contexte professionnel français, le vocabulaire sectoriel exact, et le ton attendu d’un dirigeant ou d’un fournisseur. Les assistants IA ne font pas de fautes d’accord, n’oublient pas les accents, ne confondent pas les temps. L’indicateur de détection le plus utilisé par vos employés — « il y a des fautes, c’est louche » — ne fonctionne plus.

La personnalisation à l’échelle. Le spear phishing — phishing ciblé et personnalisé — était autrefois réservé aux attaques contre des cibles de haute valeur, car il nécessitait un travail de recherche manuel. L’IA automatise ce travail. En quelques secondes, un modèle peut ingérer le profil LinkedIn d’un employé, le site web de son entreprise, ses publications récentes, et générer un email qui mentionne son projet en cours, son client du moment, ou son dernier déplacement. À l’échelle, cela signifie du spear phishing de masse : des milliers d’emails hyperpersonnalisés générés automatiquement pour chaque cible de la liste.

Le contenu polymorphe qui contourne les filtres. Les filtres anti-spam utilisent des signatures de contenu pour détecter les emails frauduleux connus. L’IA peut générer des centaines de variantes d’un même email de phishing, toutes sémantiquement équivalentes mais textuellement différentes, de sorte qu’aucune variante ne correspond aux signatures existantes. Chaque victime reçoit une version unique. Les filtres apprennent d’une variante au moment où l’attaque sur cette variante est déjà terminée.

Le résultat pratique : un email de phishing généré par IA, envoyé depuis un domaine légèrement modifié, contenant un lien vers une page de clonage convaincante, a une probabilité significativement plus élevée d’aboutir qu’une campagne manuelle équivalente d’il y a deux ans.

Le deepfake vocal : la nouvelle fraude au président

La fraude au président — ou BEC — existe depuis la fin des années 2000. Un attaquant usurpe l’identité d’un dirigeant par email pour déclencher un virement frauduleux. Les procédures de vérification téléphonique ont progressivement réduit l’efficacité de ce vecteur.

Le clonage vocal a rendu ces procédures insuffisantes.

L’affaire Arup — Hong Kong, 2024. En janvier 2024, un employé du cabinet d’ingénierie britannique Arup a reçu un email demandant le transfert urgent de 200 millions de dollars de Hong Kong. Méfiant, il a demandé à participer à un appel vidéo avec le directeur financier et plusieurs autres cadres de l’entreprise avant d’exécuter quoi que ce soit. La conférence a eu lieu. Il a reconnu les visages et les voix. Il a transféré 25 millions de dollars.

Tous les participants à cet appel étaient des deepfakes — des reconstitutions en temps réel du directeur financier et des autres cadres à partir de contenus vidéo et audio publiquement disponibles. L’employé n’avait commis aucune erreur de vigilance classique. Il avait appliqué un réflexe de vérification. Ce réflexe était devenu insuffisant.

Comment fonctionne le clonage vocal. Les outils commerciaux actuels de voice cloning (ElevenLabs, Resemble AI, et plusieurs modèles open source) permettent de générer une voix synthétique convaincante à partir d’un échantillon de 3 à 10 secondes d’audio. Pour un cadre dirigeant dont la voix apparaît dans des vidéos YouTube, des podcasts sectoriels, des présentations de conférence ou des interviews médiatiques, l’acquisition de l’échantillon prend quelques minutes. La génération de l’audio frauduleux, quelques secondes supplémentaires.

La voix clonée peut être lue comme un fichier audio préenregistré lors d’un appel téléphonique, ou utilisée pour générer en temps quasi réel des réponses vocales lors d’une conversation. Cette deuxième technique, encore imparfaite mais en progression rapide, est ce qui a rendu l’attaque contre Arup possible.

Le vishing assisté par IA. Au-delà de la fraude au président, le clonage vocal alimente une nouvelle vague de vishing ciblant les équipes RH et finance. Un appel prétendument passé par le PDG pour demander un virement urgent, une modification de virement bancaire, ou l’extraction de données confidentielles : ces scénarios existent depuis longtemps, mais nécessitaient autrefois d’appeler depuis un numéro ressemblant au numéro du dirigeant et d’improviser la conversation. La voix clonée supprime le besoin d’improvisation et améliore la crédibilité.

Le deepfake vidéo : les faux appels en visioconférence

L’affaire Arup a démontré que la vérification par appel vidéo — longtemps présentée comme la réponse définitive à la fraude vocale — n’est plus une garantie suffisante.

La technique des faux appels vidéo. Le deepfake vidéo en temps réel fonctionne par superposition : la caméra capture le visage de l’attaquant, un modèle de génération remplace ce visage par celui de la cible en temps réel, et le flux vidéo résultant est injecté dans l’application de visioconférence. Des outils comme DeepFaceLive, auxquels s’ajoutent désormais des services plus accessibles, permettent cette manipulation sur un matériel grand public.

La qualité de la substitution dépend de la quantité de données d’entraînement disponibles sur la cible — principalement des vidéos publiques — et de la puissance de calcul disponible. Pour un cadre dont l’image est abondamment présente sur LinkedIn, YouTube ou des sites d’entreprise, la quantité de données nécessaire est facilement atteinte.

Teams, Zoom, Google Meet : même vulnérabilité. Ces plateformes ne disposent d’aucun mécanisme d’authentification biométrique du flux vidéo. Elles ne peuvent pas distinguer un flux vidéo authentique d’un flux manipulé. La vérification doit donc être procédurale, pas technique.

Les signaux de détection actuels. Sans outil de détection spécialisé, la détection repose sur des anomalies visuelles que les deepfakes actuels produisent parfois : mouvements oculaires légèrement non naturels, transitions anormales au niveau de la ligne des cheveux, latence entre les mouvements des lèvres et l’audio, comportement inhabituel lors de mouvements brusques de la tête. Ces indices sont subtils, inconstants, et ne constituent pas une méthode de détection fiable. La procédure de vérification hors-bande reste la seule réponse opérationnelle actuelle.

Les emails de phishing générés par IA : pourquoi ils sont plus difficiles à détecter

Un email de phishing généré par IA présente un profil de risque différent des campagnes classiques, sur plusieurs dimensions que vos équipes doivent comprendre.

Absence de fautes. C’est le changement le plus immédiat. Des années de sensibilisation ont ancré chez les employés l’association « fautes = phishing ». Cette heuristique était correcte quand les attaquants étaient des acteurs non francophones opérant manuellement. Elle est devenue contre-productive : un email parfaitement rédigé bénéficie désormais d’un crédit de légitimité qu’il ne devrait peut-être pas avoir.

La conscience du contexte. L’IA peut intégrer des informations contextuelles dans l’email : le nom du dirigeant de l’entreprise cible, son secteur d’activité, un événement récent dans l’actualité sectorielle, ou des informations publiques sur l’organisation. Cette contextualisation rend l’email crédible dans sa situation spécifique — exactement ce que faisait le spear phishing manuel, mais automatisé à grande échelle.

Le scraping LinkedIn comme source de personnalisation. LinkedIn est la principale source de données pour la personnalisation des attaques de spear phishing. Le nom du responsable hiérarchique, l’intitulé exact du poste, les projets mentionnés dans le profil, les connexions communes, les publications récentes : toutes ces informations sont exploitables pour rendre un email frauduleux convaincant. Un email qui mentionne « votre projet de migration vers Azure dont vous avez parlé lors du dernier comité » est nettement plus difficile à identifier comme frauduleux qu’un message générique.

La disparition des vecteurs de vérification heuristique. La vérification classique d’un email suspect repose sur plusieurs points de contrôle : la grammaire, la cohérence du ton, la pertinence du contexte, le caractère inhabituel de la demande. L’IA neutralise les trois premiers. Seul le quatrième reste pertinent — et il n’est pertinent que si l’employé sait que la procédure habituelle pour ce type de demande est différente de ce que l’email suggère.

La bonne nouvelle : les vecteurs techniques de détection — l’adresse de l’expéditeur, l’URL cible, le domaine d’envoi — restent pertinents. L’IA ne peut pas facilement créer un compte légitime chez votre fournisseur cloud ou inscrire un domaine identique à celui de votre partenaire. La vérification technique de l’expéditeur et du lien garde toute sa valeur.

Le shadow AI dans l’entreprise : une surface d’attaque émergente

La menace liée à l’IA ne vient pas uniquement de l’extérieur. L’usage non contrôlé d’outils d’IA générative en interne crée de nouvelles vulnérabilités.

Ce que vos employés envoient à ChatGPT. Sans politique d’usage formelle, les employés utilisent les outils d’IA grand public pour des tâches professionnelles quotidiennes : rédiger un email à un client, synthétiser un contrat, reformuler un rapport financier, préparer une proposition commerciale. Pour réaliser ces tâches, ils soumettent des données réelles à des systèmes externes dont les conditions d’utilisation permettent souvent l’usage des données soumises pour l’entraînement de modèles futurs.

Les données sensibles concernées. Les catégories de données les plus fréquemment exposées dans les cas de shadow AI documentés : données clients (noms, contacts, volumes d’affaires), données financières (chiffres de CA, marges, prévisions), données RH (évaluations, salaires, plans de licenciement), propriété intellectuelle (code source, formulations brevetables, stratégies). Ces données peuvent se retrouver dans les historiques de conversation, les journaux des fournisseurs, ou les données d’entraînement — avec un niveau de contrôle nul de votre côté.

Le risque de social engineering par IA enrichie. Un attaquant qui compromet un compte ChatGPT ou un outil d’IA métier utilisé par vos employés peut accéder à l’historique des conversations. Cet historique constitue une source de renseignement exceptionnelle pour préparer des attaques de social engineering ciblées : vocabulaire interne, projets en cours, relations entre collaborateurs, tensions organisationnelles.

Pourquoi une politique est nécessaire, pas seulement une interdiction. Interdire l’usage des outils IA sans proposer d’alternative crée un shadow AI souterrain, plus difficile à surveiller qu’un usage encadré. La bonne approche consiste à autoriser explicitement des outils validés (Microsoft Copilot avec vos données en tenant M365, ou des solutions souveraines françaises), à définir les catégories de données ne pouvant jamais être soumises à un outil externe, et à former les équipes sur ces règles — pas seulement à les publier dans un document interne que personne ne lit.

Consultez notre guide sur la détection IA pour les approches techniques complémentaires.

Comment former vos équipes aux menaces IA

La sensibilisation aux menaces IA ne remplace pas votre programme de simulation existant. Elle l’enrichit avec de nouveaux scénarios, de nouveaux réflexes, et une procédure de vérification renforcée.

Mettre à jour les scénarios de simulation. Vos campagnes de simulation de phishing doivent maintenant inclure des emails rédigés par IA : sans fautes, contextualisés, personnalisés avec des informations réelles issues de LinkedIn. Si vos employés ne sont jamais confrontés à ce type d’email en simulation, ils ne développeront pas les bons réflexes pour les détecter en situation réelle. Voyez notre bibliothèque de scénarios de simulation pour les modèles de scénarios IA disponibles.

La procédure de vérification hors-bande. C’est le réflexe le plus important à ancrer, et le plus contre-intuitif. Toute demande financière ou sensible reçue par email, Teams, SMS, ou appel téléphonique doit être vérifiée par un deuxième canal — un canal distinct de celui utilisé pour la demande initiale. La règle opérationnelle est simple : rappeler sur le numéro enregistré dans l’annuaire interne, pas sur le numéro fourni dans le message. Jamais sur le numéro fourni dans le message. Ni dans un email, ni dans un SMS, ni dans un appel vocal.

Cette procédure neutralise la majorité des attaques IA, y compris les deepfakes vocaux : un attaquant peut cloner la voix, mais ne peut pas rediriger un rappel vers le numéro enregistré dans votre répertoire d’entreprise.

Les mots de code entre équipes clés. Pour les équipes finance, RH, direction et IT, un mot de code confidentiel constitue un second facteur d’authentification lors des appels sensibles. Ce mot de code est établi en face à face ou par un canal sécurisé, jamais par email. Il est modifié périodiquement. Lors d’un appel vidéo ou vocal demandant une action sensible, le collaborateur demande le mot de code avant d’agir. Un deepfake ou un attaquant n’a pas accès à ce mot de code s’il n’a pas compromis les échanges internes.

La confirmation hors-bande pour les décisions financières. Toute instruction de virement, modification de coordonnées bancaires, ou transfert de données sensibles doit être confirmée par au moins deux personnes, via au moins deux canaux différents. Cette règle s’applique même si la demande semble venir du PDG, même si vous l’avez vu en visioconférence, même si la voix vous semble authentique.

Former sur les indices de détection des deepfakes. Ces indices sont imparfaits et évoluent, mais ils méritent d’être connus : synchronisation labiale approximative, bordures du visage irrégulières lors des mouvements, comportement non naturel des yeux, arrière-plan incohérent avec le contexte habituel. Ces marqueurs ne remplacent pas une procédure de vérification, mais ils peuvent déclencher un doute justifiant la vérification.

Sensibiliser sur le shadow AI. Incluez dans vos micro-formations un module explicite sur les risques liés aux outils IA non validés : quelles données ne doivent jamais être soumises à un outil externe, comment reconnaître un outil validé d’un outil non validé, que faire si on réalise avoir partagé des données sensibles par erreur. Le ton doit être pédagogique, pas punitif — l’objectif est que l’employé signale les incidents, pas qu’il les dissimule.

Ce que nophi.sh apporte face aux menaces IA

La plupart des plateformes de simulation de phishing ont été conçues avant la généralisation des outils d’IA générative. Les scénarios disponibles reflètent les techniques d’attaque de 2020-2022. Face aux menaces actuelles, cette limite est opérationnelle.

Des scénarios de simulation adaptés aux menaces IA. Notre bibliothèque de scénarios intègre des templates de phishing rédigés par IA : emails fluides, personnalisés avec des données réalistes issues de profils LinkedIn types, contextualisés au secteur de l’entreprise simulée. Ces scénarios exposent vos équipes aux caractéristiques réelles des campagnes actuelles — pas à des emails de 2019 avec des fautes d’orthographe.

Consultez notre solution de simulation de phishing pour les options de configuration des scénarios IA.

Des micro-formations sur la sensibilisation aux deepfakes. Les modules de formation déclenchés après un clic en simulation incluent désormais des contenus spécifiques sur la fraude deepfake : explication du fonctionnement du clonage vocal, exemples de cas réels dont l’affaire Arup, exercices pratiques sur les procédures de vérification hors-bande, quiz sur les indices de détection.

Une bibliothèque de scénarios mise à jour. Le paysage des menaces IA évolue rapidement. Notre bibliothèque est actualisée trimestriellement pour refléter les nouvelles techniques documentées par notre équipe de threat intelligence. Les scénarios intègrent les vecteurs émergents : quishing, smishing IA, faux portails de connexion générés automatiquement, usurpation de marque par IA générative.

Pour les entreprises souhaitant aller plus loin sur la détection technique des menaces IA dans leur infrastructure email, consultez notre solution de détection IA et notre outil de test de sécurité email.

Questions fréquentes

Comment distinguer un email de phishing rédigé par IA d’un email légitime ?

Les marqueurs classiques (fautes d’orthographe, formulations maladroites) ont disparu. Les signaux pertinents sont désormais différents : une urgence injustifiée, une demande sortant des processus normaux, une adresse expéditeur qui ne correspond pas exactement au domaine attendu, un lien qui pointe vers un domaine légèrement différent du site officiel. La vérification ne se fait plus par lecture du style, elle se fait par vérification du processus : est-ce que cette demande passe normalement par ce canal ?

Trois secondes d’audio suffisent vraiment à cloner une voix ?

Oui, selon les recherches publiées en 2024-2025 sur les modèles de voice cloning. Des outils commerciaux comme ElevenLabs ou des modèles open source permettent de générer une voix convaincante à partir d’un échantillon de 3 à 10 secondes. Des vidéos LinkedIn, des présentations publiques, des podcasts, des interviews — tout contenu audio accessible en ligne constitue un vecteur d’acquisition d’échantillon. Les cadres dirigeants dont la voix est publiquement disponible sont les plus exposés.

Comment détecter un deepfake vidéo pendant un appel Teams ou Zoom ?

Les outils de détection automatique en temps réel n’ont pas encore atteint un niveau de fiabilité opérationnelle suffisant pour une utilisation courante en entreprise. La méthode la plus fiable reste procédurale : tout appel vidéo demandant une action sensible doit être confirmé par un second canal. Demandez à votre interlocuteur de vous rappeler depuis le numéro enregistré dans votre répertoire d’entreprise, ou d’envoyer une confirmation par email depuis son adresse officielle. Les deepfakes vidéo peuvent simuler l’apparence et la voix, pas les accès email.

L’affaire Arup en 2024 est-elle un cas isolé ou révèle-t-elle une tendance ?

Ce cas est représentatif d’une tendance documentée. La fraude en visioconférence deepfake a progressé de façon significative depuis 2023, d’abord dans les secteurs financiers en Asie, puis en Europe. Des tentatives similaires — parfois abouties, souvent non rendues publiques — ont été signalées à l’ANSSI et à Europol. La tendance s’explique par la baisse du coût des outils de génération vidéo et la disponibilité croissante de contenus visuels des dirigeants sur les réseaux professionnels.

Le shadow AI représente-t-il un risque de conformité RGPD ?

Oui, directement. Lorsqu’un employé soumet des données personnelles de clients, de collaborateurs ou de partenaires à un outil d’IA externe sans base légale, cela constitue un traitement de données personnelles non déclaré. En cas de contrôle CNIL ou de violation de données, l’entreprise ne peut pas se retrancher derrière l’action individuelle d’un employé : elle est responsable de traitement. Documenter une politique d’usage de l’IA et former les équipes n’est pas optionnel dans ce contexte.

Nos filtres anti-spam sont-ils suffisants contre le phishing généré par IA ?

Non. Les filtres anti-spam s’appuient sur des indicateurs de réputation (domaine, IP), des signatures de liens malveillants et, partiellement, des analyses de contenu. Le phishing généré par IA neutralise le troisième indicateur : le contenu est fluide, contextuel, sans marqueurs linguistiques de fraude. Les filtres d’analyse de liens et de réputation de domaine restent pertinents, mais ils ne suffisent pas à eux seuls. La formation des employés reste la dernière ligne de défense pour les emails qui passent les filtres.

Que faire si un employé pense avoir répondu à une demande frauduleuse avec deepfake vocal ?

Déclenchez immédiatement votre procédure de réponse à incident. Préservez les preuves : l’enregistrement de l’appel si disponible, le numéro appelant, l’heure, le contenu de la conversation. Signalez à votre RSSI et, si un virement a été effectué, contactez en urgence votre banque pour tenter de bloquer le transfert — les délais de reversement sont très courts. Déposez plainte auprès du commissariat avec tous les éléments. Notifiez la CNIL si des données personnelles ont été compromises. Signalez à l’ANSSI (cyber.gouv.fr) pour contribuer à la cartographie nationale de la menace.


La question n’est plus de savoir si vos équipes vont recevoir des emails de phishing générés par IA ou être ciblées par une tentative de fraude deepfake. La question est de savoir si elles ont les réflexes pour y répondre correctement.

Ces réflexes ne s’acquièrent pas par une note interne. Ils s’ancrent par des simulations répétées, dans des conditions qui reproduisent les techniques d’attaque réelles — y compris celles assistées par IA.

Commencez par mesurer où en sont vos équipes aujourd’hui avec notre test de sécurité email gratuit, puis lancez une simulation incluant des scénarios IA pour établir votre baseline.

Démarrer l’essai gratuit de 14 jours — scénarios de phishing IA, micro-formations deepfake, tableaux de bord de progression inclus.