Attaques IA en entreprise : ce qui change en 2026
Phishing polymorphe, deepfakes vocaux, ClickFix, outils underground : comment l'IA a transformé les cyberattaques et pourquoi la formation classique ne suffit plus.
Le 4 février 2024, un employé d’Arup à Hong Kong rejoint une visioconférence avec son directeur financier et plusieurs collègues. Pendant 45 minutes, il échange avec eux, répond à leurs questions, valide leurs demandes. Il autorise ensuite 15 virements pour un total de 25,6 millions de dollars. Chaque participant à la réunion, sauf lui, était un deepfake généré en temps réel.
Cet incident, documenté par le Guardian et confirmé par la police de Hong Kong, n’est pas un cas isolé. C’est le symptôme d’un basculement qui touche désormais toutes les entreprises, y compris les PME françaises.
L’IA a changé les règles du phishing. Pas marginalement. Radicalement. ENISA Threat Landscape signale une multiplication rapide des emails de phishing générés par IA. Une étude relayée par Harvard Business Review (2024) montre des taux de clic nettement supérieurs pour le spear phishing généré par IA, avec une réduction de coût de production de plus de 90 %. Et des outils comme WormGPT, FraudGPT ou GhostGPT permettent à n’importe qui de lancer des campagnes sophistiquées pour moins de 100 dollars par mois.
Cet article décortique ce qui a concrètement changé dans les attaques depuis 2024, quelles nouvelles techniques ciblent les entreprises françaises, et comment adapter votre défense à cette réalité.
Testez la sécurité email de votre entreprise — diagnostic SPF, DKIM et DMARC en 30 secondes, gratuit.
La grammaire parfaite a tué le premier réflexe de détection
Pendant 15 ans, la formation anti-phishing reposait sur un conseil simple : « Cherchez les fautes d’orthographe et de grammaire. » Ce conseil est mort.
Les modèles de langage actuels (GPT-4o, Claude, Mistral, Llama) produisent un français impeccable. Pas un français « correct ». Un français naturel, adapté au registre de l’entreprise ciblée, avec les formules de politesse appropriées, le vocabulaire métier exact, et le ton qu’un collègue utiliserait dans un email interne.
Le rapport Verizon DBIR 2025 note que les emails de phishing rédigés par IA présentent un taux d’erreur grammaticale inférieur à celui des communications professionnelles légitimes. Autrement dit : un email de phishing IA est souvent mieux écrit que les emails authentiques de l’entreprise.
Ce que l’IA change concrètement
La barrière de la langue a disparu. Avant 2023, les campagnes de phishing ciblant la France étaient reconnaissables à leurs formulations maladroites, traduites de l’anglais ou du russe. Aujourd’hui, un attaquant basé à n’importe quel endroit du monde génère un email parfait en français, avec les références culturelles locales (Ameli, Chronopost, ANTAI, impots.gouv.fr), en quelques secondes.
La personnalisation est automatisée. L’IA extrait des informations de LinkedIn, du site web de l’entreprise et des réseaux sociaux, puis génère un email adapté au destinataire. Plus besoin de passer des heures à rechercher une cible : un script le fait pour des milliers de contacts simultanément.
Le volume et la qualité ne sont plus antagonistes. Avant l’IA, un attaquant devait choisir entre envoyer beaucoup d’emails génériques (faible taux de clic) ou peu d’emails personnalisés (fort taux de clic mais effort élevé). L’IA permet les deux en même temps : des milliers d’emails, chacun personnalisé, chacun convaincant.
Pour approfondir les statistiques du phishing en entreprise : Phishing en entreprise : statistiques 2026, exemples et solutions.
Le phishing polymorphe : une variante unique par destinataire
Le phishing polymorphe représente l’évolution la plus préoccupante pour les équipes de sécurité. Le principe : au lieu d’envoyer le même email à 10 000 destinataires, l’attaquant utilise un modèle de langage pour générer 10 000 variantes uniques du même message.
Chaque email a un objet différent, une structure légèrement modifiée, des formulations distinctes, mais le même objectif : amener le destinataire à cliquer sur un lien ou ouvrir une pièce jointe. Pour les filtres de messagerie qui fonctionnent par détection de signatures (identification de patterns connus), c’est un cauchemar. Aucune signature ne correspond, car chaque email est unique.
Les chiffres sont nets. Abnormal Security signale une forte hausse du phishing polymorphe. SlashNext rapporte une hausse de plus de 4 000 % des emails de phishing depuis le lancement de ChatGPT (SlashNext State of Phishing Report 2025).
Comment fonctionne une campagne polymorphe
- L’attaquant définit un prétexte : par exemple, une relance de facture impayée.
- Un modèle de langage génère les variantes : « Relance facture n°2024-0847 », « Suite à notre échange du 12 mars — facture en attente », « Règlement urgent — votre compte présente un solde impayé », etc.
- Chaque email est légèrement restructuré : le corps du message, la signature, les formules de politesse varient.
- L’URL de phishing est aussi polymorphe : des redirections par domaines jetables, des paramètres d’URL uniques, des hébergements qui changent toutes les heures.
Le résultat : les systèmes de détection basés sur la réputation, les listes noires et les signatures sont contournés. Seule l’analyse comportementale (« est-ce que cette demande est cohérente avec les habitudes de l’expéditeur ? ») conserve une efficacité partielle.
ClickFix : la fausse boîte de dialogue qui piège les utilisateurs
Parmi les techniques apparues récemment, ClickFix se distingue par sa simplicité et son efficacité. Documentée pour la première fois par Proofpoint en 2024, cette attaque a explosé en 2025-2026 et cible aussi bien les particuliers que les entreprises.
Le mécanisme
- L’utilisateur visite une page web compromise ou clique sur un lien dans un email.
- Une boîte de dialogue s’affiche, imitant une alerte Windows, Chrome ou Microsoft Teams : « Une mise à jour est nécessaire », « Erreur de certificat détectée », « Vérification de sécurité requise ».
- La boîte demande à l’utilisateur de copier une commande (apparemment anodine) et de la coller dans la boîte de dialogue « Exécuter » de Windows (Win+R) ou dans PowerShell.
- La commande télécharge et exécute un malware : infostealer, ransomware, ou outil d’accès distant.
Pourquoi ça fonctionne
ClickFix exploite un biais cognitif puissant : la confiance dans les interfaces familières. Un employé qui voit une boîte de dialogue Windows lui demandant de « corriger un problème » suit les instructions sans réfléchir. Le message imite le ton et le design des notifications système légitimes. L’utilisateur ne copie pas consciemment une commande PowerShell malveillante : il « résout un problème informatique », exactement comme il le fait chaque semaine quand l’IT lui demande de redémarrer son poste.
Proofpoint a observé que ClickFix est utilisé par au moins trois groupes APT (menaces persistantes avancées) liés à la Russie, l’Iran et la Corée du Nord, en plus de dizaines de groupes cybercriminels. Le NCSC britannique confirme cette tendance dans ses rapports annuels.
Cas concret en entreprise
Un responsable commercial reçoit un email l’invitant à consulter une proposition de partenariat hébergée sur Google Docs. En cliquant sur le lien, son navigateur affiche un message : « Votre navigateur ne prend pas en charge ce format. Cliquez ici pour installer le plugin de visualisation. » En suivant les instructions, il exécute une commande PowerShell qui installe un infostealer. En 30 secondes, l’attaquant récupère les identifiants de son navigateur, ses cookies de session, et ses tokens d’accès à Microsoft 365.
Le spear phishing dopé à l’IA : reconnaissance automatisée, emails sur mesure
Le spear phishing n’est pas nouveau. Ce qui est nouveau, c’est la vitesse et l’ampleur avec lesquelles l’IA permet de le déployer.
La reconnaissance automatisée (OSINT par IA)
Avant 2024, un attaquant qui voulait lancer une campagne de spear phishing passait des heures à collecter des informations sur sa cible : profil LinkedIn, publications, site web de l’entreprise, communiqués de presse. Ce travail artisanal limitait le nombre de cibles possibles.
Aujourd’hui, des outils automatisés combinent web scraping et analyse par IA pour dresser un profil complet en quelques minutes :
- Poste, ancienneté et responsabilités extraits de LinkedIn
- Collègues et supérieurs hiérarchiques identifiés depuis l’organigramme public ou LinkedIn
- Projets en cours repérés dans les communiqués de presse ou les posts LinkedIn
- Style de communication analysé à partir des publications publiques du dirigeant
- Technologies utilisées déduites des offres d’emploi ou des profils techniques de l’entreprise
L’étude relayée par Harvard Business Review (2024), menée avec des chercheurs de l’Indiana University, a montré des taux de clic nettement supérieurs pour le spear phishing généré par IA, avec une réduction de coût de production de plus de 90 % par rapport à un spear phishing manuel.
Un exemple concret
Un attaquant cible le directeur financier d’une ETI industrielle française. L’IA collecte automatiquement : son nom et son poste (LinkedIn), le nom de son PDG, un communiqué de presse récent sur l’acquisition d’un concurrent, le nom du cabinet d’avocats intervenant (mentionné dans la presse spécialisée). En 60 secondes, le modèle de langage génère un email :
De :
marc.dupuis@cabinet-lhermitte.fr(domaine typosquatté) Objet : Finalisation acquisition MecaParts — documents à signerBonjour [Prénom],
Suite à l’appel de ce matin avec [Nom du PDG], je vous transmets les documents finaux pour la signature. Nous devons boucler avant vendredi comme convenu.
Merci de les signer électroniquement via le lien sécurisé ci-dessous.
Aucune faute, aucune incohérence factuelle, des informations réelles. Un filtre anti-spam n’a aucune raison de le bloquer.
Pour approfondir le sujet des deepfakes et du phishing assisté par IA : guide complet sur le phishing IA et les deepfakes.
Deepfakes vocaux et vidéo : l’usurpation d’identité en temps réel
L’incident Arup mentionné en introduction n’est plus un cas extrême. Les deepfakes vocaux et vidéo se démocratisent à une vitesse qui dépasse les prévisions des experts.
La voix clonée en 3 secondes
McAfee estime depuis 2023 que 3 secondes d’audio suffisent pour cloner une voix avec un taux de fidélité de 85 %. Fortune rapporte en décembre 2025 que le clonage vocal a franchi le « seuil d’indiscernabilité » : les auditeurs humains ne distinguent plus de manière fiable une voix clonée d’une voix authentique.
Où trouver 3 secondes de la voix de votre PDG ? Sur YouTube (interview, conférence), sur une note vocale LinkedIn, sur le site de l’entreprise, ou dans un message laissé sur un répondeur.
Les attaques documentées
Les cas se multiplient :
- Arup, février 2024 : 25,6 millions de dollars dérobés via une visioconférence entièrement deepfake.
- Ferrari, juillet 2024 : le PDG Benedetto Vigna a été imité par deepfake vocal lors d’un appel avec un cadre dirigeant. L’attaque a échoué uniquement parce que le dirigeant a posé une question de vérification personnelle à laquelle le deepfake n’a pas su répondre.
- WPP, mai 2024 : tentative d’arnaque par deepfake vocal et vidéo ciblant le CEO Mark Read, utilisant une fausse réunion Teams avec un clone vocal et une image générée par IA.
- Vishing en France : l’ANSSI signale dans son Panorama de la cybermenace 2025 une augmentation des appels téléphoniques frauduleux utilisant des voix clonées ciblant les services comptables des PME et ETI françaises.
Impact sur les procédures internes
La conséquence directe : un appel téléphonique ne constitue plus une preuve d’identité. Si votre procédure de validation des virements repose sur « le directeur financier a confirmé par téléphone », cette procédure est désormais vulnérable.
Les entreprises qui résistent aux deepfakes ont mis en place des protocoles de vérification multi-facteurs pour les opérations sensibles : validation par deux canaux distincts, codes de confirmation partagés en personne, appels de contre-vérification initiés par le receveur (pas par l’appelant).
WormGPT, FraudGPT, GhostGPT : l’IA au service des cybercriminels
Pendant que OpenAI, Anthropic et Google ajoutent des garde-fous à leurs modèles, un marché parallèle prospère.
Le marché noir des outils IA criminels
WormGPT est apparu en juillet 2023 sur les forums cybercriminels. Basé sur GPT-J (un modèle open source de EleutherAI), il a été entraîné sur des données de phishing et de malware, sans les restrictions éthiques des modèles commerciaux. Son créateur l’a fermé en août 2023 après la médiatisation, mais le code a été forké et copié des dizaines de fois.
FraudGPT, apparu le même été sur Telegram, proposait la rédaction d’emails de phishing, la génération de pages de phishing, et la création de malware indétectable, le tout pour 200 dollars par mois. Ses successeurs (DarkBERT, EvilGPT, GhostGPT, DarkGemini) sont toujours actifs en 2026.
GhostGPT, identifié par Abnormal Security début 2025, est vendu via Telegram comme un wrapper de modèles de langage sans filtres de sécurité. Réponses non censurées, pas de logs, accessibilité directe sans configuration technique.
Ce que ces outils permettent concrètement
- Générer des emails de phishing en français parfait, avec personnalisation automatique
- Créer des pages de phishing clonant n’importe quel site (portail Microsoft 365, Ameli, impots.gouv.fr)
- Rédiger des scripts d’appel pour du vishing (phishing vocal), adaptés au contexte de l’entreprise ciblée
- Analyser des codes sources pour identifier des vulnérabilités exploitables
- Produire des malwares polymorphes qui changent de signature à chaque génération
Le point critique pour les PME
Europol et le NCSC britannique convergent sur un constat : ces outils ont abaissé la barrière d’entrée de la cybercriminalité. Un individu sans compétence technique peut désormais lancer des campagnes de phishing sophistiquées. Conséquence directe : les PME, autrefois trop petites pour justifier l’effort d’une attaque ciblée, deviennent des cibles rentables. L’IA rend le ratio coût/bénéfice favorable même pour des entreprises de 20 personnes.
Pourquoi la formation « cherchez les fautes » est obsolète
Si les attaques ont changé, la formation des collaborateurs n’a pas suivi. La majorité des programmes de sensibilisation en entreprise reposent encore sur des réflexes périmés.
Les indices visuels qui ne fonctionnent plus
| Conseil classique | Pourquoi il échoue en 2026 |
|---|---|
| « Vérifiez les fautes d’orthographe » | L’IA écrit mieux que la plupart des employés |
| « Méfiez-vous des emails en anglais » | Les attaques sont en français natif |
| « L’adresse email semble suspecte » | Le typosquatting et le spoofing imitent les domaines légitimes |
| « Le logo est flou ou déformé » | Les kits de phishing utilisent les vrais assets graphiques |
| « L’email crée un sentiment d’urgence » | Les emails légitimes aussi (relances, deadlines, incidents) |
| « Survolez le lien pour voir l’URL » | Les URLs utilisent des domaines légitimes compromis ou des raccourcisseurs |
Le problème structurel
La formation par indices visuels repose sur l’hypothèse que le phishing est détectable par l’observation. Cette hypothèse était vraie quand les emails étaient rédigés par des humains non francophones. Elle ne l’est plus quand l’IA produit des contenus indiscernables des communications authentiques.
Selon Proofpoint, une large majorité des employés pensent savoir reconnaître un phishing, mais près de la moitié ont cliqué sur un lien malveillant au cours de l’année écoulée. La confiance dans la capacité à détecter les attaques est devenue un facteur de risque en elle-même.
Pour comprendre pourquoi le e-learning seul ne suffit plus : Pourquoi un simple e-learning ne suffit plus pour former vos équipes.
Comment adapter la sensibilisation à l’ère de l’IA
Face à des attaques que l’oeil humain ne peut plus distinguer des communications légitimes, la défense doit passer de la détection à la vérification.
Le réflexe de vérification remplace le réflexe de détection
Au lieu de demander aux employés « est-ce que cet email vous semble suspect ? » (question à laquelle l’IA rend la réponse impossible), la formation doit installer un processus systématique :
1. Toute demande financière ou de données sensibles doit être confirmée par un second canal. Un email demande un virement, un changement de RIB, l’envoi d’un fichier confidentiel ? L’employé rappelle l’expéditeur supposé sur un numéro qu’il connaît déjà (pas celui fourni dans l’email) ou le vérifie en personne. Ce réflexe bloque les attaques IA, les deepfakes et le BEC.
2. La pression temporelle est un signal d’alerte, pas une raison d’agir vite. Toute demande qui insiste sur l’urgence (« avant 17h aujourd’hui », « avant la clôture comptable ») doit déclencher une vérification supplémentaire, pas un raccourci. Les attaquants utilisent l’urgence précisément parce qu’elle court-circuite la réflexion.
3. Les commandes techniques provenant d’une page web sont toujours suspectes. Un site web qui demande de copier une commande dans PowerShell, le terminal ou la barre d’adresse est une attaque ClickFix. Ce réflexe protège contre une catégorie entière de menaces.
4. Un lien dans un email n’est jamais le seul chemin. Au lieu de cliquer sur le lien, l’employé accède au service directement (en tapant l’URL ou via un favori). Si Microsoft envoie une alerte, l’employé se connecte à portal.office.com manuellement. Si Ameli signale un remboursement, il ouvre ameli.fr dans son navigateur.
Les simulations doivent reproduire les attaques actuelles
Un programme de simulation qui envoie des emails avec des fautes évidentes et des logos pixelisés ne prépare pas les collaborateurs aux menaces de 2026. Les simulations doivent intégrer :
- Des emails en français parfait, personnalisés avec le nom du destinataire, son département, son manager
- Des prétextes réalistes basés sur l’actualité de l’entreprise
- Des scénarios ClickFix (fausses pages demandant d’exécuter des commandes)
- Des vecteurs variés : email, QR code, SMS
- Des deepfakes vocaux simulés (appels de vérification factices)
L’objectif n’est pas de piéger les collaborateurs, mais de les exposer aux techniques réelles pour que le réflexe de vérification devienne automatique. Un programme structuré sur 12 mois produit des résultats mesurables : le taux de clic passe de 33 % à moins de 5 % (KnowBe4, données 2025). Pour structurer ce programme : plan de sensibilisation sur 12 mois.
Ce que l’assistant de vérification nophi.sh change
La plupart des solutions anti-phishing se concentrent sur le filtrage en amont : bloquer les emails malveillants avant qu’ils n’atteignent la boîte de réception. Cette approche reste utile, mais elle ne suffit plus quand les attaques IA contournent les filtres.
nophi.sh adopte une approche complémentaire en trois temps.
1. Des simulations calibrées sur les menaces actuelles
Les scénarios de simulation nophi.sh reproduisent les techniques utilisées par les attaquants en 2026 : emails générés par IA en français natif, prétextes personnalisés, scénarios ClickFix, QR codes, et campagnes multi-canaux. L’objectif est de confronter vos collaborateurs aux attaques qu’ils rencontreront réellement, pas à des exemples simplifiés.
2. Un assistant de vérification IA pour les emails suspects
Quand un collaborateur reçoit un email douteux, il le transfère à l’assistant nophi.sh. En 30 secondes, l’assistant analyse l’email (expéditeur, liens, pièces jointes, cohérence du contenu) et renvoie un verdict : légitime, suspect ou malveillant, avec une explication.
Ce mécanisme transforme le doute en action. Au lieu de se demander « est-ce que je dois cliquer ou pas ? » et finir par cliquer parce qu’il est pressé, l’employé a un canal de vérification immédiat. Le taux de signalement augmente, les faux positifs sont gérés sans surcharger l’équipe IT, et les vrais positifs sont neutralisés avant l’impact.
3. Du micro-learning contextuel, pas du e-learning annuel
Quand un collaborateur tombe dans une simulation, il reçoit immédiatement une capsule de formation de 3 minutes qui explique la technique utilisée et le réflexe à adopter. Pas un module de 45 minutes, trois mois plus tard. La formation arrive au moment où la mémoire est la plus réceptive : juste après l’erreur.
Découvrez les fonctionnalités complètes de nophi.sh.
Checklist : protéger votre entreprise contre les attaques IA
Cette semaine
- Vérifiez votre configuration email. SPF, DKIM et DMARC mal configurés facilitent l’usurpation de votre domaine. Testez gratuitement en 30 secondes.
- Mettez à jour vos procédures de virement. Toute demande de virement ou de changement de RIB doit être confirmée par téléphone sur un numéro connu (pas celui fourni dans l’email).
- Bloquez PowerShell pour les utilisateurs standards. Cela neutralise les attaques ClickFix.
Ce mois-ci
- Lancez une simulation de phishing baseline. Mesurez le taux de clic actuel de vos équipes. Première simulation en 15 minutes.
- Abandonnez la formation « cherchez les fautes ». Remplacez par un programme axé sur la vérification par processus.
- Instaurez un protocole anti-deepfake. Code verbal partagé en personne, contre-appel sur un numéro connu, double validation pour les montants au-dessus d’un seuil défini.
Ce trimestre
- Déployez un programme de simulation continue. Une simulation par mois minimum, avec des scénarios reproduisant les techniques IA. Plan de sensibilisation sur 12 mois.
- Formez la direction. Les dirigeants sont les cibles prioritaires du spear phishing et du whaling. Même programme que les équipes.
- Auditez votre surface d’exposition. Quelles informations sur vos dirigeants sont accessibles publiquement ? Chaque donnée est une munition pour le spear phishing IA.
Les attaques IA ne vont pas ralentir
Chaque trimestre apporte des modèles de langage plus performants, des outils de clonage vocal plus réalistes et des kits de phishing plus automatisés. Attendre que la menace « se stabilise », c’est accumuler du risque.
Les entreprises qui s’adaptent ne cherchent pas à bloquer 100 % des attaques IA. Elles acceptent que certains emails malveillants passeront les filtres, et elles préparent leurs collaborateurs à réagir correctement quand cela arrive. La vérification par processus, les simulations réalistes et l’assistant de vérification IA font la différence entre un phishing qui échoue et une compromission à 25 millions de dollars.
Votre première étape : testez gratuitement la sécurité email de votre entreprise pour identifier les failles techniques que les attaquants exploitent en premier.