Étude : les fraudes par deepfakes explosent et seules 7 % des organisations sont réellement prêtes
Une enquête mondiale révèle des organisations insuffisamment équipées face à l’essor des menaces dopées à l’IA
Alors que les fraudeurs accélèrent grâce à l’intelligence artificielle, les organisations peinent à suivre le rythme. C’est le constat préoccupant de la dernière étude sur la fraude menée conjointement par l’Association of Certified Fraud Examiners et SAS Institute, spécialiste de la data et de l’IA : seuls 7 % des professionnels de la lutte contre la fraude estiment que leur organisation est plus que modérément préparée à détecter ou prévenir les fraudes alimentées par l’IA. Pourtant en parallèle, les criminels exploitent des outils d’IA accessibles et peu coûteux pour industrialiser à des niveaux records les attaques d’ingénierie sociale, les falsifications numériques et les arnaques aux consommateurs.
Le rapport 2026 Anti-Fraud Technology Benchmarking Report - quatrième édition d’une série lancée en 2019 par l’ACFE et SAS – repose sur une enquête menée auprès de 713 professionnels de la lutte contre la fraude dans huit régions du monde.
« Les données recueillies dressent un constat inquiétant puisque la fraude évolue plus vite que la capacité des organisations à s’en défendre », déclare John Gill, président de l’ACFE. « Les menaces liées à l’IA ne sont plus prospectives ; elles sont déjà là et se développent rapidement. La profession a réalisé de réels progrès dans l’adoption de l’IA, mais ce rapport constitue un signal d’alarme. Les organisations qui ne renforcent pas leurs défenses contre les fraudes exploitant l’IA risquent de devenir des cibles privilégiées. »
Des secteurs à un tournant – et en première ligne
Les répondants représentent plus d’une douzaine de secteurs, notamment le secteur public et gouvernemental (26 %) et les services bancaires et financiers (23 %), ainsi que les services professionnels, l’industrie, l’assurance, les nouvelles technologies, l’éducation, l’énergie et la santé. L’étude met en évidence que :
- Les fraudeurs prennent l’avantage grâce à l’IA. Toutes les formes de fraudes alimentées par l’IA ont augmenté au cours des deux dernières années. L’ingénierie sociale via deepfake enregistre la plus forte hausse (77 % des répondants), suivie des arnaques aux consommateurs (75 %), de la falsification de documents générés par IA (75 %) et des injections numériques deepfake (72 %). À horizon 24 mois, 55 % anticipent une forte progression de l’ingénierie sociale via deepfake et de la fraude documentaire par IA générative.
- L’adoption de l’IA et du machine learning s’accélère, mais reste insuffisante. Un quart des organisations (25 %) utilisent aujourd’hui l’IA/ML dans leurs dispositifs de lutte contre la fraude (contre 18 % en 2024), et 28 % prévoient de s’en équiper d’ici 2028. Pour les organisations encore en retrait, la fenêtre pour développer ces compétences se réduit rapidement.
- La gouvernance accuse un retard préoccupant. Près de 9 organisations sur 10 (86 %) considèrent la fiabilité des résultats est importante ou très importante dans le cadre de l'adoption de l'IA générative, mais moins d’une sur cinq (18 %) testent leurs modèles pour détecter des biais ou garantir l’équité. De même, 82 % jugent l’explicabilité importante, mais seulement 6 % se disent totalement confiantes dans leur capacité à expliquer les décisions prises par leurs modèles. Pour les secteurs régulés, cela expose à des risques réglementaires, juridiques et réputationnels.
- Les budgets augmentent, mais les contraintes persistent. Plus de la moitié des répondants (55 %) prévoient une hausse des budgets dédiés aux technologies anti-fraude dans les deux prochaines années. Toutefois, 84 % citent les contraintes budgétaires comme un frein majeur ou modéré à leur mise en œuvre.
Technologies émergentes : promesses, progrès… et coût de l’inaction
Biométrie physique, IA générative et agentique – et même IA quantique – les technologies qui transforment la lutte contre la fraude évoluent rapidement. Mais les fraudeurs progressent au même rythme, avec un avantage décisif.
« Les cybercriminels n’ont ni comités de gouvernance ni cycles budgétaires : ils agissent immédiatement », explique Stu Bradley, Senior Vice President Risk, Fraud and Compliance Solutions chez SAS. « Chaque trimestre consacré à l’évaluation d’une technologie est un trimestre supplémentaire laissé aux fraudeurs pour l’exploiter et cibler des organisations insuffisamment préparées. »
La question n’est plus de savoir s’il faut adopter ces innovations, mais si les organisations peuvent se permettre d’attendre.
L’étude met en lumière plusieurs tendances :
- L’IA générative passe de l’expérimentation à l’usage. 16 % des organisations l’utilisent déjà comme outil de lutte contre la fraude, et 58 % prévoient de le faire. Les principaux cas d’usage sont la détection du phishing et des arnaques (49 %), l’identification et l’évaluation des risques (46 %) et la rédaction de rapports (45 %).
- L’IA agentique suscite un fort intérêt. 8 % des organisations l’utilisent déjà, et 31 % prévoient de la déployer d’ici 2028 – soit le niveau d’adoption projeté le plus élevé parmi les technologies émergentes étudiées.
- La biométrie en tête, tandis que cloud et automatisation restent sous-exploités. La biométrie physique est aujourd’hui la technologie émergente la plus adoptée (45 %, contre 34 % en 2022). À l’inverse, les plateformes cloud de détection de fraude (10 %) et l’automatisation (29 %) restent encore peu utilisées.
- L’informatique quantique arrive plus vite que prévu. 62 % des répondants estiment que l’informatique quantique et l’IA quantique auront un impact significatif sur la détection et la prévention de la fraude d’ici 2030, et 11 % considèrent que cet impact est déjà perceptible.
Prêtes ou non…
Quel que soit leur niveau de maturité, les organisations de tous les secteurs sont confrontées aux mêmes menaces de fraude accélérées par l’IA. La différence réside dans leur capacité à y répondre.
Les équipes antifraude doivent s’appuyer sur les bonnes données et technologies, mais aussi sur la rapidité, la capacité de passage à l’échelle et une gouvernance adaptée pour faire face aux risques actuels.
Pour en savoir plus sur les principales formes de fraude alimentées par l’IA et les stratégies pour y faire face, consultez le rapport complet ACFE/SAS 2026 sur SAS.com/fraudreport .
Un tableau de bord interactif permettant d’explorer les données (par région, secteur, profil de répondant, etc.) est également disponible sur SAS.com/fraudsurvey.
À propos de l’Association of Certified Fraud Examiners
Fondée en 1988, l’Association of Certified Fraud Examiners est la plus grande organisation mondiale dédiée à la lutte contre la fraude, avec plus de 95 000 membres. Elle œuvre à réduire la fraude dans les entreprises et à renforcer la confiance dans l’intégrité des professions.
À propos de SAS
SAS est le leader de l'analytique. Grâce à des logiciels et des services novateurs, SAS permet à ses clients du monde entier de transformer leurs données en intelligence et les en inspire. SAS vous donne LE POUVOIR DE SAVOIR®.
Editorial contacts:
- SAS France
Chloé Litzler +33 1 60 62 10 46