Le Réveil des Deepfakes : Pourquoi la Prochaine Bataille de Sécurité de la Crypto Sera Contre les Humains Synthétiques
Les plateformes crypto doivent adopter des architectures de vérification proactives et à plusieurs niveaux qui ne s’arrêtent pas à l’intégration, mais valident en continu l’identité, l’intention et l’intégrité des transactions tout au long du parcours utilisateur, affirme Ilya Broven, directeur de la croissance chez Sumsub.

L'IA générative a transformé l'économie de la tromperie. Ce qui nécessitait autrefois des outils professionnels et des heures de montage peut désormais être réalisé en quelques clics. Un visage factice réaliste, une voix clonée, voire une identité vidéo complète peuvent être générés en quelques minutes et utilisés pour contourner des systèmes de vérification autrefois jugés infaillibles.
Au cours de l’année écoulée, j’ai observé des preuves indiquant que la fraude alimentée par les deepfakes s’accélère à un rythme pour lequel la plupart des organisations ne sont pas préparées. Le contenu deepfake sur les plateformes numériques a augmenté de 550 % entre 2019 et 2024, et est désormais considéré comme l'un des principaux risques mondiaux dans l'écosystème numérique actuel. Il ne s'agit pas seulement d'un changement technologique — c'est un défi structurel quant à la manière dont nous vérifions l'identité, authentifions les intentions et maintenons la confiance dans la finance numérique.
L’adoption dépasse la sécurité
L’adoption de la cryptomonnaie aux États-Unis continue de croître rapidement, soutenue par une clarté réglementaire accrue, une performance solide du marché et une participation institutionnelle renforcée. L’approbation des ETF Bitcoin au comptant et des cadres de conformité plus précis ont contribué à légitimer les actifs numériques tant pour les investisseurs particuliers que professionnels. En conséquence, un nombre croissant d’Américains considère la cryptomonnaie comme une classe d’investissement majeure — mais le rythme d’adoption dépasse encore la compréhension publique des risques et de la sécurité.
Beaucoup les utilisateurs comptent encore sur des méthodes de vérification obsolètes conçu pour une époque où la fraude signifiait un mot de passe volé, et non une personne synthétique. À mesure que les outils de génération d’IA deviennent plus rapides et moins coûteux, la barrière à l’entrée pour la fraude est tombée à presque zéro, tandis que de nombreuses défenses n’ont pas évolué au même rythme.
Les deepfakes sont utilisés dans divers contextes, allant des livestreams d'influenceurs falsifiés qui incitent les utilisateurs à envoyer des tokens à des escrocs, jusqu'aux pièces d'identité vidéo générées par IA contournant les contrôles de vérification. Nous observons une augmentation des attaques multimodales, où les escrocs combinent vidéo deepfake, voix synthétiques et documents fabriqués pour créer de fausses identités complètes capables de passer les contrôles les plus stricts.
Comme l'a souligné le journaliste et podcasteur Dwarkesh Patel dans son livre « The Scaling Era: An Oral History of AI, 2019-2025 », nous sommes désormais à l'ère de la fraude à grande échelle. Le défi ne réside pas seulement dans la sophistication, mais dans l'envergure. Lorsque n'importe qui peut créer un faux réaliste avec un logiciel grand public, l'ancien modèle de « détection du faux » ne fonctionne plus.
Pourquoi les défenses actuelles échouent
La plupart des systèmes de vérification et d'authentification s'appuient encore sur des indices superficiels : clignements des yeux, mouvements de tête et motifs d'éclairage. Mais les modèles génératifs modernes reproduisent ces micro-expressions avec une fidélité quasi parfaite — et les tentatives de vérification peuvent désormais être automatisées avec des agents, rendant les attaques plus rapides, plus intelligentes et plus difficiles à détecter.
En d’autres termes, le réalisme visuel ne peut plus être la référence en matière de vérité. La prochaine phase de protection doit aller au-delà de ce qui est visible et se concentrer sur des signaux comportementaux et contextuels qui ne peuvent pas être imités. Les modèles d’appareils, les rythmes de frappe et la micro-latence des réponses deviennent les nouvelles empreintes digitales de l’authenticité. Finalement, cela s’étendra à une forme d’autorisation physique — allant des identifiants numériques aux identifiants implantés, ou aux méthodes biométriques telles que la reconnaissance de l’iris ou de la paume.
Il y aura des défis, notamment à mesure que nous nous habituons à autoriser des systèmes autonomes à agir en notre nom. Ces nouveaux signaux peuvent-ils être imités ? Techniquement, oui — et c’est ce qui fait de cela une course aux armements perpétuelle. À mesure que les défenseurs développent de nouvelles couches de sécurité comportementale, les attaquants apprendront inévitablement à les reproduire, imposant une évolution constante des deux côtés.
En tant que chercheurs en IA, nous devons supposer que ce que nous voyons et entendons peut être fabriqué. Notre tâche est de trouver les traces que la fabrication ne peut pas dissimuler.
La prochaine évolution : l'infrastructure de confiance
L’année à venir marquera un tournant en matière de réglementation, alors que la confiance dans le secteur de la crypto reste fragile. Avec la loi GENIUS désormais en vigueur et d’autres cadres tels que la loi CLARITY encore en discussion, le véritable travail consiste désormais à combler les lacunes que la réglementation n’a pas encore abordées — de l’application transfrontalière à la définition d’une protection significative des consommateurs dans les systèmes décentralisés. Les décideurs politiques commencent à établir des règles pour les actifs numériques qui privilégient la responsabilité et la sécurité, et à mesure que d’autres cadres prennent forme, l’industrie progresse vers un écosystème plus transparent et résilient.
Mais la réglementation seule ne résoudra pas le déficit de confiance. Les plateformes crypto doivent adopter des architectures de vérification proactives et à plusieurs niveaux qui ne se limitent pas à l’intégration des utilisateurs, mais qui valident en continu l’identité, l’intention et l’intégrité des transactions tout au long du parcours utilisateur.
La confiance ne dépendra plus de ce qui semble réel, mais de ce qui peut être prouvé comme réel. Cela marque un changement fondamental qui redéfinit l'infrastructure de la finance.
Une responsabilité partagée
La confiance ne peut pas être ajoutée rétroactivement ; elle doit être intégrée dès le départ. Étant donné que la majorité des fraudes surviennent après l’intégration, la phase suivante repose sur le passage des vérifications d’identité statiques à une prévention continue et multicouche. L’association des signaux comportementaux, de l’intelligence inter-plateformes et de la détection d’anomalies en temps réel sera essentielle pour restaurer la confiance des utilisateurs.
L’avenir de la crypto ne sera pas défini par le nombre d’utilisateurs, mais par le nombre de personnes se sentant en sécurité en l’utilisant. La croissance dépend désormais de la confiance, de la responsabilité et de la protection dans une économie numérique où la frontière entre le réel et le synthétique ne cesse de s’estomper.
À un moment donné, nos identités numériques et physiques devront converger davantage afin de nous protéger contre l'imitation.
Remarque : Les opinions exprimées dans cette colonne sont celles de l'auteur et ne reflètent pas nécessairement celles de CoinDesk, Inc. ou de ses propriétaires et affiliés.
More For You
Protocol Research: GoPlus Security

What to know:
- As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
- GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
- Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.
More For You
Réexaminer la loi GENIUS présente des risques sans aucun avantage

Si des accords bipartites comme le GENIUS Act peuvent être immédiatement rouverts chaque fois qu'une industrie en place n'apprécie pas leurs implications concurrentielles, le compromis législatif devient impossible, soutient la CEO de la Blockchain Association, Summer Mersinger.








