L'argument en faveur de la régulation des deepfakes

En bref

Les deepfakes, autrefois une nouveauté, ont rapidement évolué en une menace systémique pour les entreprises, la société et la démocratie—exigeant une réglementation urgente, des outils de détection robustes et une meilleure culture médiatique pour protéger la confiance dans le monde numérique.

Largument en faveur de la régulation des deepfakes

Les deepfakes ne sont plus une nouveauté. Ils deviennent rapidement une menace systémique pour les entreprises, la société et la démocratie. Selon le Parlement européen, environ 8 millions de deepfakes seront partagés en 2025, contre seulement 0,5 million en 2023. Au Royaume-Uni, deux personnes sur cinq affirment avoir rencontré au moins un deepfake au cours des six derniers mois. Mais là où ils pouvaient autrefois être relativement faciles à repérer, l'augmentation de la sophistication des modèles d'IA disponibles au public a rendu la détection plus difficile que jamais.

Les avancées dans les réseaux antagonistes génératifs (GANs) et les modèles de diffusion ont été des catalyseurs pour la croissance de deepfakes avancés et hyper-réalistes. Les deux technologies ont été instrumentales pour permettre un échange de visages et une modulation de voix sans couture lors d'appels vidéo ou de flux en direct. Cela a considérablement amélioré l'expérience utilisateur, avec des capacités telles que des avatars virtuels rendant les jeux et les réunions plus personnalisés et immersifs. Mais cela a également ouvert la porte à des arnaques d'usurpation d'identité en temps réel.

Vous pourriez penser que seuls les non-initiés échoueraient à reconnaître une usurpation d'identité de quelqu'un qu'ils connaissent bien et en qui ils ont confiance. Mais en mai de l'année dernière, un groupe de fraudeurs s'est fait passer pour un cadre supérieur de la société d'ingénierie Arup, convainquant avec succès un employé du département des finances de transférer 200 millions de HK$ sur cinq comptes bancaires locaux. Des attaques similaires usurpant l'identité de cadres supérieurs et de PDG ont été lancées contre des entreprises telles que Ferrari, WPP et Wiz au cours des 12 derniers mois, sapant la confiance dans les communications numériques.

Le clonage vocal a également connu une augmentation en parallèle des deepfakes. La synthèse vocale pilotée par l'IA est désormais capable de reproduire la voix humaine avec un degré de précision surprenant. Étonnamment, quelques secondes d'audio suffisent pour créer un clone presque parfait. Cela pourrait être formidable pour toutes sortes d'applications créatives, telles que des livres audio personnalisés ou le doublage, mais cela a le potentiel de causer d'immenses dommages.

En juillet de cette année, une femme en Floride a été dupée en remettant 15 000 $ de fonds de caution après avoir entendu ce qu'elle croyait être sa fille en train de crier à l'aide après un accident de voiture. L'appelant, un clone IA agissant comme sa fille, a finalement transféré l'appel à un supposé avocat, qui a donné des instructions pour le transfert. Le fait que ces clones soient assemblés à partir de simples extraits de voix de personnes, qui peuvent être facilement trouvés sur les réseaux sociaux, met en évidence le potentiel d'abus.

Sur les réseaux sociaux, la ligne entre la réalité et la fiction s'estompe. Les influenceurs virtuels générés par l'IA dominent le paysage du marketing en ligne, offrant aux marques des personnalités entièrement contrôlables. Les audiences doivent désormais naviguer dans un monde où les personnalités légitimes et artificielles sont pratiquement indiscernables, soulevant des questions sur l'authenticité dans les médias. À Hollywood, les deepfakes sont utilisés pour rajeunir les acteurs ou recréer des figures historiques. Bien que cela donne aux sociétés de production la capacité d'améliorer la qualité de leur contenu à un coût relativement bas, cela donne également aux escrocs les moyens de reproduire une ressemblance convaincante de célébrités célèbres et de l'utiliser pour susciter la controverse.

Mais les enjeux vont bien au-delà de la déformation de la réalité des célébrités. Les deepfakes peuvent être utilisés pour semer la division politique, en diffusant de fausses narrations ou en fabriquant des vidéos de figures politiques prononçant de faux discours. Les conséquences peuvent être profondes, influençant l'opinion publique, changeant le cours des élections nationales et potentiellement empoisonnant le discours politique mondial.

Face à tant de menaces, les gouvernements du monde entier réagissent. En Europe, la loi sur l'IA contient une clause pour l'étiquetage obligatoire du contenu généré ou modifié avec l'aide de l'IA, qui doit être étiqueté comme tel pour sensibiliser les utilisateurs à son origine. Bien que la loi ne prohibe pas les deepfakes, elle interdit l'utilisation de systèmes d'IA qui manipulent les gens de manière discrète dans certains contextes. Certains gouvernements utilisent ou investissent activement dans des technologies de détection capables d'identifier des changements subtils dans les voix, les visages ou les images.

Mais la réglementation est encore à la traîne par rapport à la technologie. L'étiquetage obligatoire, les algorithmes de détection des artefacts d'IA et l'analyse audio sont une partie importante de la solution, mais apaiser la menace des deepfakes nécessite une stratégie beaucoup plus large et plus globale. Une réglementation robuste et des directives éthiques, associées à un investissement dans l'éducation aux médias, jouent un rôle égal, voire plus important, dans la lutte contre la fraude et la désinformation liées aux deepfakes.

La réglementation et les directives éthiques doivent devenir plus proactives, avec l'ajout de filigranes et des normes de divulgation obligatoires devenant des caractéristiques habituelles de toute stratégie de deepfake. L'alphabétisation médiatique, en attendant, doit être considérée comme une priorité. Les citoyens doivent être dotés des compétences de pensée critique pour remettre en question ce qu'ils voient et entendent. Ce n'est qu'en travaillant ensemble, entre les régulateurs, le secteur privé et la société civile, que nous pouvons protéger la vie numérique et garantir que la menace des deepfakes devienne un lointain souvenir.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)