Suivez nous sur

AI 101

Que sont les deepfakes ?

mm
Le kit de préparation mis à jour on

À mesure que les deepfakes deviennent plus faciles à réaliser et plus prolifiques, on leur accorde davantage d’attention. Les deepfakes sont devenus le point central des discussions portant sur l’éthique de l’IA, la désinformation, l’ouverture de l’information et d’Internet et la réglementation. Il est utile d’être informé sur les deepfakes et d’avoir une compréhension intuitive de ce que sont les deepfakes. Cet article clarifiera la définition d'un deepfake, examinera leurs cas d'utilisation, expliquera comment les deepfakes peuvent être détectés et examinera les implications des deepfakes pour la société.

Que sont les deepfakes ?

Avant de poursuivre la discussion sur les deepfakes, il serait utile de prendre un peu de temps et de clarifier ce que sont réellement les "deepfakes". Il existe une grande confusion concernant le terme Deepfake, et souvent le terme est mal appliqué à tout média falsifié, qu'il s'agisse ou non d'un véritable deepfake. Pour être qualifié de Deepfake, le faux média en question doit être généré avec un système d'apprentissage automatique, en particulier un réseau de neurones profonds.

L’ingrédient clé des deepfakes est l’apprentissage automatique. L’apprentissage automatique a permis aux ordinateurs de générer automatiquement de la vidéo et de l’audio de manière relativement rapide et simple. Les réseaux de neurones profonds sont formés à partir d’images d’une personne réelle afin d’apprendre à quoi ressemblent les gens et se déplacent dans les conditions environnementales cibles. Le réseau formé est ensuite utilisé sur les images d'un autre individu et complété par des techniques d'infographie supplémentaires afin de combiner la nouvelle personne avec les images originales. Un algorithme d'encodeur est utilisé pour déterminer les similitudes entre le visage d'origine et le visage cible. Une fois les caractéristiques communes des visages isolées, un deuxième algorithme d’IA appelé décodeur est utilisé. Le décodeur examine les images codées (compressées) et les reconstruit en fonction des caractéristiques des images originales. Deux décodeurs sont utilisés, un sur le visage du sujet d'origine et le second sur le visage de la personne cible. Pour que l'échange soit effectué, le décodeur formé sur les images de la personne X reçoit des images de la personne Y. Le résultat est que le visage de la personne Y est une reconstruction sur les expressions faciales et l'orientation de la personne X.

Actuellement, il faut encore pas mal de temps pour faire un deepfake. Le créateur du faux doit passer beaucoup de temps à ajuster manuellement les paramètres du modèle, car des paramètres sous-optimaux entraîneront des imperfections notables et des problèmes d'image qui révéleront la véritable nature du faux.

Bien qu'il soit souvent supposé que la plupart des deepfakes sont créés avec un type de réseau de neurones appelé réseau antagoniste génératif (GAN), de nombreux deepfakes (peut-être la plupart) créés de nos jours ne reposent pas sur les GAN. Alors que les GAN ont joué un rôle de premier plan dans la création des premiers deepfakes, la plupart des vidéos deepfake sont créées par des méthodes alternatives, selon Siwei Lyu de SUNY Buffalo.

Il faut une quantité disproportionnée de données de formation pour former un GAN, et les GAN prennent souvent beaucoup plus de temps pour rendre une image par rapport aux autres techniques de génération d'images. Les GAN sont également meilleurs pour générer des images statiques que la vidéo, car les GAN ont des difficultés à maintenir la cohérence d'une image à l'autre. Il est beaucoup plus courant d'utiliser un encodeur et plusieurs décodeurs pour créer des deepfakes.

À quoi servent les deepfakes ?

De nombreux deepfakes trouvés en ligne sont de nature pornographique. Selon des recherches effectuées par Deeptrace, une société d'intelligence artificielle, sur un échantillon d'environ 15,000 2019 vidéos deepfake prises en septembre 95, environ XNUMX % d'entre elles étaient de nature pornographique. Une implication troublante de ce fait est qu'à mesure que la technologie devient plus facile à utiliser, les incidents de fausse pornographie de vengeance pourraient augmenter.

Cependant, tous les deep fakes ne sont pas de nature pornographique. Il existe des utilisations plus légitimes de la technologie deepfake. La technologie audio deepfake pourrait aider les gens à diffuser leur voix habituelle après avoir été endommagés ou perdus en raison d'une maladie ou d'une blessure. Les deepfakes peuvent également être utilisés pour masquer le visage de personnes se trouvant dans des situations sensibles et potentiellement dangereuses, tout en permettant de lire leurs lèvres et leurs expressions. La technologie Deepfake peut potentiellement être utilisée pour améliorer le doublage de films en langue étrangère, aider à la réparation de supports anciens et endommagés, et même créer de nouveaux styles d'art.

Deepfakes non vidéo

Alors que la plupart des gens pensent aux fausses vidéos lorsqu'ils entendent le terme "deepfake", les fausses vidéos ne sont en aucun cas le seul type de faux média produit avec la technologie deepfake. La technologie Deepfake est également utilisée pour créer des faux photo et audio. Comme mentionné précédemment, les GAN sont fréquemment utilisés pour générer de fausses images. On pense qu'il y a eu de nombreux cas de faux profils LinkedIn et Facebook qui ont des images de profil générées avec des algorithmes deepfake.

Il est également possible de créer des deepfakes audio. Les réseaux de neurones profonds sont formés pour produire des clones de voix/des peaux de voix de différentes personnes, y compris des célébrités et des politiciens. Un exemple célèbre de Deepfake audio est lorsque la société d'intelligence artificielle Dessa a utilisé un modèle d'IA, pris en charge par des algorithmes non IA, pour recréer la voix de l'animateur de podcast Joe Rogan.

Comment repérer les deepfakes

À mesure que les deepfakes deviennent de plus en plus sophistiqués, les distinguer des véritables médias deviendra de plus en plus difficile. Actuellement, il y a quelques signes révélateurs les gens peuvent rechercher pour déterminer si une vidéo est potentiellement un deepfake, comme une mauvaise synchronisation labiale, un mouvement non naturel, un scintillement autour du bord du visage et une déformation de détails fins comme les cheveux, les dents ou les reflets. D'autres signes potentiels d'un deepfake incluent des parties de qualité inférieure de la même vidéo et un clignement irrégulier des yeux.

Bien que ces signes puissent aider à repérer un deepfake pour le moment, comme la technologie deepfake améliore la seule option pour une détection fiable des deepfakes, d'autres types d'IA formés pour distinguer les faux des vrais médias pourraient être.

Les sociétés d'intelligence artificielle, y compris de nombreuses grandes entreprises technologiques, recherchent des méthodes de détection des deepfakes. En décembre dernier, un défi de détection de deepfake a été lancé, soutenu par trois géants de la technologie : Amazon, Facebook et Microsoft. Des équipes de recherche du monde entier ont travaillé sur des méthodes de détection des deepfakes, rivalisant pour développer les meilleures méthodes de détection. D'autres groupes de chercheurs, comme un groupe de chercheurs combinés de Google et de Jigsaw, travaillent sur un type de "face forensics" qui peut détecter les vidéos qui ont été modifiées, rendant leurs jeux de données open source et encourager les autres à développer des méthodes de détection de deepfake. Le Dessa susmentionné a travaillé sur le raffinement des techniques de détection de deepfake, en essayant de s'assurer que les modèles de détection fonctionnent sur des vidéos deepfake trouvées dans la nature (sur Internet) plutôt que sur des ensembles de données de formation et de test pré-composés, comme l'ensemble de données open source. Google fourni.

Il ya aussi des autres stratégies qui font l'objet d'enquêtes pour faire face à la prolifération des deepfakes. Par exemple, vérifier la concordance des vidéos avec d'autres sources d'information est une stratégie. Des recherches peuvent être effectuées pour des vidéos d'événements potentiellement prises sous d'autres angles, ou des détails d'arrière-plan de la vidéo (comme les conditions météorologiques et les lieux) peuvent être vérifiés pour les incongruités. Au delà de ça, un système de registre en ligne Blockchain pourrait enregistrer des vidéos lors de leur création initiale, en conservant leur audio et leurs images d'origine afin que les vidéos dérivées puissent toujours être vérifiées pour toute manipulation.

En fin de compte, il est important que des méthodes fiables de détection des deepfakes soient créées et que ces méthodes de détection suivent les dernières avancées de la technologie deepfake. Bien qu'il soit difficile de savoir exactement quels seront les effets des deepfakes, s'il n'existe pas de méthodes fiables pour détecter les deepfakes (et d'autres formes de faux médias), la désinformation pourrait potentiellement sévir et dégrader la confiance des gens dans la société et les institutions.

Implications des Deepfakes

Quels sont les dangers de laisser le deep fake proliférer sans contrôle ?

L'un des plus gros problèmes que les deepfakes créent actuellement est la pornographie non consensuelle, conçue en combinant les visages des gens avec des vidéos et des images pornographiques. Les éthiciens de l'IA craignent que les deepfakes soient davantage utilisés dans la création de faux porno de vengeance. Au-delà de cela, les deepfakes pourraient être utilisés pour intimider et nuire à la réputation de presque n'importe qui, car ils pourraient être utilisés pour placer les gens dans des scénarios controversés et compromettants.

Les entreprises et les spécialistes de la cybersécurité ont exprimé leur inquiétude quant à l'utilisation de deepfakes pour faciliter les escroqueries, la fraude et l'extorsion. Apparemment, l'audio deepfake a été utilisé pour convaincre les employés d'une entreprise pour transférer de l'argent à des escrocs

Il est possible que les deepfakes aient des effets nocifs allant même au-delà de ceux énumérés ci-dessus. Les deepfakes pourraient potentiellement éroder la confiance des gens dans les médias en général et rendre difficile la distinction entre les vraies nouvelles et les fausses nouvelles. Si de nombreuses vidéos sur le Web sont fausses, il devient plus facile pour les gouvernements, les entreprises et d'autres entités de mettre en doute les controverses légitimes et les pratiques contraires à l'éthique.

En ce qui concerne les gouvernements, les deepfakes peuvent même constituer une menace pour le fonctionnement de la démocratie. La démocratie exige que les citoyens soient en mesure de prendre des décisions éclairées sur les politiciens sur la base d'informations fiables. La désinformation sape les processus démocratiques. Par exemple, le président du Gabon, Ali Bongo, est apparu dans une vidéo tentant de rassurer les citoyens gabonais. Le président était supposé être malade pendant une longue période de temps, et son apparition soudaine dans une fausse vidéo probable a déclenché une tentative de coup d'État. Le président Donald Trump a affirmé qu'un enregistrement audio de lui se vantant d'attraper des femmes par les organes génitaux était faux, bien qu'il le décrive également comme une « conversation de vestiaire ». Le prince Andrew aussi a affirmé qu'une image fournie par l'avocat d'Emily Maitilis était fausse, bien que l'avocat ait insisté sur son authenticité.

En fin de compte, bien qu'il existe des utilisations légitimes de la technologie deepfake, de nombreux dommages potentiels peuvent résulter de l'utilisation abusive de cette technologie. Pour cette raison, il est extrêmement important que des méthodes permettant de déterminer l'authenticité des médias soient créées et maintenues.