Facebook est en train de développer une nouvelle méthode pour faire de l’ingénierie inverse sur les deepfakes et suivre leur origine. Ce travail peut aider les recherches prospectives sur les deepfakes.
Deepfake n’est pas actuellement un dilemme pour Facebook, mais la firme finance une étude sur cette technologie pour prévenir les menaces à venir.
Son travail le plus récent s’est fait en alliance avec des scientifiques de l’Université d’État du Michigan (MSU), où le comité s’est associé pour faire de la rétro-ingénierie sur le deepfake: Analyser les images générées par l’IA pour découvrir les caractéristiques reconnues du modèle d’apprentissage automatique est créé. Très utile car cela peut aider Facebook à traquer les attaquants Deepfake sur plusieurs réseaux sociaux.
Sans le consentement de l’utilisateur, ce sujet peut contenir de la désinformation et de la pornographie – une utilisation mutuelle de techniques de falsification profonde frustrantes. Il n’est pas encore prêt à être déployé. Cette méthode peut prendre en charge la falsification profonde à travers le réseau et déduire quels modèles d’IA bien connus ont produit des falsifications profondes. Pourtant, ce travail dirigé par Vishal Asnani de l’Université d’État de Moscou est déterminé par le fait de faire avancer des caractéristiques architecturales moins connues.
Facebook can now reverse-engineer #deepfakes and track their source.https://t.co/jkhqWcOf4u #socialmedia
— Tweepsmap (@tweepsmap) June 16, 2021
Ces propriétés, appelées hyperparamètres, doivent être ajustées à chaque apprentissage automatique. Le modèle est utilisé comme une partie du moteur. Ensemble, ils laissent une empreinte distinctive sur l’image complète, qui peut ensuite être utilisée pour déterminer son origine.
Nouvelles méthodes médico-légales
Hassner a comparé ce travail avec les méthodes médico-légales permettant de déterminer quel modèle d’appareil photo a été utilisé pour prendre des photos en remarquant des modèles dans les images qui se produisent. Cependant, tout le monde ne peut pas créer son appareil photo, a-t-il déclaré. Bien que toute personne ayant une expérience suffisante et des ordinateurs standards puisse créer ses modèles pour générer des faux profonds.
L’algorithme de stemming peut marquer les caractéristiques du modèle généré et déterminer quel modèle connu a construit l’image et l’image est-ceci. La première est une contrefaçon profonde. Nous avons obtenu les meilleurs résultats grâce aux tests standard, a déclaré Hassner. Défi Mais il est important de savoir que même ces résultats de pointe sont loin d’être crédibles.
Problème non résolu
Lorsque Facebook a organisé un tournoi de détection de Deepfake l’année dernière, l’algorithme gagnant n’a pu reconnaître les vidéos AI que dans 65,18 % des cas. Selon les scientifiques, l’utilisation d’algorithmes pour détecter les faux profonds est encore une difficulté non résolue. L’une des raisons en est que le domaine de l’intelligence artificielle productive est très actif. De nouvelles méthodes sont publiées chaque jour, ce qui est presque pour tout filtre. C’est impossible.
Les experts sont conscients de cette dynamique, et lorsqu’on leur a demandé si la publication de ce nouvel algorithme d’empreintes digitales conduira à des enquêtes où ces technologies pourraient être négligées, Hasner a convenu – c’est toujours un jeu du chat et de la souris.
Laissez une réponse
Commentaires