Qui aurait pensé que l'application d'échange de visage que nous avons tous pu apprécier sur les médias sociaux pourrait être un outil qui mess vie d'une autre personne ou même une nation entière?
Tout ce que nous voyons est réel - ces lignes sont devenues plus que jamais d'actualité maintenant que deepfakes menaces terrifiantes posent à tout le monde avec les données publiées en ligne. A partir de l'application simple d'échange de visage que nous avons joué avec dans les dernières années, il a maintenant développé dans une technologie de trucage impeccable qui produit des résultats crédibles.
En fait, un nouveau lancé application d'échange de visage chinois appelé Zao a prouvé comment deepfake technologie a considérablement amélioré. Les sorties sont si convaincantes que l'oeil humain sera facilement trompé par la photo ou la vidéo crée.
En dépit de la percée dans sa manipulation d'image impeccable, Zao a reçu jeu massif dès qu'il a atteint la popularité mondiale. Ce fut après qu'il a été découvert d'avoir violé certaines lois sur la vie privée qui a placé ses utilisateurs dans des situations compromettantes.
Cependant, les menaces présentées par deepfake vont au-delà peur simple de la vie privée. Une plus grande préoccupation qui vient avec cette technologie est la forte probabilité qu'il peut devenir une arme puissante qui influence l'opinion publique. La politique et la démocratie sont pointés comme les plus grands objectifs de deepfake utilisateurs mal intentionnées. atteindre la perfection, experts de la cybersécurité voir aussi deepfake comme source imbattable de la cybercriminalité à l'avenir.
Les premières manifestations de la technologie Deepfake
Les médias tech deepfake ou synthétisés AI a été d'abord utilisé dans les recherches universitaires dans le cadre d'études Vision par ordinateur. L'un des premiers projets réalisés à cet effet était en 1997 où a été modifié une séquence vidéo d'une personne qui parle pour lui faire ressembler, il parlait le contenu d'une piste audio séparée.
Avance rapide 2017, un Redditor à l'origine du terme « deepfake » et vidéos postées de plusieurs stars d'Hollywood comme Scarlet Johansson, la présentant en compromettre scènes sexuelles. Apparemment, il a été constaté que la vidéo a été manipulé, coller le visage d'une actrice au corps d'une star porno.
Une autre vidéo fait pour prouver à quel point deepfake mûrit a été rapidement les images photoréalistes de l'apparence ancien président Barack Obama prononce un discours. Il faisait partie de la «Obama synthétisant» Projet lancé par l'Université de Washington, où la lèvre est allé la synchronisation à un nouveau niveau.
L'un des principaux chercheurs du projet admis comment cette technologie peut être utilisée de façon négative et a suggéré aux gens d'être responsables dans l'utilisation de ce qu'ils ont développé. Elle a également mentionné les méthodes d'ingénierie inverse la technologie pour déterminer une vidéo éditée par rapport au réel.
Mais y at-il vraiment les moyens d'inverser ingénieur deepfake? Comment une personne ordinaire sans accès à une machine AI savoir ce qui est réel et ce qui ne?
La menace de Deepfake Créé par effrayantes
Nous savons déjà que deepfake peut faire un coup d'oeil vidéo vrai faux. Il peut nuire à la réputation d'une personne lorsque des photos scandaleuses de faux et vidéos sont publiées en ligne. En outre, il peut être utilisé pour des preuves alter à la broche un crime à une autre personne.
Cependant, une menace plus tangible causée par deepfake est la façon dont il fait le vrai faux semblent. Un exemple de cela est le coup d'Etat militaire en Afrique centrale Gabon à 2018. Les habitants du pays auraient pas vu leur président, Ali Bongo, pendant des mois et un événement surprenant, il a prononcé son discours d'usage du Nouvel An.
rivaux politiques ont insinué que le film était un produit de deepfake et que le gouvernement dissimulait la maladie du président. Une semaine après, un coup d'Etat militaire a été lancée qui a conduit à des meurtres. Ceci est juste un incident malheureux prouvant un risque plus grave posé par deepfake.
en relation: L'avenir de l'intelligence artificielle basée sur les solutions de sécurité dans l'industrie Cybersécurité
Deepfake sur la cybersécurité
entreprise de sécurité numérique Symantec a déjà souligné trois incidents de fraude deepfake voix, qui tout cela est arrivé plus tôt dans 2019. Dans la poste, il a été cité comment Euler Hermes a perdu au moins 10 millions $ à un voleur qu'il croyait être le patron d'un de leurs fournisseurs.
AI, tout en étant un outil utile pour déterminer les cyberattaques entrants et minimiser les cybermenaces, apparemment peut aussi être une technologie qui met une entreprise au bord. entreprises Cybersécurité croient que cette nouvelle innovation sera bientôt utilisé pour le jeu des cybercriminels.
Pour éviter que, chaque entreprise et chaque individu - car ils seront plus vulnérables aux fraudes deepfake - devraient faire un plan sur la façon de déterminer et de prévenir les attaques.
Faire face à la technologie Deepfake
Certaines entreprises sont encore dans le déni des risques qui deepfake la technologie peut poser à leur entreprise. Ils croient que la technologie est encore prématuré, et la peur est tout simplement causée par le battage médiatique.
Étant donné qu'il y a déjà confirmé les victimes de fraude deepfake, les entreprises de sécurité cybernétique sont plus convaincus que jamais une réponse rapide à la montée des méthodes de deepfake complexes devrait être mis en œuvre.
Il y a plusieurs recommandations partagées par des universitaires et des experts en cybersécurité. Certains d'entre eux sont les suivants:
1. Utilisation d'AI pour Deepfake Détection
Deepfake médias sont créés en utilisant l'intelligence artificielle de, si les experts suggèrent que l'ingénierie inverse de la méthode également impliquer AI.
Il y a maintenant quelques entreprises en développement AI concentré analyse des médias et la détection des anomalies sur les photos, vidéos, et les fichiers audio. L'un des signes révélateurs de médias de faux comprend des pixels incohérents autour de la bouche d'un sujet, ou des incohérences dans la génération d'ombres ou les angles du visage d'une personne.
Cependant, ce n'est pas une preuve concluante d'un deepfake.
Alors que les développeurs peuvent proposer des méthodes de détection précises, ils attendent toujours une plus grande base de données qu'ils peuvent utiliser pour construire un modèle de détection.
Cela nous amène à la dernière contribution de Google à la gestion deepfake menaces.
2. Collection de Deepfake de Google
Il y a une raison pour laquelle Google est considéré comme le roi des moteurs de recherche. Il a accès à presque tous les médias publiés en ligne, et qui comprend deepfake fichiers.
Bien que ce n'est pas une solution directe pour arrêter les attaques deepfake, la galerie de Google de deepfake médias sert une grande aide aux développeurs de trouver base de leurs machines de détection AI. Le géant technologique a publié plus 3000 vidéos de synthèse pour aider à accélérer la création d'outils de détection deepfake.
Facebook a également publié une déclaration qu'il viendra avec une base de données similaire. Lorsque des applications d'échange face ont été libérés en ligne premières, beaucoup ont apporté leurs photos aux médias sociaux résultant et Facebook a vu le plus de volume massif de ces deepfakes. En plus de, Facebook est aussi l'un des initiateurs de deepfakes à travers ses filtres de caméra.
3. 3D Imprimé Lunettes et Filigranes
Symantec a révélé qu'il explore la possibilité de lunettes 3D spécialisés pour détecter deepfake. Il est en quelque sorte similaire à la technologie présentée par les téléphones mobiles sur la façon d'empêcher leur duper fonction de reconnaissance faciale pour le verrouillage du téléphone et déverrouiller.
En attendant, start-ups ProofMode et TruePic utiliser des photos timbres avec un filigrane pour indiquer l'authenticité. Le fabricant de puces Qualcomm Major a déjà développé un logiciel pour mettre en œuvre la méthode dans les téléphones mobiles.
4. vérification des codes
On ne sait pas encore comment les codes peuvent fonctionner pour détecter deepfake mais Accenture pense l'utilisation responsable de la grippe aviaire est un moyen de prévenir les menaces probables. Ils suggèrent des gens le code d'édition pour créer deepfakes d'inclure des mesures de vérification. Cependant, il est évident que les cybercriminels ne jamais se conformer à cette.
en relation: Intel et Facebook de travail sur la grippe aviaire Inference Chip Appelée Nervana
Conclusion
Deepfake est relativement une nouvelle technologie qui ouvre de nouvelles fenêtres d'opportunité pour les cybercriminels pour gagner leurs proies. Les développeurs se sont empressés de créer des outils qui peuvent produire des médias que la confusion truie, mais ils ne sont pas préparés pour les conséquences.
Est-ce que nous allons voir un jour où nous aurons besoin de numériser des photos pour la vérification? Y aura-t un moment à l'avenir où nous nous doutons tout ce que nous voyons sur T.V. y compris les nouvelles?
La technologie pour contrer les menaces inévitables peut facilement être travaillé. Le vrai problème est maintenant la sensibilisation et à leur inculquer la responsabilité sociale dans l'utilisation de la manipulation AI.
A propos de l'auteur: John Ocampos
John est un chanteur d'opéra par profession, et un membre des Philippines Tenors. Depuis, Digital Marketing a toujours été son point fort. Il est le directeur général de MegaMedia Internet Advertising Inc, et le directeur général de Tech Hacker. John est aussi le gestionnaire actuel de SEO Softvire Nouvelle-Zélande et Softvire Australie – la principale société de commerce électronique de logiciels en Australie. Suivre John @iamJohnOcampos