Zuhause > Cyber ​​Aktuelles > Deepfake Tech - Umgang mit dieser wachsenden Bedrohung
CYBER NEWS

Deepfake Tech - Wie mit dieser wachsenden Bedrohung Deal

Wer hätte gedacht, dass das Gesicht Swap-App wir alle auf Social Media genossen haben könnte ein Instrument sein, dass Verwirrungen eine andere Person das ganze Leben oder sogar eine ganze Nation?

Nicht alles, was wir sehen, ist real - diese Zeilen mehr gültig geworden sind denn je, dass deepfakes erschreckende Bedrohung für alle posieren mit Daten im Internet veröffentlicht. Von dem einfachen Gesicht Swap-App, dass wir mit in den vergangenen Jahren herumgespielt haben, Es wurde nun in einem einwandfreien Fälschen Technologie entwickelt, die glaubwürdige Ergebnisse produziert.




Tatsächlich, ein neu ins Leben gerufen Chinese Gesicht Swap-App namens Zao bewiesen, wie hat deepfake Tech enorm verbessert. Die Ausgänge sind überzeugend, so dass ein menschliches Auge leicht von jedem Foto oder Video täuscht es schafft.

Trotz des Durchbruchs in seiner einwandfreien Bildmanipulation, Zao erhielt massiven Rückschlag, sobald es weltweite Popularität erreicht. Das war, nachdem es gefunden wurde, um bestimmte Datenschutzgesetze verstoßen zu haben, das seinen Nutzern Situationen in kompromittierenden platziert.

Jedoch, die Bedrohungen durch deepfake präsentiert gehen über die bloße Privatsphäre schrecken. Eine größere Sorge, dass mit dieser Technologie kommt, ist die Wahrscheinlichkeit groß, dass es sich um eine mächtige Waffe, die öffentliche Meinung beeinflusst werden kann. Politik und Demokratie sind als die größten Ziele von deepfake Benutzer mit böswilliger Absicht hingewiesen. Das Erreichen Perfektion, Experten von Cyber ​​auch als unschlagbarer Quelle von Internet-Kriminalität in Zukunft deepfake.

Frühe Symptome von Deepfake Technologie

Die deepfake Tech-oder AI-synthetisierten Medien wurden zunächst in wissenschaftlichen Untersuchungen als Teil der Computer Vision Studien. Eines der ersten für diesen Zweck getan Projekte war in 1997 wo ein Videoaufnahme von einer sprechenden Person wurde modifiziert, um ihn, wie er aussehen wurde, den Inhalt eines separaten Audiospur sprechen.

Schneller Vorlauf bis 2017, ein Redditor entstand der Begriff „deepfake“ und veröffentlicht Videos von mehreren Hollywood-Stars wie Scarlett Johansson, präsentieren ihre Sexszenen in kompromittierenden. Offenbar, es wurde, dass das Video herausgefunden manipuliert wurde, Einfügen das Gesicht einer Schauspielerin auf dem Körper eines Porno-Star.

Ein weiteres Video getan zu beweisen, wie deepfake reift waren schnell die fotorealistische Aufnahmen des scheinbar ehemaligen Präsidenten Barrack Obama eine Rede halten. Es war ein Teil des „Synthetisierung Obama“Projekt ins Leben gerufen von der University of Washington, wo die Lippe Synchronisierung auf eine ganz neue Ebene gegangen ist.

Einer der Leitung Forscher des Projekts zugelassen, wie Diese Technologie kann in einer negativen Art und Weise verwendet werden, und schlug vor, die Menschen im Umgang mit verantwortlich zu sein, was sie entwickelte. Sie erwähnte auch, Methoden des Reverse Engineering die Technologie ein bearbeitetes Video im Vergleich zu den echten zu bestimmen.

Aber gibt es wirklich Möglichkeiten, Ingenieur deepfake zu umkehren? Wie kann ein normaler Mensch ohne Zugang zu jeder AI Maschine wissen, was real ist und was nicht?

Die Scarier Threat Erstellt von Deepfake

Wir wissen bereits, dass deepfake eine gefälschte Video echt aussehen machen. Es kann eine Person, die den Ruf als skandalös gefälschte Fotos und Videos beschädigen Online freigegeben werden. Weiter, es kann zu alter Beweise verwendet werden, um ein Verbrechen zu einer anderen Person an Pin.

Jedoch, ein greifbare Bedrohung durch deepfake verursacht ist, wie es die reale macht gefälschtes scheint. Ein Beispiel hierfür war der Gabun Zentralafrika Militärputsch in 2018. Die Menschen des Landes haben angeblich nicht ihren Präsidenten gesehen, Ali Bongo, für Monate und in einem überraschenden Ereignisse, er hat seine übliche Neujahrsansprache.

Politische Rivalen deuteten an, dass das Material ein Produkt von deepfake war und dass die Regierung des Präsidenten Krankheit wurde Maskierung. Eine Woche nach, ein Militärputsch wurde das zu Tötungen führten ins Leben gerufen. Dies ist nur ein unglücklicher Vorfall ein ernsteres Risiko durch deepfake beweisen.

verbunden: Die Zukunft der KI-basierte Sicherheitslösungen in der Industrie Cyber

Deepfake auf Cyber

Digitale Sicherheitsfirma Symantec hat bereits darauf hingewiesen, drei Fälle von deepfake Stimme Betrug, was alles passiert ist früher in 2019. In der Post, es wurde zitiert, wie Euler Hermes mindestens verloren $ 10m für einen Dieb, den er dachte, war der Chef eines ihrer Lieferanten.

AI, während sie ein nützliches Werkzeug zur Bestimmung der ankommenden Cyberattacken und Minimierung Cyber-Bedrohungen, offenbar kann auch eine Technologie, die ein Unternehmen an einem Rand legt. Cyber ​​Firmen glauben, dass diese neue Innovation wird in Kürze auf den Cyber-Kriminellen auf das Spiel verwendet werden.

Um zu verhindern, dass, jedes Unternehmen und jeder Einzelne - wie sie zu deepfake Betrügereien anfälliger sein wird - sollte einen Plan machen, wie Angriffe zu bestimmen und zu verhindern,.

Der Umgang mit Deepfake Technologie

Einige Unternehmen sind nach wie vor in der Ablehnung der Risiken, die deepfake Technologie für ihr Geschäft darstellen kann. Sie glauben, dass die Tech noch verfrüht ist,, und der Schrecken wird nur durch den Hype verursacht.

Da es bereits Opfer von Betrug deepfake bestätigt, Cyber-Unternehmen sind davon überzeugt, mehr denn je, dass die schnelle Reaktion auf den Anstieg von komplexen deepfake Methoden umgesetzt werden sollte.




Es gibt mehrere Empfehlungen von Wissenschaftlern geteilt und Cyber-Experten. Einige von ihnen gehören die folgenden:

1. Verwendung von AI für Deepfake Detektion

Deepfake Medien entstehen künstliche Intelligenz mit, so Experten das Verfahren auch AI, dass die Reverse-Engineering vorschlagen beinhaltet.

Es gibt jetzt ein paar Unternehmen, die Entwicklung AI Medien konzentrierte Analyse und Erkennung von Diskrepanzen auf Fotos, Videos, und Audiodateien. Eines der verräterischen Anzeichen von gefälschten Medien umfasst inkonsistent Pixel um den Mund des Subjekts, oder Inkonsistenzen bei der Erzeugung von Schatten oder die Winkel des Gesichts einer Person.

Jedoch, dies ist nicht schlüssiger Beweis für einen deepfake.

Während Entwickler genaue Nachweismethoden kommen können, sie sind immer noch für eine größere Datenbank warten sie verwenden können, ein Erkennungsmodell zu bauen.

Dies führt uns zu Googles neueste Beitrag zur deepfake Bedrohungen Verwaltung.

2. Googles Sammlung von Deepfake

Es gibt einen Grund, warum Google den König der Suchmaschinen angesehen wird. Er hat Zugriff auf fast alle Medien im Internet veröffentlicht, und das schließt deepfake Dateien.

Es ist zwar keine direkte Lösung deepfake Angriffe zu stoppen, Google-Galerie von deepfake Medien dient als große Hilfe für Entwickler finden Grundlage für ihre AI Erkennung Maschinen. Der Tech-Riese veröffentlicht über 3000 synthetisierten Videos zu helfen, die Schaffung von deepfake-Erkennungs-Tools beschleunigen.

Facebook veröffentlichte auch eine Aussage darüber, dass es mit einer ähnlichen Datenbank wird kommen. Wenn Gesicht Swap-Anwendungen wurden Premieren Online veröffentlicht, viele von ihnen haben ihre resultierenden Fotos zu sozialen Medien gebracht und Facebook sah die massivsten Volumen dieser deepfakes. Neben, Facebook ist auch einer der Initiatoren von deepfakes durch seine Kamerafilter.

3. 3D Printed Gläser und Wasserzeichen

Symantec ergab, dass es die Möglichkeit der spezialisierten 3D-Brille erforscht zu erkennen deepfake. Es ist irgendwie ähnlich wie die Technologie von Mobiltelefonen vorgestellt, wie ihre Gesichtserkennungsfunktion für Telefonsperre zu verhindern, tricksen und Unlock.

Mittlerweile, Start-ups ProofMode und TruePic Verwendung Briefmarken Fotos mit einem Wasserzeichen Authentizität, um anzuzeigen,. Die wichtigste Chip-Hersteller Qualcomm hat bereits entwickelte Software die Methode in Mobiltelefonen zu implementieren.

4. Verification Codes

Es ist noch nicht klar, wie Codes bei der Aufdeckung von deepfake arbeiten kann, aber Accenture denkt verantwortungsvoller Einsatz von AI eine Möglichkeit ist wahrscheinlich Bedrohungen zu verhindern. Sie schlagen vor, die Menschen für die Erstellung von deepfakes Veröffentlichung Bestätigungscode Maßnahmen umfassen. Jedoch, es ist offensichtlich, dass Cyber-Kriminelle werden nicht immer mit dieser erfüllt.

verbunden: Intel und Facebook Arbeiten an AI Inference Chip namens Nervana

Abschluss

Deepfake ist ein relativ neue Technologie, die neue Chancen für Cyber-Kriminelle öffnete ihre Beute zu gewinnen. Entwickler waren schnell Werkzeuge zu schaffen, die Medien, die Sau Verwirrung erzeugen können, aber sie wurden nicht für die Folgen vorbereitet.

Werden wir einen Tag, um zu sehen, wo wir Fotos für die Überprüfung scannen benötigen? Wird es eine Zeit in der Zukunft sein, wo wir uns an allem zweifeln wir an T. V sehen. einschließlich der Nachrichten?

Technologie, die unvermeidlichen Bedrohungen zu begegnen kann leicht bearbeitet werden. Das eigentliche Problem ist nun die Verbreitung Bewusstsein und soziale Verantwortung Einträufeln in Verwendung AI Manipulation.


Über den Autor: John Ocampos

John ist ein Opern-Sänger von Beruf, und ein Mitglied der Philippinen Tenors. seit, Digital Marketing war schon immer seine Stärke. Er ist der CEO von Megamedia Internet Advertising Inc, und der Geschäftsführer von Tech Hacker. John ist auch der aktuelle SEO-Manager von Softvire Neuseeland und Softvire Australien – die führende Software E-Commerce-Unternehmen in Australien. Folgen Sie John @iamJohnOcampos

SensorsTechForum Guest Autoren

Die in diesen Gastbeiträgen geäußerten Meinungen sind ausschließlich die der beitragenden Autoren, und nicht über die in der SensorsTechForum reflektieren.

Mehr Beiträge

Schreibe einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our Datenschutz-Bestimmungen.
Genau