Huis > Cyber ​​Nieuws > Deepfake Tech - Hoe om te gaan met deze groeiende bedreiging
CYBER NEWS

Deepfake Tech - Hoe om te gaan met deze groeiende bedreiging

Wie zou hebben gedacht dat het gezicht swap app we allemaal hebben genoten op social media een instrument zou kunnen zijn dat messes hele leven van een andere persoon of zelfs een hele natie?

Niet alles wat we zien echt is - deze lijnen ooit nu meer waarde gehecht dan aan geworden dat deepfakes poseren angstaanjagend bedreiging voor iedereen met data online gepubliceerd. Van de eenvoudige gezicht swap app die we hebben gespeeld rond met in de afgelopen jaren, het is nu uitgegroeid tot een vlekkeloze faken technologie die geloofwaardig resultaten oplevert.




In feite, een onlangs gelanceerde Chinese gezicht swap app genaamd Zao bewees hoe deepfake tech enorm is verbeterd. De uitgangen zijn zo overtuigend, dat een menselijk oog gemakkelijk kan worden misleid door een foto of video creëert.

Ondanks de doorbraak in zijn onberispelijke beeldmanipulatie, Zao ontvangen enorme terugslag zodra het wereldwijde populariteit bereikte. Dit was nadat het werd ontdekt bepaalde privacy wetten die zijn gebruikers in compromitterende situaties geplaatst te hebben geschonden.

Echter, de dreigingen die deepfake gaan dan louter privacy schrikken. Een grotere zorg die wordt geleverd met deze technologie is de kans groot dat het een krachtig wapen dat de publieke opinie beïnvloedt kan worden. Politiek en democratie worden aangewezen als de grootste doelen van deepfake gebruikers met kwaadaardige bedoelingen. Het bereiken van perfectie, experts van cybersecurity zie ook deepfake als een onovertroffen bron van cybercrime in de toekomst.

Vroege Manifestaties van Deepfake Technology

De deepfake tech of AI-gesynthetiseerde media werd aanvankelijk gebruikt in wetenschappelijk onderzoek als onderdeel van Computer Vision studies. Eén van de eerste projecten gedaan voor dit doel was in 1997 waarbij een video-opnames van een sprekende persoon werd gewijzigd om maken hem eruit als hij de inhoud van een afzonderlijke audiotrack sprak.

Fast forward naar 2017, een Redditor ontstond de term “deepfake” en gepost video's van verschillende Hollywood-sterren als Scarlett Johansson, de presentatie van haar in compromitterende seksuele scènes. Blijkbaar, bleek dat de video werd gemanipuleerd, plakken van het gezicht van een actrice om het lichaam van een pornoster.

Nog een video gedaan om te bewijzen hoe deepfake snel rijpen was de fotorealistische beelden van de schijnbaar voormalige president Barrack Obama het leveren van een toespraak. Het was een onderdeel van de “Synthesizing Obama”Project gelanceerd door de Universiteit van Washington, waar lip synchronisatie is gegaan naar een geheel nieuw niveau.

Een van de leidende onderzoekers van het project toe hoe deze technologie kan worden gebruikt in een negatieve manier en stelde voor mensen die verantwoordelijk zijn in het gebruik te zijn wat ze ontwikkeld. Ze noemde ook werkwijzen voor reverse engineering de technologie om een ​​bewerkte video ten opzichte van de echte te bepalen.

Maar zijn er echt manieren om ingenieur deepfake reverse? Hoe kan een gewoon persoon die geen toegang hebben tot een AI-machine weet wat echt is en wat niet?

Het Enger Threat Gemaakt door Deepfake

We weten al dat deepfake een valse video kijken echt kan maken. Het kan schade aan de reputatie van een persoon wanneer schandalige valse foto's en video's online worden vrijgegeven. Bovendien, het kan worden gebruikt om alter bewijzen om een ​​misdaad te pinnen aan een andere persoon.

Echter, een meer concrete dreiging veroorzaakt door deepfake is hoe het maakt het echt lijken nep. Een voorbeeld hiervan was de militaire staatsgreep Gabon Centraal-Afrika in 2018. De mensen van het land naar verluidt hebben hun president gezien, Ali Bongo, voor maanden en in een verrassend evenement, Hij gaf zijn gebruikelijke New Year's speech.

Politieke rivalen insinueerde dat de beelden was een product van deepfake en dat de overheid werd het maskeren kwaal van de president. Een week na, een militaire staatsgreep werd gelanceerd die hebben geleid tot moorden. Dit is slechts een ongelukkig incident blijkt een meer serieuze risico van deepfake.

Verwant: De toekomst van AI-Based Security Solutions in de Cybersecurity Industry

Deepfake op Cybersecurity

Digitale beveiligingsbedrijf Symantec heeft eerder gewezen drie incidenten van deepfake stem fraude, die allemaal gebeurde eerder in 2019. Bij de post, het werd aangehaald hoe Euler Hermes verloren ten minste $ 10m tot een dief wie hij dacht dat de baas van een van hun leveranciers.

AI, terwijl een nuttig hulpmiddel voor het bepalen inkomende cyberaanvallen en minimaliseren cyberthreats, blijkbaar kan ook een technologie die een bedrijf op een brink zet zijn. Cybersecurity bedrijven geloven dat deze nieuwe innovatie binnenkort zal worden gebruikt om het spel van cybercriminelen.

Om dat te voorkomen, elke onderneming en elk individu - zoals ze kwetsbaarder voor deepfake fraude zal zijn - moet een plan over hoe om vast te stellen en te voorkomen dat aanvallen maken.

Omgaan met Deepfake Technology

Sommige bedrijven zijn nog steeds in ontkenning van de risico's die deepfake technologie kan opleveren voor hun bedrijf. Zij geloven dat de tech is nog te prematuur, en de schrik wordt alleen veroorzaakt door de hype.

Gezien het feit dat er al bevestigd slachtoffers van deepfake fraude, cybersecurity bedrijven zijn meer dan ooit van overtuigd dat de snelle reactie op de opkomst van complexe deepfake methoden moeten worden geïmplementeerd.




Er zijn verschillende aanbevelingen gedeeld door academici en cyberveiligheid experts. Sommigen van hen zijn de volgende:

1. Het gebruik van AI voor Deepfake Detection

Deepfake media worden gemaakt met behulp van kunstmatige intelligentie, zodat deskundigen wijzen erop dat reverse engineering zal de methode ook gaan AI.

Er is nu een paar bedrijven het ontwikkelen van AI gericht analyseren van media en het opsporen van afwijkingen op foto's, video, en audiobestanden. Een van de verklikker tekenen van valse media omvat inconsistent pixels rond de mond van een patiënt, of tegenstrijdigheden in de opwekking van schaduwen of de hoeken van het gezicht van een persoon.

Echter, dit is geen sluitend bewijs van een deepfake.

Terwijl de ontwikkelaars kunnen komen met nauwkeurige detectiemethoden, ze zijn nog steeds wachten op een grotere database ze kunnen gebruiken om een ​​detectie-model te bouwen.

Dit leidt ons naar de meest recente bijdrage van Google om het beheren van deepfake bedreigingen.

2. Google's Collection van Deepfake

Er is een reden waarom Google is de koning van de zoekmachines geacht. Het heeft toegang tot bijna gepubliceerd alle media online, en dat omvat deepfake bestanden.

Hoewel het niet een directe oplossing voor deepfake aanvallen te stoppen, Google's galerie van deepfake media dient als een grote hulp voor ontwikkelaars vinden basis voor hun AI detectie machines. De tech reus afgegeven over 3000 gesynthetiseerd video's te helpen versnellen de creatie van deepfake detectie-instrumenten.

Facebook bracht ook een verklaring dat het zal komen met een soortgelijke databank. Wanneer gezicht swap apps primeurs werden vrijgegeven online, velen hebben de daaruit voortvloeiende foto's gebracht om sociale media en Facebook zag de meest massieve volume van die deepfakes. Naast het, Facebook is ook een van de grondleggers van deepfakes door middel van haar camera filters.

3. 3D Printed Glazen en watermerken

Symantec is gebleken dat zij de mogelijkheid van gespecialiseerde 3D-bril om deepfake detecteren is het verkennen. Het is enigszins vergelijkbaar met de technologie die door mobiele telefoons over het voorkomen tricking hun gelaatstrekken erkenning voor de telefoon vergrendelen en ontgrendelen.

Ondertussen, start-ups ProofMode en TruePic gebruik stempels foto's met een watermerk om de authenticiteit te geven. Major chipmaker Qualcomm heeft reeds software ontwikkeld om de methode in mobiele telefoons uit te voeren.

4. verificatie Codes

Het is nog niet duidelijk hoe codes kunnen werken bij het opsporen van deepfake maar Accenture denkt verantwoord gebruik van AI is een manier om waarschijnlijke dreigingen te voorkomen. Zij stellen voor mensen die het publiceren van code voor het creëren van deepfakes verificatie maatregelen omvatten. Echter, het is duidelijk dat cybercriminelen nooit zullen voldoen aan deze.

Verwant: Intel en Facebook Werken aan AI Inference Chip Called Nervana

Conclusie

Deepfake is relatief een nieuwe technologie die opende nieuwe windows of opportunity voor cybercriminelen om te winnen over hun prooi. Ontwikkelaars waren snel om tools die media kunnen produceren dat zaaien verwarring te creëren, maar ze waren niet voorbereid op de gevolgen.

Gaan we een dag te zien waar we je nodig hebt om foto's voor de verificatie scan? Zal er een tijd in de toekomst, waar we dat we alles wat we zien op TV 'zal twijfelen. met inbegrip van het nieuws?

Technologie om de onvermijdelijke bedreigingen tegen kan gemakkelijk worden gewerkt. Het echte probleem is nu het verspreiden van kennis en voor de vorming maatschappelijke verantwoordelijkheid in het gebruik van AI manipulatie.


Over de auteur: John Ocampos

John is een Zanger van de Opera van beroep, en een lid van de Filippijnen Tenors. Sindsdien, Digital Marketing heeft altijd zijn forte. Hij is de CEO van Megamedia Internet Advertising Inc, en de Managing Director van Tech Hacker. John is ook de huidige SEO Manager van Softvire Nieuw-Zeeland en Softvire Australië – de toonaangevende software e-commerce bedrijf in Australië. follow John @iamJohnOcampos

SensorsTechForum gastauteurs

De meningen die in deze gastposten worden geuit, zijn volledig die van de bijdragende auteur, en kunnen niet overeen met die van SensorsTechForum.

Meer berichten

Laat een bericht achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our Privacybeleid.
Daar ben ik het mee eens