Deepfake Tech - Hvordan man kan håndtere denne voksende trussel
CYBER NEWS

Deepfake Tech - Hvordan man kan håndtere denne voksende trussel

Hvem ville have troet, at ansigtet swap app vi alle har nydt på sociale medier kan være et værktøj, der messer anden persons hele liv eller endda en hel nation?

Ikke alt, hvad vi ser, er ægte - disse linjer er blevet mere gyldige end nogensinde, nu hvor deepfakes der udgør skræmmende trusler mod alle med data offentliggjort online. Fra den simple ansigt swap app, som vi har spillet rundt med i de seneste år, det har nu udviklet sig til en fejlfri forfalskning teknologi, der producerer troværdige resultater.




Faktisk, en nyligt lanceret Kinesisk ansigt swap app kaldet Zao bevist hvordan deepfake tech har voldsomt forbedret. Udgangene er så overbevisende, at det menneskelige øje vil være let narret af et fotografi eller en video det skaber.

På trods af gennembrud i sin upåklagelig billedmanipulation, Zao modtaget massiv modreaktion, så snart den nåede globale popularitet. Dette var efter det blev fundet ud af at have overtrådt visse love om privatlivets fred, der placeres sine brugere i kompromitterende situationer.

Men, de trusler, der skyldes deepfake gå videre end blot skræmme privatliv. En større bekymring, der kommer med denne teknologi er det stor sandsynlighed for at det kan blive et stærkt våben, der påvirker den offentlige mening. Politik og demokrati er påpeget som de største mål for deepfake brugere med ondsindede hensigter. nå perfektion, eksperter for sikkerheden på internettet også se deepfake som en enestående kilde til cyberkriminalitet i fremtiden.

Tidlige manifestationer Deepfake Technology

De deepfake tech eller AI-syntetiserede medium blev oprindeligt anvendt i akademiske undersøgelser som en del af computer Vision undersøgelser. Et af de første projekter udført til dette formål var i 1997 hvor en video optagelser af en talende person blev ændret for at gøre ham til at ligne han talte indholdet af et separat lydspor.

Hurtigt frem til 2017, en Redditor stammer udtrykket ”deepfake” og sendt videoer af flere Hollywood-stjerner som Scarlett Johansson, præsentere hende i at gå på kompromis seksuelle scener. Tilsyneladende, Det blev konstateret, at videoen blev manipuleret, indsætte ansigtet af en skuespillerinde til kroppen af ​​en pornostjerne.

En anden video gjort for at bevise, hvor deepfake modnes hastigt var den fotorealistisk optagelser af den tilsyneladende tidligere præsident Barrack Obama leverer en tale. Det var en del af ”synteseskabende Obama”Projekt lanceret af University of Washington, hvor læbe synkronisering er gået til et helt nyt niveau.

En af de ledende forskere i projektet indrømmede, hvordan denne teknologi kan bruges på en negativ måde og foreslog folk at være ansvarlige i at bruge det, de udviklede. Hun nævnte også metoder til reverse engineering teknologien til at bestemme en redigeret video versus den virkelige.

Men er der virkelig måder at vende ingeniør deepfake? Hvordan kan en almindelig person uden adgang til nogen AI maskine vide hvad der er ægte og hvad der ikke?

Den mere skræmmende Trussel Lavet af Deepfake

Vi ved allerede, at deepfake kan lave en falsk video kig real. Det kan skade en persons omdømme, når skandaløse falske fotos og videoer er frigivet online. Endvidere, det kan bruges til at ændre beviser til ben en forbrydelse til en anden person.

Men, en mere håndgribelig trussel forårsaget af deepfake er, hvordan det gør den virkelige synes falske. Et eksempel på dette var Den Gabon Centralafrika militærkup i 2018. Befolkningen i landet efter sigende ikke har set deres præsident, Ali Bongo, i flere måneder og i en overraskende begivenhed, han leverede sin sædvanlige nytårstale.

Politiske rivaler antyde, at optagelserne var et produkt af deepfake og at regeringen var maskering præsidentens lidelse. En uge efter, et militærkup blev lanceret, der førte til drab. Dette er blot en uheldig hændelse bevise en mere alvorlig risiko ved deepfake.

Relaterede: Fremtiden for AI-Based Security Solutions i cybersikkerhed Industri

Deepfake om cybersikkerhed

Digital sikkerhedsfirma Symantec har tidligere påpeget tre episoder af deepfake stemme bedrageri, som hele skete tidligere i 2019. I post, Det blev nævnt, hvordan Euler Hermes tabt mindst $ 10m til en tyv, som han troede var chef for en af ​​deres leverandører.

AI, samtidig være et nyttigt værktøj til bestemmelse indkommende cyberattacks og minimere cyberthreats, tilsyneladende kan også være en teknologi, der sætter en virksomhed i en randen. Cybersecurity virksomheder mener, at denne nye innovation snart vil blive brugt til op spillet af cyberkriminelle.

For at forhindre, at, hver virksomhed og hver enkelt - da de vil være mere sårbare over for deepfake svig - skal lave en plan for, hvordan man kan bestemme og forhindre angreb.

Beskæftiger sig med Deepfake Technology

Nogle virksomheder er stadig i benægtelse af de risici, deepfake teknologi kan udgøre for deres virksomhed. De mener, at tech er stadig for tidligt, og skræmme er netop forårsaget af den hype.

I betragtning af, at der allerede er bekræftet ofre for deepfake svindel, cybersikkerhed virksomheder er mere overbevist end nogensinde, at bør gennemføres hurtigt svar til stigningen af ​​komplekse deepfake metoder.




Der er flere anbefalinger deles af akademikere og cybersikkerhed eksperter. Nogle af dem omfatter følgende:

1. Anvendelse af AI for Deepfake Detection

Deepfake medier er skabt ved hjælp af kunstig intelligens, så eksperter foreslår, at reverse engineering fremgangsmåden vil også indebære AI.

Der er nu et par virksomheder, der udvikler AI fokuseret analysere medier og afsløre uoverensstemmelser på fotos, videoer, og lydfiler. En af de kontrollampe tegn på falske medier omfatter inkonsistente pixel omkring et emne mund, eller uoverensstemmelser i genereringen af ​​skygger eller vinklerne i en persons ansigt.

Men, dette er ikke afgørende bevis på en deepfake.

Mens udviklere kan komme med præcise detektionsmetoder, de venter stadig på en større database, de kan bruge til at bygge en afsløring model.

Dette fører os til Googles nyeste bidrag til at styre deepfake trusler.

2. Googles Indsamling af Deepfake

Der er en grund til, at Google anses kongen af ​​søgemaskiner. Det har adgang til næsten alle medier offentliggjort online, og det omfatter deepfake filer.

Selvom det ikke er en direkte løsning til at stoppe deepfake angreb, Googles galleri af deepfake medier fungerer som en stor hjælp for udviklere at finde grundlag for deres AI afsløring maskiner. Den tech gigant frigivet i løbet af 3000 syntetiserede videoer bidrage til at fremskynde oprettelsen af ​​deepfake sporingsredskaber.

Facebook også udgivet en erklæring om, at det vil komme op med en lignende database. Når ansigt swap apps blev firsts udgivet online, mange har bragt deres resulterende fotos til sociale medier og Facebook oplevede den mest massive mængde af disse deepfakes. Udover, Facebook er også en af ​​initiativtagerne til deepfakes gennem sit kamera filtre.

3. 3D Trykt Briller og vandmærker

Symantec afslørede, at det er ved at undersøge muligheden for specialiserede 3D-briller til at opdage deepfake. Det er på en måde ligner den teknologi præsenteret af mobiltelefoner på hvordan man kan forhindre narre deres ansigts træk anerkendelse for telefon lås og låse.

I mellemtiden, nystartede virksomheder ProofMode og TruePic brug frimærker billeder med et vandmærke for at indikere ægthed. Major chipmaker Qualcomm har allerede udviklet software til at implementere metoden i mobiltelefoner.

4. verifikation Koder

Det er ikke klart endnu, hvordan koder kan arbejde med at afsløre deepfake men Accenture tænker ansvarlig brug af AI er en måde at forhindre sandsynlige trusler. De foreslår folk udgivelse kode for at skabe deepfakes at omfatte kontrolforanstaltninger. Men, Det er indlysende, at cyberkriminelle aldrig vil overholde dette.

Relaterede: Intel og Facebook arbejdsgruppe om AI Inferens Chip Called Nervana

Konklusion

Deepfake er relativt en ny teknologi, der åbnede nye vinduer af muligheder for cyberkriminelle at vinde over deres bytte. Udviklere var hurtige til at skabe værktøjer, der kan producere medier at skabe forvirring, men de var ikke forberedt på konsekvenserne.

Skal vi se en dag, hvor vi bliver nødt til at scanne fotos til verifikation? Vil der være en gang i fremtiden, hvor vi vi tvivler på alt, hvad vi ser på T. V. herunder nyheden?

Teknologi til at imødegå de uundgåelige trusler kan nemt blive arbejdet på. Det virkelige problem nu er at udbrede kendskabet og indgyde socialt ansvar i at bruge AI manipulation.


Om forfatteren: John Ocampos

John er en operasanger af profession, og et medlem af den filippinske Tenors. Lige siden, Digital Marketing har altid været hans forte. Han er administrerende direktør for mega-medieselskaber Internet Advertising Inc, og den administrerende direktør for Tech Hacker. John er også den nuværende SEO manager for Softvire New Zealand og Softvire Australien – den førende software ecommerce selskab i Australien. Følg John @iamJohnOcampos

Avatar

SensorsTechForum Guest Forfattere

Fra tid til anden, SensorsTechForum funktioner gæst artikler af cybersikkerhed ledere og entusiaster. Udtalelserne i disse gæst stillinger, dog, er helt de af bidragydende forfatter, og kan afvige de SensorsTechForum.

Flere indlæg

Efterlad en kommentar

Din e-mail-adresse vil ikke blive offentliggjort. Krævede felter er markeret *

Frist er opbrugt. Venligst genindlæse CAPTCHA.

Del på Facebook Del
Loading ...
Del på Twitter Tweet
Loading ...
Del på Google Plus Del
Loading ...
Del på Linkedin Del
Loading ...
Del på Digg Del
Del på Reddit Del
Loading ...
Del på Stumbleupon Del
Loading ...