Casa > Cyber ​​Notizie > Deepfake Tech – Come affrontare questa crescente minaccia
CYBER NEWS

Deepfake Tech - Come affrontare questa minaccia crescente

Chi avrebbe pensato che l'applicazione faccia di swap tutti noi abbiamo goduto sui social media potrebbe essere uno strumento che pasticci di un'altra persona tutta la vita o addirittura un'intera nazione?

Non tutto ciò che vediamo è reale - queste linee sono diventate più valida che mai, ora che sono in posa deepfakes minacce terrificanti a tutti con i dati pubblicati online. Dalla semplice applicazione faccia di swap che abbiamo giocato in giro con negli anni passati, ha ora sviluppato in una tecnologia falsificazione impeccabile che produce risultati credibili.




Infatti, un lanciato di recente Fronte cinese di swap applicazione chiamata Zao ha dimostrato quanto deepfake tecnologia ha notevolmente migliorato. Le uscite sono così convincente che un occhio umano sarà facilmente ingannato da una foto o un video che crea.

Nonostante la svolta nella sua manipolazione delle immagini impeccabili, Zao ricevuto massiccia reazione non appena ha raggiunto popolarità globale. Questo è stato dopo che è stato scoperto di aver violato alcune leggi sulla privacy che hanno posto i propri utenti in situazioni compromettenti.

Tuttavia, i rischi creati dalle deepfake vanno oltre la semplice spavento privacy. Una preoccupazione più grande che viene fornito con questa tecnologia è l'alta probabilità che possa diventare un'arma potente che influenza l'opinione pubblica. La politica e la democrazia sono segnalati come i più grandi obiettivi di deepfake utenti malintenzionati. raggiungere la perfezione, esperti di sicurezza informatica anche vedere deepfake come fonte insuperabile della criminalità informatica nel futuro.

Le prime manifestazioni di Deepfake Tecnologia

I media deepfake tech o AI-sintetizzati è stato inizialmente utilizzato in ricerche accademiche come parte di studi di visione artificiale. Uno dei primi progetti realizzati per questo scopo è stato in 1997 in cui un video di una persona che parla è stato modificato per farlo sembrare come se stesse parlando il contenuto di una traccia audio separata.

Fast forward al 2017, un Redditor avuto origine il termine “deepfake” e video pubblicati su diverse stelle di Hollywood come Scarlet Johansson, presentandola in compromettere scene sessuali. Apparentemente, si è scoperto che il video è stato manipolato, incollare il volto di un'attrice per il corpo di una porno star.

Un altro video fatto per dimostrare come deepfake sta maturando rapidamente è stato il filmato fotorealistica del apparentemente ex presidente Barack Obama un discorso. E 'stata una parte del “Synthesizing Obama”Progetto lanciato dalla Università di Washington, dove la sincronizzazione delle labbra è andato a un livello completamente nuovo.

Uno dei ricercatori di piombo del progetto ammesso come questa tecnologia può essere utilizzata in modo negativo e ha suggerito alle persone di essere responsabili in utilizzando ciò che hanno sviluppato. Ha anche detto metodi di reverse engineering della tecnologia per determinare un video modificato rispetto a quello reale.

Ma ci sono davvero modi per invertire ingegnere deepfake? Come può una persona comune che non hanno accesso a qualsiasi macchina AI sapere che cosa è reale e cosa non lo è?

La minaccia più spaventosa Creato da Deepfake

Sappiamo già che deepfake può fare un falso il video vero e proprio sguardo. Si può danneggiare la reputazione di una persona quando le foto false scandalose e video vengono rilasciati in linea. Inoltre, può essere utilizzato per prove alter al pin un crimine a un'altra persona.

Tuttavia, una minaccia più tangibile causata da deepfake è come fa il vero sembrano falso. Un esempio di questo è stato il colpo di stato militare Gabon Africa Centrale in 2018. La gente del paese come riferito non hanno visto il loro presidente, Ali Bongo, per mesi e in un evento sorprendente, ha presentato le sue consueto discorso di Capodanno.

rivali politici insinuato che il filmato era un prodotto di deepfake e che il governo stava mascherando malattia del presidente. Una settimana dopo, un colpo di stato militare è stata lanciata che ha portato alla omicidi. Questo è solo uno sfortunato incidente dimostrando un più grave rischio posto dalla deepfake.

Correlata: Il futuro delle soluzioni AI-Based Security nel settore Cybersecurity

Deepfake sulla sicurezza informatica

società di sicurezza digitale Symantec ha già sottolineato tre episodi di frodi deepfake voce, che tutto è accaduto in precedenza in 2019. Nella posta, è stato citato come Euler Hermes ha perso almeno $ 10 milioni per un ladro che credeva fosse il capo di uno dei loro fornitori.

AI, pur essendo uno strumento utile per determinare attacchi informatici in entrata e minimizzando minacce informatiche, a quanto pare può anche essere una tecnologia che mette una società in un baratro. aziende di sicurezza informatica ritengono che questa nuova innovazione sarà presto utilizzato per il gioco dei criminali informatici.

Per impedire che, ogni impresa e ogni individuo - in quanto saranno più vulnerabili a deepfake frodi - dovrebbe fare un piano su come determinare e prevenire gli attacchi.

Trattare con Deepfake tecnologia

Alcune aziende sono ancora in negazione dei rischi che deepfake tecnologia può rappresentare per la loro attività. Essi credono che la tecnologia è ancora prematuro, e la paura è solo causato dalla campagna pubblicitaria.

Dato che ci sono già confermati vittime di frodi deepfake, le aziende di sicurezza informatica sono sempre più convinto che la risposta pronta per l'ascesa di metodi deepfake complessi deve essere attuato.




Ci sono diverse raccomandazioni condivise da accademici ed esperti di sicurezza informatica. Alcuni di essi sono i seguenti:

1. L'utilizzo di intelligenza artificiale per Deepfake Detection

Deepfake supporti vengono creati utilizzando l'intelligenza artificiale, così gli esperti suggeriscono che il reverse engineering del metodo coinvolgerà anche AI.

C'è ora un paio di aziende che sviluppano AI focalizzata l'analisi dei media e rilevare discrepanze sulle foto, video, e file audio. Uno dei segni rivelatori di mezzi falsi include pixel incoerenti attorno alla bocca di un soggetto, o incongruenze nella generazione delle ombre o angoli di volto di una persona.

Tuttavia, questo non è prova conclusiva di un deepfake.

Mentre gli sviluppatori possono trovare con metodi di rilevamento precisi, essi sono ancora in attesa di una base di dati più grande che possono utilizzare per costruire un modello di rilevamento.

Questo ci porta a ultimo contributo di Google per la gestione delle minacce deepfake.

2. Raccolta di Google di Deepfake

C'è un motivo per cui Google è considerato il re dei motori di ricerca. Ha accesso a quasi tutti i media pubblicati online, e che include i file deepfake.

Anche se non è una soluzione diretta per fermare gli attacchi deepfake, galleria di deepfake supporto di Google serve come un grande aiuto per gli sviluppatori di trovare basi per le loro macchine di rilevazione AI. Il gigante tecnologico ha rilasciato nel corso 3000 video sintetizzati per contribuire ad accelerare la creazione di strumenti di rilevazione deepfake.

Facebook ha anche rilasciato una dichiarazione che si presenti con un database simile. Quando le applicazioni di swap del viso sono stati rilasciati primati in linea, molti hanno portato le loro foto risultanti per i social media e Facebook ha visto l'enorme volume maggior parte di quei deepfakes. Oltre a, Facebook è anche uno degli ideatori di deepfakes attraverso i suoi filtri fotografici.

3. 3D Stampato Vetri e filigrane

Symantec ha rivelato che si sta esplorando la possibilità di occhiali 3D specializzati per rilevare deepfake. E 'in qualche modo simile alla tecnologia presentata dai telefoni cellulari su come prevenire ingannando la loro funzione di riconoscimento facciale per il blocco del telefono e sbloccare.

Nel frattempo, start-up ProofMode e sull'uso TruePic francobolli foto con una filigrana per indicare l'autenticità. Maggiore produttore di chip Qualcomm ha già sviluppato un software per implementare il metodo nei telefoni cellulari.

4. verifica Codici

Non è ancora chiaro come i codici possono lavorare nella rilevazione deepfake ma Accenture pensa uso responsabile di AI è un modo per prevenire le minacce probabili. Essi suggeriscono le persone che pubblicano il codice per la creazione di deepfakes per includere misure di verifica. Tuttavia, è ovvio che i criminali informatici non saranno mai conformarsi alla presente.

Correlata: Intel e Facebook di lavoro sulle AI Inference chip chiamato Nervana

Conclusione

Deepfake è relativamente una nuova tecnologia che ha aperto nuove finestre di opportunità per i criminali informatici per conquistare la preda. Gli sviluppatori si sono affrettati a creare strumenti che possono produrre mezzi confusione che scrofa, ma non erano preparati per le conseguenze.

Stiamo andando a vedere un giorno in cui avremo bisogno di eseguire la scansione di foto per la verifica? Ci sarà un tempo in futuro dove ci dubitiamo tutto ciò che vediamo sul T. V. tra cui la notizia?

La tecnologia per contrastare le inevitabili minacce può essere facilmente lavorato. Il vero problema ora si sta diffondendo la consapevolezza e la responsabilità sociale instillare nel usando la manipolazione AI.


Circa l'autore: John Ocampos

John è un Cantante d'opera di professione, e un membro dei tenori Filippine. Da allora, Digital Marketing è sempre stata il suo forte. Egli è il CEO di Megamedia Internet Advertising Inc, e l'Amministratore Delegato di Tech Hacker. John è anche l'attuale responsabile SEO di Softvire Nuova Zelanda e Softvire l'Australia – la principale società di e-commerce software in Australia. Segui John @iamJohnOcampos

SensorsTechForum autori ospiti

Le opinioni espresse in questi guest post sono interamente quelle dell'autore che ha contribuito, e non può riflettere quelle di SensorsTechForum.

Altri messaggi

Lascio un commento

Il tuo indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our politica sulla riservatezza.
Sono d'accordo