Quem teria pensado que o aplicativo rosto de swap que todos nós temos apreciado em mídias sociais pode ser uma ferramenta que messes toda a vida de outra pessoa ou mesmo uma nação inteira?
Nem tudo o que vemos é real - essas linhas tornaram-se mais válida do que nunca, agora que deepfakes estão posando terríveis ameaças a todos com os dados publicados on-line. A partir do aplicativo cara troca simples que fui brincar com nos últimos anos, ele tem se transformado em uma tecnologia falsificação impecável que produz resultados verossímeis.
De fato, um recém-lançado rosto chinês aplicativo de swap chamada Zao provou como deepfake tecnologia tremendamente melhorado. As saídas são tão convincentes que um olho humano será facilmente enganado por qualquer foto ou vídeo que cria.
Apesar do avanço na sua manipulação de imagem impecável, Zao recebeu reação maciça assim que alcançou a popularidade mundial. Isso foi depois descobriu-se ter violado certas leis de privacidade que colocaram seus usuários em situações comprometedoras.
Contudo, as ameaças apresentadas por deepfake ir além do mero susto privacidade. A maior preocupação que vem com esta tecnologia é a alta probabilidade de que ele pode se tornar uma arma poderosa que influencia a opinião pública. Política e democracia são apontados como os maiores alvos de deepfake usuários mal-intencionados. atingindo a perfeição, especialistas de cibersegurança também ver deepfake como uma fonte inigualável de cibercrime no futuro.
Manifestações iniciais de Deepfake Tecnologia
Os meios de comunicação tecnologia deepfake ou AI-sintetizados foi inicialmente usado em pesquisas acadêmicas como parte de estudos de Visão Computacional. Um dos primeiros projetos realizados para o efeito estava em 1997 onde um vídeo de uma pessoa falando foi modificado para fazê-lo parecer como se ele estivesse falando o conteúdo de uma faixa de áudio em separado.
Fast forward para 2017, um Redditor originou o termo “deepfake” e vídeos postados de várias estrelas de Hollywood, como Scarlett Johansson, apresentá-la em comprometer cenas sexuais. Pelo visto, verificou-se que o vídeo foi manipulado, colar o rosto de uma atriz para o corpo de uma estrela pornô.
Outro vídeo feito para provar como deepfake está amadurecendo rapidamente foi a metragem photorealistic do aparentemente ex-presidente Barrack Obama fazer um discurso. Era uma parte da “sintetizando Obama”Projecto lançado pela Universidade de Washington, onde a sincronização labial foi para um nível totalmente novo.
Um dos principais pesquisadores do projeto admitido como esta tecnologia pode ser usada de forma negativa e sugeriu que as pessoas sejam responsáveis em usar o que eles desenvolveram. Ela também mencionou métodos de engenharia reversa da tecnologia para determinar um vídeo editado em relação ao real.
Mas realmente existem maneiras de reverter engenheiro deepfake? Como uma pessoa comum sem acesso a qualquer máquina AI pode saber o que é real eo que não é?
A ameaça mais assustador Criado por Deepfake
Nós já sabemos que deepfake pode fazer um olhar real falso vídeo. Ele pode prejudicar a reputação de uma pessoa quando escandalosas fotos e vídeos falsos são liberados on-line. além disso, ele pode ser usado para evidências alter para fixar um crime para outra pessoa.
Contudo, uma ameaça mais tangível causados por deepfake é como ele faz o real parece falso. Um exemplo disto era o golpe militar Gabão África Central no 2018. As pessoas do país supostamente não ter visto seu presidente, Ali Bongo, por meses e em um evento surpreendente, ele fez seu habitual discurso de Ano Novo.
rivais políticos insinuou que a filmagem foi um produto da deepfake e que o governo estava mascarando doença do presidente. Uma semana depois, um golpe militar foi lançado que levou a mortes. Este é apenas um infeliz incidente provando um risco mais grave apresentado por deepfake.
relacionado: The Future of Solutions AI-Based Segurança na Indústria de Segurança Cibernética
Deepfake sobre Segurança Cibernética
empresa de segurança digital Symantec apontou anteriormente fora três incidentes de deepfake fraude voz, que tudo aconteceu no início 2019. No post, foi citado como Euler Hermes perdeu pelo menos US $ 10 milhões a um ladrão a quem ele pensava que era o chefe de um dos seus fornecedores.
AI, enquanto sendo uma ferramenta útil para a determinação cyberattacks de entrada e minimizando ciberameaças, aparentemente, também pode ser uma tecnologia que coloca a empresa em uma beira. empresas de segurança cibernética acreditam que esta nova inovação em breve será usado para o jogo de cibercriminosos.
Para evitar que, cada empresa e cada indivíduo - como eles serão mais vulneráveis a fraudes deepfake - deve fazer um plano sobre como determinar e prevenir ataques.
Lidar com Deepfake Tecnologia
Algumas empresas ainda estão em negação dos riscos que deepfake tecnologia pode representar para os seus negócios. Eles acreditam que a tecnologia ainda é prematuro, e o susto é causado apenas pelo hype.
Tendo em conta que já existem vítimas de fraude deepfake confirmada, empresas de segurança cibernética são mais convencido do que nunca que uma resposta rápida ao aumento dos métodos deepfake complexos devem ser implementadas.
Existem várias recomendações compartilhadas por acadêmicos e especialistas em segurança cibernética. Alguns deles incluem o seguinte:
1. Uso de AI para a Detecção Deepfake
Deepfake media são criados usando a inteligência artificial, Assim, os especialistas sugerem que a engenharia inversa o método envolverá também AI.
Há agora um pequeno número de empresas em desenvolvimento AI focada análise de mídia e detectar discrepâncias em fotos, vídeos, e arquivos de áudio. Um dos sinais indicadores de meios falsos inclui pixels inconsistentes ao redor da boca de um sujeito, ou inconsistências na geração de sombras ou os ângulos do rosto de uma pessoa.
Contudo, isso não é evidência conclusiva de um deepfake.
Enquanto os desenvolvedores podem vir acima com métodos de detecção precisos, eles ainda estão à espera de uma base de dados maior do que eles podem usar para construir um modelo de detecção.
Isso nos leva a mais recente contribuição do Google para gerenciar deepfake ameaças.
2. Recolha de Deepfake do Google
Há uma razão por que o Google é considerado o rei dos motores de busca. Ele tem acesso a quase todos os media publicado on-line, e que inclui deepfake arquivos.
Embora não seja uma solução direta para parar deepfake ataques, galeria de deepfake mídia do Google serve como uma grande ajuda para os desenvolvedores encontrando base para suas máquinas de detecção AI. A gigante de tecnologia lançou mais 3000 vídeos sintetizados para ajudar a acelerar a criação de deepfake ferramentas de detecção.
Facebook também lançou uma declaração de que ele vai vir para cima com um banco de dados semelhante. Quando aplicativos de swap de rosto foram estreias lançado online, muitos trouxeram suas fotos resultantes de mídias sociais e Facebook viu o volume mais maciço desses deepfakes. além de, Facebook é também um dos criadores do deepfakes através de seus filtros de câmera.
3. 3D Impresso vidros e marcas de água
Symantec revelou que está explorando a possibilidade de especializados óculos 3D para detectar deepfake. É de certa forma similar à tecnologia apresentado por telefones celulares sobre como prevenir a enganar seu recurso de reconhecimento facial para bloqueio do telefone e desbloqueio.
enquanto isso, start-ups ProofMode e uso TruePic selos fotos com uma marca d'água para indicar autenticidade. Maior fabricante de chips Qualcomm já desenvolveu software para implementar o método em telefones celulares.
4. verificação Codes
Não está claro ainda como os códigos podem trabalhar na detecção deepfake mas Accenture pensa uso responsável da AI é uma forma de prevenir ameaças prováveis. Eles sugerem que as pessoas que publicam código para criar deepfakes para incluir medidas de verificação. Contudo, é óbvio que os cibercriminosos já não vai dar cumprimento à presente.
relacionado: Intel e Facebook Trabalho sobre AI Inference chip chamado Nervana
Conclusão
Deepfake é relativamente uma nova tecnologia que abriu novas janelas de oportunidade para os cibercriminosos para conquistar suas presas. Desenvolvedores foram rápidos para criar ferramentas que podem produzir media confusão que semear, mas eles não estavam preparados para as consequências.
Será que vamos ver um dia em que vamos precisar para digitalizar fotografias para a verificação? Haverá um momento no futuro em que vamos duvidar de tudo que vemos na T. V. incluindo a notícia?
Tecnologia para combater as ameaças inevitáveis pode ser facilmente trabalhado em. O verdadeiro problema agora é espalhar a consciência e incutir responsabilidade social no uso de manipulação AI.
Sobre o autor: John Ocampos
John é um cantor da ópera de profissão, e um membro dos teores Filipina. Desde então, Marketing Digital sempre foi o seu forte. Ele é o CEO da Megamedia Internet Advertising Inc, e o Director-Geral de Tecnologia Hacker. John também é o atual Gerente de SEO de Softvire Nova Zelândia e Softvire Austrália – a empresa líder de comércio eletrônico software na Austrália. Siga John @iamJohnOcampos