Casa > cibernético Notícias > Sistemas de reconhecimento facial contornados pela fragilidade do aprendizado de máquina
CYBER NEWS

Sistemas de reconhecimento facial contornados pela fragilidade do aprendizado de máquina

Especialistas em segurança publicaram descobertas sobre como as tecnologias modernas de reconhecimento facial podem ser enganadas por usuários mal-intencionados usando uma fraqueza descoberta nos algoritmos de aprendizado de máquina usados. A exploração bem-sucedida desta técnica fará o sistema pensar que está vendo a pessoa-alvo e fornecerá credenciais para os recursos protegidos.




Sistemas de reconhecimento facial enganados em uma nova técnica de abuso

Especialistas em segurança de computadores descobriram um novo método que pode contornar efetivamente as tecnologias contemporâneas de reconhecimento facial. Suas descobertas foram publicadas em um artigo de pesquisa chamado Dopple-ganging up on Facial Recognition System e dependem de uma fraqueza nos algoritmos de aprendizado de máquina implementados nesses sistemas. Eles são projetados para julgar a autenticidade das imagens que veem e se são verificadas e legítimas, a fim de desbloquear os recursos ocultos.

Um dos métodos descobertos depende do uso de software especial que é projetado para gerar faces fotorrealistas. Este modelo de ataque depende do uso de vários frameworks para a criação de tais imagens. O aprendizado de máquina depende de muitos Treinamento — conjuntos de dados estão sendo alimentados para a entrada do sistema, a fim de atingir o nível projetado de implementação de segurança.

Por esta razão, o modelo de ataque proposto conta com o uso desse mesmo fator para treinar a máquina. Em vez de alimentar imagens válidas e seguras usando conjuntos autênticos e legítimos, os hackers podem usar suas próprias imagens maliciosas. O objetivo principal é minimizar a distância entre uma imagem facial legítima e uma criada. Quando o sistema de reconhecimento facial reconhece uma distância mínima em alguns casos, um classificação errada pode acontecer - isso levará à verificação do rosto criado com malware.

Uma demonstração deste conceito foi feita treinando um sistema em um 1500 conjuntos de imagens de pesquisadores que foram capturados de vídeo e apresentados como fotos. Múltiplas expressões foram fornecidas para representar com precisão como fotos de passaporte válidas são alimentadas em tais sistemas.

Esta demonstração mostrou que confiar apenas na tecnologia facial para segurança não é recomendado. A principal recomendação é que fornecedores e fabricantes de dispositivos que incluam essa tecnologia em seus produtos supervisionar a criação de padrões de segurança a fim de proteger de tais técnicas de hack de modelo.

Martin Beltov

Martin formou-se na publicação da Universidade de Sofia. Como a segurança cibernética entusiasta ele gosta de escrever sobre as ameaças mais recentes e mecanismos de invasão.

mais Posts

Me siga:
Twitter

Deixe um comentário

seu endereço de e-mail não será publicado. Campos obrigatórios são marcados *

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our Política de Privacidade.
Concordo