Accueil > Nouvelles Cyber > Systèmes de reconnaissance faciale contournés par la faiblesse de l'apprentissage automatique
CYBER NOUVELLES

Systèmes de reconnaissance faciale contournés par la faiblesse de l'apprentissage automatique

Des experts en sécurité ont publié des résultats sur la façon dont les technologies modernes de reconnaissance faciale peuvent être trompées par des utilisateurs malveillants en utilisant une faiblesse découverte dans les algorithmes d'apprentissage automatique utilisés. L'exploitation réussie de cette technique fera penser au système qu'il voit la personne cible et fournira des informations d'identification aux ressources sécurisées.




Les systèmes de reconnaissance faciale trompés par une nouvelle technique d'abus

Les experts en sécurité informatique ont découvert une nouvelle méthode capable de contourner efficacement les technologies de reconnaissance faciale contemporaines. Leurs résultats ont été publiés dans un article de recherche intitulé Dopple-ganging sur le système de reconnaissance faciale et dépendent d'une faiblesse des algorithmes d'apprentissage automatique qui sont implémentés dans ces systèmes. Ils sont conçus pour juger de l'authenticité des images qu'ils voient et si elles sont vérifiées et légitimes afin de débloquer les ressources cachées.

L'une des méthodes découvertes repose sur l'utilisation de logiciels spéciaux conçus pour générer des visages photoréalistes. Ce modèle d'attaque repose sur l'utilisation de plusieurs frameworks pour créer de telles images. L'apprentissage automatique dépend de beaucoup de entraînement — des ensembles de données sont introduits à l'entrée du système afin d'atteindre le niveau prévu de mise en œuvre de la sécurité.

Pour cette raison, le modèle d'attaque proposé repose sur l'utilisation de ce même facteur pour entraîner la machine. Au lieu de nourrir des images valides sûres en utilisant des ensembles authentiques et légitimes, les pirates peuvent utiliser leurs propres images malveillantes. L'objectif principal est de minimiser la distance entre une image faciale légitime et une image artisanale. Lorsque le système de reconnaissance faciale reconnaît une distance très minimale dans certains cas, un mauvaise classification peut arriver - cela conduira à la vérification du visage créé par le malware.

Une démonstration de ce concept a été faite en formant un système sur un 1500 ensembles d'images de chercheurs capturés à partir de vidéos et présentés sous forme d'images fixes. Plusieurs expressions ont été fournies afin de représenter avec précision comment les photos de passeport valides sont introduites dans de tels systèmes.

Cette démonstration a montré qu'il n'est pas recommandé de s'appuyer uniquement sur la technologie faciale pour la sécurité. La principale recommandation est que les fournisseurs et les fabricants d'appareils qui incluent une telle technologie dans leurs produits superviser la création de normes de sécurité afin de se protéger de ces techniques de piratage de modèles.

Martin Beltov

Martin a obtenu un diplôme en édition de l'Université de Sofia. En tant que passionné de cyber-sécurité, il aime écrire sur les menaces les plus récentes et les mécanismes d'intrusion.

Plus de messages

Suivez-moi:
Gazouillement

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont marqués *

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our politique de confidentialité.
Je suis d'accord