Huis > Cyber ​​Nieuws > Gezichtsherkenningssystemen omzeild via machine learning-zwakte
CYBER NEWS

Gezichtsherkenningssystemen omzeild door zwakte van machine learning

Beveiligingsexperts publiceerden bevindingen over hoe moderne gezichtsherkenningstechnologieën voor de gek gehouden kunnen worden door kwaadwillende gebruikers met behulp van een ontdekte zwakte in de gebruikte algoritmen voor machine learning. Succesvol gebruik van deze techniek zorgt ervoor dat het systeem denkt dat het de beoogde persoon ziet en geeft inloggegevens voor de beveiligde bronnen.




Gezichtsherkenningssystemen voor de gek gehouden in nieuwe misbruiktechniek

Computerbeveiligingsexperts hebben een nieuwe methode ontdekt die de hedendaagse gezichtsherkenningstechnologieën effectief kan omzeilen. Hun bevindingen zijn gepubliceerd in een onderzoeksartikel genaamd Dubbel samenkomen op gezichtsherkenningssysteem en zijn afhankelijk van een zwakte in de algoritmen voor machine learning die in deze systemen zijn geïmplementeerd. Ze zijn ontworpen om de authenticiteit van de afbeeldingen die ze zien te beoordelen en of ze geverifieerd en legitiem zijn om de verborgen bronnen te ontgrendelen.

Een van de ontdekte methoden is gebaseerd op het gebruik van speciale software die hiervoor is ontworpen fotorealistische gezichten genereren. Dit aanvalsmodel is gebaseerd op het gebruik van verschillende frameworks om dergelijke afbeeldingen te maken. Machine learning is van veel afhankelijk opleiding — datasets worden naar de input van het systeem gevoerd om het ontworpen niveau van beveiligingsimplementatie te bereiken.

Om deze reden vertrouwt het voorgestelde aanvalsmodel op het gebruik van dezelfde factor om de machine te trainen. In plaats van veilige geldige afbeeldingen in te voeren met behulp van authentieke en legitieme sets, de hackers kunnen hun eigen kwaadaardige afbeeldingen gebruiken. Het belangrijkste doel is om minimaliseer de afstand tussen een legitieme en een vervaardigde gezichtsopname. Wanneer het gezichtsherkenningssysteem een ​​zeer minimale afstand herkent in sommige gevallen a verkeerde classificatie kan gebeuren - dit zal leiden tot de verificatie van het door malware vervaardigde gezicht.

Een demonstratie van dit concept werd gedaan door een systeem te trainen op een 1500 beelden sets van onderzoekers die zijn vastgelegd uit video en gepresenteerd als stilstaande beelden. Er zijn meerdere uitdrukkingen voorzien om nauwkeurig weer te geven hoe geldige pasfoto's in dergelijke systemen worden ingevoerd.

Deze demonstratie heeft aangetoond dat vertrouwen op gezichtstechnologie alleen voor beveiliging niet wordt aanbevolen. De belangrijkste aanbeveling is voor leveranciers en apparaatfabrikanten die dergelijke technologie in hun producten opnemen toezicht houden op de totstandkoming van beveiligingsnormen om te beschermen tegen dergelijke hacktechnieken.

Martin Beltov

Martin studeerde af met een graad in de uitgeverij van de universiteit van Sofia. Als een cyber security enthousiast dat hij geniet van het schrijven over de nieuwste bedreigingen en de mechanismen van inbraak.

Meer berichten

Volg mij:
Tjilpen

Laat een bericht achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our Privacybeleid.
Daar ben ik het mee eens