Zuhause > Cyber ​​Aktuelles > Gesichtserkennungssysteme werden durch Schwäche des maschinellen Lernens umgangen
CYBER NEWS

Gesichtserkennungssysteme werden durch Schwäche des maschinellen Lernens umgangen

Sicherheitsexperten veröffentlichten Ergebnisse darüber, wie moderne Gesichtserkennungstechnologien von böswilligen Benutzern mithilfe einer entdeckten Schwäche der verwendeten Algorithmen für maschinelles Lernen getäuscht werden können. Durch die erfolgreiche Nutzung dieser Technik wird das System glauben, die Zielperson zu sehen, und den gesicherten Ressourcen werden Anmeldeinformationen bereitgestellt.




Gesichtserkennungssysteme in neuer Missbrauchstechnik getäuscht

Computersicherheitsexperten haben eine neue Methode entdeckt, mit der moderne Gesichtserkennungstechnologien effektiv umgangen werden können. Ihre Ergebnisse wurden in einem Forschungsartikel namens veröffentlicht Dopple-Ganging auf Gesichtserkennungssystem und hängen von einer Schwäche der Algorithmen für maschinelles Lernen ab, die in diesen Systemen implementiert sind. Sie sollen die Echtheit der Bilder beurteilen, die sie sehen, und ob sie überprüft und legitim sind, um die verborgenen Ressourcen freizuschalten.

Eine der entdeckten Methoden beruht auf der Verwendung spezieller Software, die dafür entwickelt wurde fotorealistische Gesichter erzeugen. Dieses Angriffsmodell basiert auf der Verwendung mehrerer Frameworks zum Erstellen solcher Bilder. Maschinelles Lernen hängt von vielen ab Ausbildung — Datensätze werden dem Eingang des Systems zugeführt, um das vorgesehene Maß an Sicherheitsimplementierung zu erreichen.

Aus diesem Grund basiert das vorgeschlagene Angriffsmodell auf der Verwendung des gleichen Faktors, um die Maschine zu trainieren. Anstatt sichere gültige Bilder mit authentischen und legitimen Sets zu füttern, Die Hacker können ihre eigenen schädlichen Bilder verwenden. Das Hauptziel ist zu Minimieren Sie den Abstand zwischen einem legitimen und einem gestalteten Gesichtsbild. Wenn das Gesichtserkennungssystem in einigen Fällen einen sehr geringen Abstand erkennt a Fehlklassifizierung kann passieren - dies führt zur Überprüfung des von Malware erstellten Gesichts.

Eine Demonstration dieses Konzepts wurde durchgeführt, indem ein System auf einem trainiert wurde 1500 Bildersätze von Forschern, die aus Videos aufgenommen und als Standbilder präsentiert wurden. Es wurden mehrere Ausdrücke bereitgestellt, um genau darzustellen, wie gültige Passfotos in solchen Systemen eingespeist werden.

Diese Demonstration hat gezeigt, dass es nicht empfehlenswert ist, sich allein aus Sicherheitsgründen auf die Gesichtstechnologie zu verlassen. Die Hauptempfehlung gilt für Anbieter und Gerätehersteller, die solche Technologien in ihre Produkte einbeziehen Überwachung der Erstellung von Sicherheitsstandards um vor solchen Modell-Hacking-Techniken zu schützen.

Martin Beltov

Martin hat einen Abschluss in Publishing von der Universität Sofia. er schreibt gerne über die neuesten Bedrohungen und Mechanismen des Eindringens Als Cyber-Security-Enthusiasten.

Mehr Beiträge

Folge mir:
Zwitschern

Schreibe einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Diese Website verwendet Cookies, um die Benutzererfahrung zu verbessern. Durch die Nutzung unserer Website erklären Sie sich mit allen Cookies gemäß unserer Datenschutz-Bestimmungen.
Genau