Gli esperti di sicurezza hanno pubblicato risultati su come le moderne tecnologie di riconoscimento facciale possono essere ingannate dagli utenti malintenzionati utilizzando una debolezza scoperta negli algoritmi di apprendimento automatico utilizzati. Il successo dell'exploit di questa tecnica farà pensare al sistema di vedere la persona di destinazione e fornirà le credenziali alle risorse protette.
Sistemi di riconoscimento facciale ingannati nella nuova tecnica di abuso
Gli esperti di sicurezza informatica hanno scoperto un nuovo metodo che può aggirare efficacemente le moderne tecnologie di riconoscimento facciale. I loro risultati sono stati pubblicati in un articolo di ricerca chiamato Raddoppio del sistema di riconoscimento facciale e dipendono da una debolezza negli algoritmi di apprendimento automatico implementati in questi sistemi. Sono progettati per giudicare l'autenticità delle immagini che vedono e se sono verificate e legittime al fine di sbloccare le risorse nascoste.
Uno dei metodi scoperti si basa sull'uso di software speciali progettati per generare volti fotorealistici. Questo modello di attacco si basa sull'uso di numerosi framework per la creazione di tali immagini. L'apprendimento automatico dipende molto da formazione — i set di dati vengono inseriti nell'input del sistema al fine di raggiungere il livello di implementazione della sicurezza progettato.
Per questo motivo il modello di attacco proposto si basa sull'utilizzo di questo stesso fattore per addestrare la macchina. Invece di alimentare immagini valide e sicure utilizzando un set autentico e legittimo, gli hacker possono utilizzare le proprie immagini dannose. L'obiettivo principale è quello di ridurre al minimo la distanza tra un'immagine del viso legittima e un'immagine artificiale. Quando il sistema di riconoscimento facciale riconosce una distanza minima in alcuni casi a errata classificazione può accadere - questo porterà alla verifica del volto creato dal malware.
Una dimostrazione di questo concetto è stata fatta addestrando un sistema su a 1500 set di immagini di ricercatori che sono stati catturati da video e presentati come immagini fisse. Sono state fornite più espressioni per rappresentare accuratamente come le foto tessere valide vengono inserite in tali sistemi.
Questa dimostrazione ha dimostrato che non è consigliabile affidarsi alla tecnologia facciale solo per la sicurezza. La principale raccomandazione è per i fornitori e produttori di dispositivi che includono tale tecnologia nei loro prodotti supervisionare la creazione di standard di sicurezza al fine di proteggere da tali tecniche di hacking del modello.