Un recente rapporto di Group-IB ha svelato le statistiche relative alle credenziali ChatGPT compromesse. Tra gennaio e ottobre 2023, sopra 225,000 registri contenenti queste credenziali sono stati scoperti nei mercati sotterranei. Queste credenziali compromesse sono state identificate all'interno dei registri dei ladri di informazioni collegati a malware come LummaC2, Procione, e Linea rossa.
Dinamica dei dispositivi infetti che ospitano ChatGPT di OpenAI
Secondo le tendenze della criminalità hi-tech di Group-IB 2023/2024 rapporto, nel corso dell’anno si è verificata una notevole fluttuazione del numero di dispositivi infetti. Mentre a metà si è registrato un leggero calo- e fine estate, i numeri sono aumentati in modo significativo tra agosto e settembre. Durante questo periodo, più di 130,000 sono stati infiltrati host univoci con accesso a ChatGPT, segnando un 36% aumento rispetto ai mesi precedenti. Tra le prime tre famiglie di ladri, LummaC2, Procione, e Linea Rossa, LummaC2 rappresentava il maggior numero di host infiltrati, con 70,484, seguito da Raccoon con 22,468 e RedLine con 15,970.
L’aumento delle credenziali ChatGPT compromesse è attribuito all’aumento complessivo del numero di host infettati da ladri di informazioni. Questi dati vengono successivamente messi in vendita sui mercati clandestini o negli UCL, evidenziando la crescente minaccia rappresentata dai criminali informatici.
Preoccupazioni sullo sfruttamento di modelli linguistici di grandi dimensioni nelle operazioni informatiche
Oltre alle credenziali ChatGPT compromesse, ci sono preoccupazioni più ampie riguardo all'uso di modelli linguistici di grandi dimensioni (LLM) da attori malintenzionati. Microsoft e OpenAI hanno avvertito che gli attori statali provenienti dalla Russia, Corea del nord, Iran, e la Cina utilizzano sempre più l’intelligenza artificiale e gli LLM per migliorare le proprie operazioni di attacco informatico. Queste tecnologie possono aiutare gli avversari in varie attività dannose, compresa la lavorazione truffe convincenti e attacchi di phishing, miglioramento dell’efficienza operativa, e accelerando gli sforzi di ricognizione.
Gli autori delle minacce stanno ora prendendo di mira i dispositivi con accesso ai sistemi di intelligenza artificiale pubblici, sfruttando la cronologia delle comunicazioni tra dipendenti e sistemi per cercare informazioni riservate, dettagli sull'infrastruttura interna, dati di autenticazione, e persino il codice sorgente dell'applicazione. T
L'abuso delle credenziali valide dell'account ChatGPT, facilitato dalla facile disponibilità delle informazioni tramite malware stealer, è diventata una tecnica di accesso importante per gli autori delle minacce. Ciò pone sfide significative per la gestione delle identità e degli accessi, poiché i dati delle credenziali aziendali possono essere rubati da dispositivi compromessi in vari modi, incluso il riutilizzo delle credenziali, archivi di credenziali del browser, o accedere agli account aziendali direttamente dai dispositivi personali.