Een recent rapport van Group-IB heeft statistieken onthuld over gecompromitteerde ChatGPT-inloggegevens. Tussen januari en oktober 2023, over 225,000 Logboeken met deze inloggegevens werden ontdekt op ondergrondse markten. Deze gecompromitteerde inloggegevens werden geïdentificeerd in logbestanden van informatiestelers die verband hielden met malware zoals LummaC2, Wasbeer, en Rode lijn.
Dynamiek van geïnfecteerde apparaten die ChatGPT van OpenAI hosten
Volgens de Hi-Tech Crime Trends van Group-IB 2023/2024 rapport, er was gedurende het jaar een opmerkelijke fluctuatie in het aantal geïnfecteerde apparaten. Terwijl er halverwege een lichte daling was- en nazomer, de aantallen stegen aanzienlijk tussen augustus en september. Gedurende deze periode, meer dan 130,000 unieke hosts met toegang tot ChatGPT werden geïnfiltreerd, het markeren van een 36% stijging ten opzichte van de voorgaande maanden. Behoort tot de top drie van stelersfamilies, LummaC2, Wasbeer, en RedLine, LummaC2 was verantwoordelijk voor het hoogste aantal geïnfiltreerde hosts, met 70,484, gevolgd door wasbeer met 22,468 en RedLine met 15,970.
De stijging van het aantal gecompromitteerde ChatGPT-inloggegevens wordt toegeschreven aan de algemene stijging van het aantal hosts dat is geïnfecteerd met informatiestelers. Deze gegevens worden vervolgens te koop aangeboden op ondergrondse markten of in UCL's, waarbij de groeiende dreiging van cybercriminelen wordt benadrukt.
Zorgen over de exploitatie van grote taalmodellen bij cyberoperaties
Naast de gecompromitteerde ChatGPT-inloggegevens, er zijn bredere zorgen over het gebruik van grote taalmodellen (LLM's) door kwaadaardige actoren. Microsoft en OpenAI hebben gewaarschuwd voor natiestatelijke actoren uit Rusland, Noord Korea, Iran, en China maken steeds meer gebruik van AI en LLM’s om hun cyberaanvaloperaties te verbeteren. Deze technologieën kunnen tegenstanders helpen bij verschillende kwaadaardige activiteiten, inclusief handwerk overtuigende oplichting en phishing-aanvallen, het verbeteren van de operationele efficiëntie, en het versnellen van verkenningsinspanningen.
Bedreigingsactoren richten zich nu op apparaten met toegang tot openbare AI-systemen, gebruikmaken van de communicatiegeschiedenis tussen werknemers en systemen om naar vertrouwelijke informatie te zoeken, details over de interne infrastructuur, authenticatiegegevens, en zelfs de broncode van applicaties. T
Het misbruik van geldige ChatGPT-accountgegevens, mogelijk gemaakt door de gemakkelijke beschikbaarheid van informatie via stealer-malware, is een prominente toegangstechniek geworden voor bedreigingsactoren. Dit brengt aanzienlijke uitdagingen met zich mee voor identiteits- en toegangsbeheer, aangezien bedrijfsgegevens op verschillende manieren van gecompromitteerde apparaten kunnen worden gestolen, inclusief hergebruik van legitimatiebewijzen, browserreferenties opslaan, of rechtstreeks toegang krijgen tot bedrijfsaccounts vanaf persoonlijke apparaten.