En nylig rapport fra Group-IB har afsløret vedrørende statistik vedrørende kompromitterede ChatGPT-legitimationsoplysninger. Mellem januar og oktober 2023, løbet 225,000 logfiler indeholdende disse legitimationsoplysninger blev opdaget på underjordiske markeder. Disse kompromitterede legitimationsoplysninger blev identificeret i logfiler for informationstyvere knyttet til malware såsom LummaC2, Vaskebjørn, og Røde linje.
Dynamik af inficerede enheder, der hoster OpenAI's ChatGPT
Ifølge Group-IB's Hi-Tech Crime Trends 2023/2024 rapport, der var et bemærkelsesværdigt udsving i antallet af inficerede enheder i løbet af året. Mens der var et lille fald i midten- og sensommeren, tallene steg markant mellem august og september. I denne periode, mere end 130,000 unikke værter med adgang til ChatGPT blev infiltreret, markerer en 36% stigning i forhold til de foregående måneder. Blandt de tre bedste tyverfamilier, LummaC2, Vaskebjørn, og RedLine, LummaC2 tegnede sig for det højeste antal infiltrerede værter, med 70,484, efterfulgt af Vaskebjørn med 22,468 og RedLine med 15,970.
Stigningen i kompromitterede ChatGPT-legitimationsoplysninger tilskrives den samlede stigning i antallet af værter, der er inficeret med informationstyve. Disse data sættes efterfølgende til salg på underjordiske markeder eller i UCL'er, fremhæver den voksende trussel fra cyberkriminelle.
Bekymringer om udnyttelse af store sprogmodeller i cyberoperationer
Ud over de kompromitterede ChatGPT-legitimationsoplysninger, der er bredere bekymringer vedrørende brugen af store sprogmodeller (LLM'er) af ondsindede aktører. Microsoft og OpenAI har advaret om, at nationalstatsaktører fra Rusland, Nordkorea, Iran, og Kina bruger i stigende grad AI og LLM'er til at forbedre deres cyberangrebsoperationer. Disse teknologier kan hjælpe modstandere i forskellige ondsindede aktiviteter, herunder håndværk overbevisende svindel og phishing-angreb, forbedring af driftseffektiviteten, og fremskynde rekognosceringsindsatsen.
Trusselaktører retter sig nu mod enheder med adgang til offentlige AI-systemer, udnyttelse af kommunikationshistorikken mellem medarbejdere og systemer til at søge efter fortrolig information, detaljer om intern infrastruktur, autentificeringsdata, og endda applikationskildekode. T
Misbrug af gyldige ChatGPT-legitimationsoplysninger, lettet af den nemme tilgængelighed af information via tyverisk malware, er blevet en fremtrædende adgangsteknik for trusselsaktører. Dette giver betydelige udfordringer for identitets- og adgangsstyring, da virksomhedens legitimationsdata kan blive stjålet fra kompromitterede enheder på forskellige måder, herunder genbrug af legitimationsoplysninger, browser-legitimationsbutikker, eller få adgang til virksomhedskonti direkte fra personlige enheder.