Hjem > Cyber ​​Nyheder > 225K+ ChatGPT Credentials on Dark Web for Sale
CYBER NEWS

225K+ ChatGPT-legitimationsoplysninger på Dark Web til salg

En nylig rapport fra Group-IB har afsløret vedrørende statistik vedrørende kompromitterede ChatGPT-legitimationsoplysninger. Mellem januar og oktober 2023, løbet 225,000 logfiler indeholdende disse legitimationsoplysninger blev opdaget på underjordiske markeder. Disse kompromitterede legitimationsoplysninger blev identificeret i logfiler for informationstyvere knyttet til malware såsom LummaC2, Vaskebjørn, og Røde linje.

225K+ ChatGPT-legitimationsoplysninger på Dark Web til salg

Dynamik af inficerede enheder, der hoster OpenAI's ChatGPT

Ifølge Group-IB's Hi-Tech Crime Trends 2023/2024 rapport, der var et bemærkelsesværdigt udsving i antallet af inficerede enheder i løbet af året. Mens der var et lille fald i midten- og sensommeren, tallene steg markant mellem august og september. I denne periode, mere end 130,000 unikke værter med adgang til ChatGPT blev infiltreret, markerer en 36% stigning i forhold til de foregående måneder. Blandt de tre bedste tyverfamilier, LummaC2, Vaskebjørn, og RedLine, LummaC2 tegnede sig for det højeste antal infiltrerede værter, med 70,484, efterfulgt af Vaskebjørn med 22,468 og RedLine med 15,970.

Stigningen i kompromitterede ChatGPT-legitimationsoplysninger tilskrives den samlede stigning i antallet af værter, der er inficeret med informationstyve. Disse data sættes efterfølgende til salg på underjordiske markeder eller i UCL'er, fremhæver den voksende trussel fra cyberkriminelle.




Bekymringer om udnyttelse af store sprogmodeller i cyberoperationer

Ud over de kompromitterede ChatGPT-legitimationsoplysninger, der er bredere bekymringer vedrørende brugen af store sprogmodeller (LLM'er) af ondsindede aktører. Microsoft og OpenAI har advaret om, at nationalstatsaktører fra Rusland, Nordkorea, Iran, og Kina bruger i stigende grad AI og LLM'er til at forbedre deres cyberangrebsoperationer. Disse teknologier kan hjælpe modstandere i forskellige ondsindede aktiviteter, herunder håndværk overbevisende svindel og phishing-angreb, forbedring af driftseffektiviteten, og fremskynde rekognosceringsindsatsen.

Trusselaktører retter sig nu mod enheder med adgang til offentlige AI-systemer, udnyttelse af kommunikationshistorikken mellem medarbejdere og systemer til at søge efter fortrolig information, detaljer om intern infrastruktur, autentificeringsdata, og endda applikationskildekode. T

Misbrug af gyldige ChatGPT-legitimationsoplysninger, lettet af den nemme tilgængelighed af information via tyverisk malware, er blevet en fremtrædende adgangsteknik for trusselsaktører. Dette giver betydelige udfordringer for identitets- og adgangsstyring, da virksomhedens legitimationsdata kan blive stjålet fra kompromitterede enheder på forskellige måder, herunder genbrug af legitimationsoplysninger, browser-legitimationsbutikker, eller få adgang til virksomhedskonti direkte fra personlige enheder.

Milena Dimitrova

En inspireret forfatter og indholdschef, der har været hos SensorsTechForum siden projektets start. En professionel med 10+ års erfaring med at skabe engagerende indhold. Fokuseret på brugernes privatliv og malware udvikling, hun tror stærkt på en verden, hvor cybersikkerhed spiller en central rolle. Hvis almindelig sund fornuft giver ingen mening, hun vil være der til at tage noter. Disse noter senere kan blive til artikler! Følg Milena @Milenyim

Flere indlæg

Følg mig:
Twitter

Efterlad en kommentar

Din e-mail-adresse vil ikke blive offentliggjort. Krævede felter er markeret *

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our Fortrolighedspolitik.
Jeg er enig