Group-IB による最近のレポートでは、侵害された ChatGPT 認証情報に関する統計が明らかになりました。. 1月から10月までの間 2023, 以上 225,000 これらの認証情報を含むログがアンダーグラウンド マーケットで発見されました. これらの侵害された認証情報は、LummaC2 などのマルウェアにリンクされた情報窃取者のログ内で特定されました。, ラクーン, と レッドライン.
OpenAI の ChatGPT をホストする感染デバイスのダイナミクス
Group-IB のハイテク犯罪傾向によると 2023/2024 報告, 感染したデバイスの数には年間を通して顕著な変動があった. 中盤には若干の減少はあったものの、- そして夏の終わり, 8月から9月にかけてその数は大幅に増加した. この期間中, より多い 130,000 ChatGPT にアクセスできる固有のホストが侵入されました, マーキング 36% 前月と比較して増加. 盗みの上位 3 家族のうち, ルマC2, ラクーン, とレッドライン, LummaC2 は侵入したホストの最大数を占めました, と 70,484, 続いてアライグマと 22,468 とレッドライン 15,970.
侵害された ChatGPT 資格情報の急増は、情報スティーラーに感染したホストの数が全体的に増加したことが原因であると考えられます。. このデータはその後、アンダーグラウンド マーケットまたは UCL で売りに出されます。, サイバー犯罪者による脅威の増大を浮き彫りにする.
サイバー作戦における大規模言語モデルの悪用に関する懸念
侵害された ChatGPT 資格情報に加えて, 大規模な言語モデルの使用に関しては、より広範な懸念がある (LLM) 悪意のある者による. Microsoft と OpenAI は、ロシアの国民国家主体が, 北朝鮮, イラン, 中国と中国はサイバー攻撃作戦を強化するためにAIとLLMをますます活用している. これらのテクノロジーは、敵対者のさまざまな悪意のある活動を支援する可能性があります, クラフトも含めて 説得力のある詐欺やフィッシング攻撃, 業務効率の向上, 偵察活動を加速する.
脅威アクターは現在、パブリック AI システムにアクセスできるデバイスをターゲットにしています, 従業員間の通信履歴やシステムを活用した機密情報の検索, 内部インフラストラクチャの詳細, 認証データ, さらにはアプリケーションのソースコードも. T
有効なアカウント ChatGPT 資格情報の悪用, スティーラーマルウェアを介して情報を簡単に入手できるため促進される, 脅威アクターにとって著名なアクセス手法となっている. これは、ID とアクセスの管理に重大な課題をもたらします, 企業の資格情報データは、さまざまな手段を通じて侵害されたデバイスから盗まれる可能性があるため、, 認証情報の再利用を含む, ブラウザ認証情報ストア, または個人のデバイスから企業アカウントに直接アクセスする.