2025/05/07

GhostGPT:悪意ある新型チャットボットとサイバーセキュリティへの影響

2025 年 5 月 7 日 Ryan Estes 著

生成 AI の可能性を活用したより強力なサイバー犯罪が増えています。昨今の状況では当然の帰結と言えるでしょう。その上「脅威を迅速に生成する」という目的のみに特化した新しい AI モデルも登場しており、サイバー攻撃はますます容易になっています。

2024 年末に研究者は、サイバー犯罪を目的とした AI チャットボットが新たに誕生していることを発見しました。このモデルは「GhostGPT」と呼ばれています。これはサイバー犯罪者に強力なパワーを与えます。これを利用することで、洗練されたフィッシングメールやマルウェアを、従来では想像もできなかったような速度と手軽さで作成できるためです。

GhostGPT でこのようなことが可能なのは、たとえば ChatGPT のような他のモデルと異なり、倫理的ガイドラインや、悪意あるリクエストをブロックするためのセキュリティフィルタといった制限がないためです。おそらくこれは ChatGPT のジェイルブレイク版やオープンソース LLM(大規模言語モデル)をベースにした「ラッパー(既存の AI モデル上に置かれたインターフェースや追加レイヤ)」であり、これにより倫理的な保護措置を回避していると考えられます。

チャットボットが企業にもたらす 4 つの主なリスク

GhostGPT はユーザアクティビティの履歴を記録せず、匿名性を優先します。これは、匿名的にチャットボットを使いたいと考える悪意ある攻撃者にとっては、非常に都合が良くなっています。その手軽さと制御の欠如により、かつては技術や時間を要した違法行為が自動化・高速化されており、極めて危険なツールとなっています。サイバー犯罪者はこれを使って以下のようなことを実現します。

  1. パーソナライズされた大量のフィッシング
    GhostGPT は、被害者の状況に応じて最適な文体やトーンを模倣し、説得力あるパーソナライズされたメールを生成できます。さらに、数分あれば何百通ものカスタマイズされたバリエーションを作成できるため、攻撃の到達範囲とスピードも大幅に向上しています。これに対抗するには、組織はフィッシング対策教育を実施する必要があります。十分なリソースがあれば、従業員が攻撃を見分け、正しく対応する能力を高めることができます。
  2. 認証情報の盗難と不正アクセス
    GhostGPT を使えば、認証情報の窃取も容易です。簡単なプロンプトで、実物とほとんど見分けがつかない偽のログインページを生成できるためです。攻撃者はこれをフィッシング攻撃に利用します。
  3. ポリモーフィックマルウェアと悪意あるコードの作成
    GhostGPT は、リクエストに応じて悪意あるコードを書くことができます。基礎的なマルウェアから十分に機能するランサムウェアの作成まで、たとえ経験の浅いサイバー犯罪者であっても、十分に可能なものになっています。特にウイルス対策ソフトを回避するためにコードが絶えず変化する「ポリモーフィックマルウェア」のリスクは深刻です。
  4. 攻撃戦略の最適化とアドバイス
    このチャットボットは、ハッカーに戦略上の助言も提供できます。たとえば、マルウェア攻撃のための C2(コマンド・アンド・コントロール)サーバの構築方法、セキュリティ製品の回避手段、特定の脆弱性を突く方法など、具体的な手順を指導してくれます。

こうした攻撃から身を守るには

このような状況は、もはや手の打ちようがないと感じるかもしれません。しかし、GhostGPT のようなチャットボットによる被害を最小限のものにするために、企業が講じることのできる対策はあります。それには、優れたセキュリティプラティスと高度な技術的ソリューションの組み合わせが必要です。

まずは、システムの最新状態を維持することと、攻撃表面を最小化するゼロトラスト原則の導入が不可欠です。技術的には、多要素認証(MFA)の導入によりアクセス保護を強化し、DNS フィルタを用いることでフィッシング攻撃を防止できます。

また、EDR(エンドポイント検知とレスポンス)や XDR(拡張検知とレスポンス)などの AI ベースの検出ツールを導入すれば、自動化された攻撃による異常をより的確に特定できます。同様に、脅威インテリジェンスソリューションを活用することで、新たな戦術に先んじてリアルタイムで防御を強化することが可能です。

防御 AI を組み込んだ多層的なセキュリティアプローチを取ることで、GhostGPT やその他の悪意ある AI システムによる攻撃にも、より効果的に備えることができるのです。

AI とサイバーセキュリティに関してさらに詳細をお読みになりたい場合は、以下の記事もご覧ください:
ChatGPT が作成するポリモーフィック型マルウェア
ChatGPT とダークウェブ:その脅威
人工知能に関するサイバーセキュリティ専門家の知見