生成 AI の 4 つの主なリスク | ScanNetSecurity
2025.07.19(土)
このロゴが表示されている
理由は何ですか

生成 AI の 4 つの主なリスク

 ウォッチガード・テクノロジー・ジャパン株式会社は5月7日、悪意ある新型チャットボットとサイバーセキュリティへの影響についての解説記事を発表した。Ryan Estes氏が執筆している。

調査・レポート・白書・ガイドライン

 ウォッチガード・テクノロジー・ジャパン株式会社は5月7日、悪意ある新型チャットボットとサイバーセキュリティへの影響についての解説記事を発表した。Ryan Estes氏が執筆している。

 2024年末に発見されたサイバー犯罪を目的とした AI チャットボット「GhostGPT」は、洗練されたフィッシングメールやマルウェアを従来では想像もできなかったような速度と手軽さで作成でき、サイバー犯罪者に強力なパワーを与えるとしている。

 GhostGPTは、ユーザアクティビティの履歴を記録せずに匿名性を優先するため、匿名的にチャットボットを使いたいと考える悪意ある攻撃者にとって非常に都合が良く、手軽さと制御の欠如により、かつては技術や時間を要した違法行為が自動化・高速化され、極めて危険なツールとなっているとRyan Estes氏は指摘し、企業にもたらす4つの主なリスクとして下記を挙げている。

1.パーソナライズされた大量のフィッシング
 GhostGPTは、被害者の状況に応じ最適な文体やトーンを模倣し、説得力あるパーソナライズされたメールを生成でき、さらに、数分あれば何百通ものカスタマイズされたバリエーションを作成できるため、攻撃の到達範囲とスピードが大幅に向上している。

2.認証情報の盗難と不正アクセス
 GhostGPTを使えば、簡単なプロンプトで実物とほとんど見分けがつかない偽のログインページを生成できるため、認証情報の窃取が容易となり、攻撃者はこれをフィッシング攻撃に利用する。

3.ポリモーフィックマルウェアと悪意あるコードの作成
 GhostGPTは、リクエストに応じて悪意あるコードを書くことができ、基礎的なマルウェアから十分に機能するランサムウェアの作成まで、経験の浅いサイバー犯罪者であっても、十分に可能なものになっている。特にウイルス対策ソフトを回避するためにコードが絶えず変化する「ポリモーフィックマルウェア」のリスクは深刻である。

4.攻撃戦略の最適化とアドバイス
 GhostGPTは攻撃者に戦略上の助言も提供でき、マルウェア攻撃のためのC2サーバの構築方法やセキュリティ製品の回避手段、特定の脆弱性を突く方法など、具体的な手順を指導する。

《高橋 潤哉》

関連記事

「経理」「営業」「企画」「プログラミング」「デザイン」と並ぶ、事業で成功するためのビジネスセンスが「セキュリティ」
「経理」「営業」「企画」「プログラミング」「デザイン」と並ぶ、事業で成功するためのビジネスセンスが「セキュリティ」

ページ右上「ユーザー登録」から会員登録すれば会員限定記事を閲覧できます。毎週月曜の朝、先週一週間のセキュリティ動向を総括しふりかえるメルマガをお届け。(写真:ScanNetSecurity 永世名誉編集長 りく)

×