GMOサイバーセキュリティ byイエラエ株式会社は6月9日、大規模言語モデル(LLM)を用いたアプリケーションのセキュリティリスクを可視化する「GMO AIセキュリティ診断 for GPT」の提供開始を発表した。
「GMO AIセキュリティ診断 for GPT」は、GPT等の大規模言語モデル(LLM)を組み込んだアプリケーションに対し、敵対的プロンプト(Adversarial Prompting)を用いた擬似攻撃を行い、アプリケーションに内在するセキュリティリスクを調査するサービス。同社の機密情報や金融資産を扱うWebアプリケーションに対する脆弱性診断の実績と経験に基づく技術力と、GPT等の大規模言語モデル(LLM)に関する最新の攻撃手法の知見を組み合わせることでセキュリティリスクを可視化し、顧客のセキュリティ対策を支援する。
なお、大規模言語モデル(LLM)の出力を意図しないものに誘導するよう設計された敵対的プロンプトに関するセキュリティリスクとしては、「プロンプトインジェクションによる出力の乗っ取り」「プロンプトリークによる秘密情報の漏えい」「コンテンツポリシーの回避による非倫理的なコンテンツの出力(ジェイルブレイク)」がある。
GMO AIセキュリティ診断 for GPTでは、予算や求めるセキュリティレベルに応じて「ライトプラン」「ベーシックプラン」「アドバンスドプラン」の3つの診断プランから選択可能。