三井物産セキュアディレクション株式会社(MBSD)は5月11日、ChatGPTなどの生成AIを介した個人情報の開示という挑戦的なテーマに関する研究調査結果について、同社ブログで発表した。同社のプロダクト&ソリューション事業部 AI&高度先端技術開発の高江洲 勲氏が解説している。
ChatGPTでは、12年間にわたる大量のWebクロールデータや英語版Wikipediaなどペタバイト級の情報、ChatGPTユーザーが入力した文章を学習していると言われ、過去に誤って公開された機微情報を含むWebページやユーザーが誤入力した社外秘や個人情報などを学習している可能性がある。また、OSSの開発者や研究者などは、GitHubなどの公開リポジトリや研究組織のWebページ上でメールアドレスを公開する傾向があり、ChatGPTがこれらの個人情報を学習している可能性がある。
同ブログでは、ChatGPTなどの生成AIが学習した情報が第三者に開示され得るのか確認するとともに、想定される対策を解説している。
同ブログでは、個人情報の開示を意図したプロンプトを拒否するフィルター「Guardrail」を回避し、ChatGPTで他者のメールアドレスを開示させることができるか、既知のメジャーなJailbreak手法と応答精度を高めるCoT(Chain of Thought)を組み合わせることで実現している。また、ChatGPT以外の生成AIでも同様に個人情報を開示できるか検証を行っている。
さらに同ブログでは、ChatGPTなど生成AIによる個人情報開示の対策例を、下記の2つの視点で解説している。
・生成AIを利用するユーザーの視点
プロンプトに個人情報や機密情報を入力しない
「会話を学習させない」モードを有効にする
プライバシーに配慮したサービスを利用する
・生成AIを活用してサービス提供する企業・行政などの視点
ユーザーの入力を学習させないようにする
Prompt Injectionを検知する
不正なプロンプトを拒否する
検閲用のAIを使用する