ChatGPTに個人情報を開示させる実験、MBSD研究者 | ScanNetSecurity
2024.04.25(木)

ChatGPTに個人情報を開示させる実験、MBSD研究者

 三井物産セキュアディレクション株式会社(MBSD)は5月11日、ChatGPTなどの生成AIを介した個人情報の開示について、同社ブログで発表した。同社のプロダクト&ソリューション事業部 AI&高度先端技術開発の高江洲 勲氏が解説している。

調査・レポート・白書・ガイドライン 調査・ホワイトペーパー

 三井物産セキュアディレクション株式会社(MBSD)は5月11日、ChatGPTなどの生成AIを介した個人情報の開示という挑戦的なテーマに関する研究調査結果について、同社ブログで発表した。同社のプロダクト&ソリューション事業部 AI&高度先端技術開発の高江洲 勲氏が解説している。

 ChatGPTでは、12年間にわたる大量のWebクロールデータや英語版Wikipediaなどペタバイト級の情報、ChatGPTユーザーが入力した文章を学習していると言われ、過去に誤って公開された機微情報を含むWebページやユーザーが誤入力した社外秘や個人情報などを学習している可能性がある。また、OSSの開発者や研究者などは、GitHubなどの公開リポジトリや研究組織のWebページ上でメールアドレスを公開する傾向があり、ChatGPTがこれらの個人情報を学習している可能性がある。

 同ブログでは、ChatGPTなどの生成AIが学習した情報が第三者に開示され得るのか確認するとともに、想定される対策を解説している。

 同ブログでは、個人情報の開示を意図したプロンプトを拒否するフィルター「Guardrail」を回避し、ChatGPTで他者のメールアドレスを開示させることができるか、既知のメジャーなJailbreak手法と応答精度を高めるCoT(Chain of Thought)を組み合わせることで実現している。また、ChatGPT以外の生成AIでも同様に個人情報を開示できるか検証を行っている。

 さらに同ブログでは、ChatGPTなど生成AIによる個人情報開示の対策例を、下記の2つの視点で解説している。

・生成AIを利用するユーザーの視点
プロンプトに個人情報や機密情報を入力しない
「会話を学習させない」モードを有効にする
プライバシーに配慮したサービスを利用する

・生成AIを活用してサービス提供する企業・行政などの視点
ユーザーの入力を学習させないようにする
Prompt Injectionを検知する
不正なプロンプトを拒否する
検閲用のAIを使用する

《高橋 潤哉》

関連記事

Scan PREMIUM 会員限定記事

もっと見る

Scan PREMIUM 会員限定記事特集をもっと見る

カテゴリ別新着記事

「経理」「営業」「企画」「プログラミング」「デザイン」と並ぶ、事業で成功するためのビジネスセンスが「セキュリティ」
「経理」「営業」「企画」「プログラミング」「デザイン」と並ぶ、事業で成功するためのビジネスセンスが「セキュリティ」

ページ右上「ユーザー登録」から会員登録すれば会員限定記事を閲覧できます。毎週月曜の朝、先週一週間のセキュリティ動向を総括しふりかえるメルマガをお届け。(写真:ScanNetSecurity 名誉編集長 りく)

×