暗い新世紀到来:AI が AI を喰らう | ScanNetSecurity
2024.05.15(水)

暗い新世紀到来:AI が AI を喰らう

 「Amazon Mechanical Turk」のようなクラウドソースサービスを通して案件を受注したクラウドワーカーは、業務に大規模言語モデルを使用している。これによって、今後の AIモデルに連鎖的に悪影響が生じてしまう可能性がある。

国際
(イメージ画像)

 「Amazon Mechanical Turk」のようなクラウドソーシングサービスを通じて仕事を受注したクラウドワーカーは、業務に大規模言語モデルを使用している。これによって、今後の AIモデルに連鎖的に悪影響が生じてしまう可能性がある。

 データは AI の命だ。開発者が、正確かつ信頼できる機械学習システムを構築するには、クリーンで高品質なデータセットが必要となる。しかし、価値あるトップクラスのデータを取りまとめる作業は、時としてかなり大変だ。そこで、企業はしばしば、「Amazon Mechanical Turk」のようなサードパーティのプラットフォームを通して、大量の安い労働力に指示を出して、反復的タスクを人間に行わせる。そんな単純タスクの例としては「物品のラベル付け」「状況の記述」「文字起こし」そして「テキストへの註釈付け」などがある。

 こうして作ったデータをクリーニングして、それをもとにモデルをトレーニングすれば、こうしたタスクをはるかに大規模に自動的に再現して行わせることができるようになる。

 つまり、AIモデルは、人間の労働があって成り立っているものなのだ。人々が大変な苦労をしながら作った大量のトレーニングデータがあって初めて、企業が数十億ドルを稼げる AIシステムができあがるということだ。

 しかし、スイス連邦工科大学ローザンヌ校(EPFL)の研究者らが実施した実験では、こうしたクラウドソーシングで調達できる労働者は、OpenAI のチャットボット「ChatGPT」のような AIシステムを用いて、ネット上で受注したギグワークをこなしているという結論になった。

 モデルを、そのモデル自身が出力した内容に基づいてトレーニングすることは、好ましくない。にもかかわらず、人間ではなく別の AIモデル、さらにはその AIモデル自身が生成したデータで AIモデルをトレーニングしてしまうという事態が、今後実際に発生する可能性がある。そうなれば、出力内容の品質が非常に悪くなってしまったり、バイアスの助長につながってしまったり、その他の好ましくない影響が生じてしまったりする可能性がある。


《The Register》

編集部おすすめの記事

特集

国際 アクセスランキング

  1. 範を示す ~ MITRE がサイバー攻撃被害公表

    範を示す ~ MITRE がサイバー攻撃被害公表

  2. AI とドローン利活用最悪事例 ~ 米保険会社 住宅空撮し保険契約 猛烈却下

    AI とドローン利活用最悪事例 ~ 米保険会社 住宅空撮し保険契約 猛烈却下

  3. OWASP データブリーチ

    OWASP データブリーチ

  4. ランサムウェア感染を隠蔽したソフトウェア企業の末路

  5. 訃報:セキュリティの草分けロス・アンダーソン氏 死去 67 歳、何回分かの生涯に匹敵する業績

  6. 英で個人事業主に税金還付騙る詐欺大量発生 - 電話・メール・Web・検索結果、手口の詳細と対策(The Register)

  7. 御社のプロジェクトにも? 素性隠して世界で稼ぐ「北朝鮮 IT労働者」年収 4千万円超 ~ ミサイル開発へ送金

  8. サイバー犯罪者がある種の道徳的指針を持つ時代は過ぎ去った

  9. そのセキュリティ専門家は「ニセ サイバーサマリア人(善人のふりをした悪人)」ではありませんか? 九つの特徴

  10. あの信頼と実績のセキュリティ機関すらサイバー攻撃被害に

アクセスランキングをもっと見る

「経理」「営業」「企画」「プログラミング」「デザイン」と並ぶ、事業で成功するためのビジネスセンスが「セキュリティ」
「経理」「営業」「企画」「プログラミング」「デザイン」と並ぶ、事業で成功するためのビジネスセンスが「セキュリティ」

ページ右上「ユーザー登録」から会員登録すれば会員限定記事を閲覧できます。毎週月曜の朝、先週一週間のセキュリティ動向を総括しふりかえるメルマガをお届け。(写真:ScanNetSecurity 名誉編集長 りく)

×