AI開発者がデータプライバシーを誤解するのに「言い訳はできない」と英国のデータ規制当局が警告

によるユーロニュース

公開日

この記事をシェアする

英国情報コミッショナー局はAI開発者に対し、一歩下がってデータプライバシーを適切に確保するよう呼び掛けた。

英国のデータ規制当局の責任者の一人は、AI開発者にはデータプライバシーを誤解する「言い訳」はできないと述べ、データ保護法に従わない開発者は何らかの結果に直面するだろうと警告した。

英国では情報コミッショナー局 (ICO) がデータ保護を強化しています。生成AI、特にOpenAIのChatGPTを支えるような大規模言語モデルへの関心が爆発的に高まる中、ICOの規制リスク担当エグゼクティブディレクターであるスティーブン・アーモンド氏は、LLMはデータセキュリティにリスクをもたらすと警告した。

同氏はブログ投稿で、「一歩下がって、個人データがどのように使われているかを振り返る」時期が来たと主張した。

同氏は、ChatGPTの開発者OpenAIのCEOであるサム・アルトマン氏自身がAIの進歩とそれが何を意味するかについて懸念を表明していると指摘した。

そしてアーモンド氏は、テクノロジーリーダーとAI専門家が署名し、AI開発の即時停止を求めた先週発行された書簡に言及しながら、ChatGPT自身と交わした会話を語った。

「生成 AI は、他のテクノロジーと同様、責任を持って使用しない場合、データ プライバシーにリスクをもたらす可能性があります」とチャットボットは書いています。

「そして、企業が生成型 AI を不適切に使用することで、苦労して築き上げた顧客との関係がたちまち損なわれてしまう可能性を理解するのに、それほど多くの想像力は必要ありません」とアーモンド氏は語った。

同氏は、この技術は新しいかもしれないが、データ保護法の原則は同じだと付け加えた。

AI開発者への8つの質問

同氏は、「生成AIを開発または使用している組織は、最初からデータ保護義務を検討し、設計によるデータ保護とデフォルトでのアプローチをとる必要がある」と述べ、これは「任意ではなく、法律である」と付け加えた。

さらに同氏は、個人データを使用するAI開発者が自問すべき8つの質問を挙げ、ICOは彼らに問いかけ、組織が法律を遵守していない場合には行動するだろうと付け加えた。

質問は次のとおりです。

  • 個人データを処理するための法的根拠は何ですか?
  • あなたはコントローラー、共同コントローラー、それともプロセッサーですか?
  • データ保護影響評価 (DPIA) を準備しましたか?
  • 透明性をどのように確保しますか?
  • セキュリティリスクをどのように軽減しますか?
  • 不要な処理をどのように制限しますか?
  • 個人の権利要求にどのように応じますか?
  • 自動化された意思決定だけを行うために生成 AI を使用しますか?

「生成 AI のプライバシーへの影響を誤解することにはまったく弁解の余地はありません」と同氏は述べ、組織が物事を正しく理解できるよう組織が「懸命に取り組む」と警告した。

アクセシビリティのショートカットに移動

あなたも気に入るかもしれません