によるAP によるユーロニュース
公開日•更新されました
この記事をシェアする
イタリアのデータ保護当局は、OpenAIが「適切な法的根拠」なしにAIをトレーニングするために個人データを使用したと認定した。
イタリアのデータ保護監視機関は、同社の人工知能チャットボット「ChatGPT」に対する個人データ収集調査を完了した後、OpenAIに1500万ユーロの罰金を科した。
イタリアデータ保護局(Garante)は次のように述べた。OpenAIは個人データを使用しましたChatGPTをトレーニングすることは「適切な法的根拠を持たず、透明性の原則とユーザーに対する関連情報の義務に違反した」。
OpenAIはまた、13歳未満のユーザーがAIによって生成された不適切なコンテンツにさらされることを防ぐための「適切な年齢確認システム」を提供していなかった、と調査は続けられた。
イタリア当局はOpenAIに対し、同社が個人データをどのように収集しているかについての意識を高めるために、地元メディアで6か月間のキャンペーンを開始するよう求めている。
」チャットGPTユーザーと非ユーザーは、自分の個人データを使用した生成型人工知能のトレーニングに反対する方法を認識させ、一般データ保護規則 (GDPR) に基づいて権利を効果的に行使できる立場に置かれる必要がある」と報告書は述べています。読む。
保証人が持っていた以前当局が2023年にデータ侵害の可能性を調査している間、プライバシー上の懸念からChatGPTの使用を一時的にブロックした。
OpenAIは電子メールで送った声明の中で、この決定は「不均衡」であるとし、控訴すると述べた。
OpenAIの広報担当者は、罰金は同年にイタリアで得た収益の「20倍近く」だったと述べた。
同社は、「世界中のプライバシー当局と協力して、プライバシー権を尊重した有益な AI を提供することに引き続き取り組んでいる」と付け加えた。
米国と欧州の規制当局は、AIブームに重要な役割を果たしたOpenAIやその他の企業を調査しており、世界中の政府は、AIシステムがもたらすリスクから保護するためのルールを策定している。欧州連合の AI 法、人工知能のための包括的なルールブック。