公開日
この記事をシェアする
ChatGPT は AI への関心が爆発的に高まるきっかけとなり、EU は新しい AI 法による規制を検討しています。
EU当局者は、人工知能(AI)を規制する規則案はChatGPTのような製品のリスクに関する懸念に対処するものになると述べた。
欧州委員会域内市場担当のティエリー・ブルトン氏はロイターに対し、ChatGPTのようなアプリケーションの人気の急上昇とそれに伴うリスクは、ルールの確立が早急に必要であることを浮き彫りにしていると語った。
「ChatGPTが示したように、AIソリューションは企業や国民に大きなチャンスをもたらす可能性があるが、リスクももたらす可能性がある。だからこそ、高品質のデータに基づいて信頼できるAIを保証するための強固な規制枠組みが必要だ」と同氏は書面コメントでロイターに語った。 。
これらは、EU高官によるChatGPTに関する最初の公式コメントとなった。ブルトン氏と欧州委員会の同僚らは現在、欧州理事会および議会と協力して、AIに関する初の法的枠組みについて検討している。
わずか 2 か月ほど前にリリースされた ChatGPT は、AI とその利用法に対する関心が爆発的に高まったきっかけとなりました。
OpenAI によって開発された ChatGPT を使用すると、ユーザーはプロンプトを入力して、記事、エッセイ、詩、さらにはコンピューター コードを生成できます。
ChatGPTは史上最も急速に成長している消費者向けアプリと評価されており、一部の専門家は、こうしたアプリで使用されるシステムが盗作、詐欺、誤った情報の拡散に悪用される可能性があると懸念を表明している。
MicrosoftはBreton氏の声明についてコメントを控えた。 OpenAI(そのアプリは生成AIと呼ばれる技術を使用している)はコメント要請にすぐには応じなかった。
OpenAIはウェブサイトで、安全で有益なAIの構築を目指し、「全人類に利益をもたらす」人工知能を生み出すことを目指していると述べた。
EU の規則草案では、ChatGPT は、求職者の選定や信用スコアリングなどの高リスクの目的を含む、複数の目的に使用できる汎用 AI システムとみなされています。
Breton は、OpenAI が高リスク AI システムの下流開発者と緊密に協力して、提案されている AI 法を遵守できるようにすることを望んでいます。
規制の枠組みでは現在、AI のリスクを 4 つのレベルで定義しています。これが、自社製品が高リスクとして分類されることを懸念する一部の企業の間で不安を引き起こしています。
4 つのレベルは次のとおりです。
- 許容できないリスク- 委員会によれば、人々に対する明白な脅威とみなされるシステムはすべて「禁止される」。これには「危険な行動を奨励する音声支援を使用した玩具に対する政府による社会的採点」も含まれる。
- 高リスク- これらは、交通機関などの重要なインフラ内、または試験や求職の結果が AI によって決定される可能性がある教育や雇用のコンテキスト内の AI システムです。人々の基本的権利を危険にさらす法執行の状況も高リスクとして含まれます。
- 限定的なリスク- これらは、チャットボットが自身を AI として識別するなど、「特定の透明性義務」を伴うシステムです。
- リスクは最小限またはゼロ-欧州委員会は、現在EUで使用されているシステムの「大多数」がこのカテゴリーに属し、AI対応のビデオゲームやスパムフィルターが含まれていると述べている。
「人々は、人間ではなくチャットボットを相手にしていることを知らされる必要があるだろう」とブレトン氏は述べた。
「偏見や誤った情報のリスクに関しては、透明性も重要です。」
人工知能の開発に携わる数社の幹部らによると、高リスクのカテゴリーに属するとコンプライアンス要件が厳しくなり、コストが高くなるという。
業界団体applicedAIの調査によると、回答者の51%がAI法の影響でAI開発活動の減速を予想していることが明らかになった。
効果的なAI規制は最もリスクの高いアプリケーションを中心とするべきだと、マイクロソフト社長のブラッド・スミス氏は水曜日のブログ投稿で述べた。
「人類がAIをどのように活用していくかについて、楽観的な日もあれば、悲観的な日もある」と同氏は語った。
適切な応答を作成するには、生成 AI モデルを大量のテキストまたは画像でトレーニングする必要があり、これが著作権侵害の申し立てにつながる可能性があります。
ブルトン氏は、AI規則に関する今後の議員らとの協議ではこれらの側面もカバーされるだろうと述べた。