ユーロビュー。 EU AI 規制の極めて重要な瞬間: GPAI の実施規範を主導するのは誰ですか?

(副)議長の専門知識とビジョンは、将来の GPAI ルールを導き、AI エコシステムにおける信頼性を確保するためのヨーロッパの方法が存続することを保証する上で極めて重要である、と Kai Zenner 氏と Cornelia Kutterer 氏は書いています。

今後 3 週間以内に、AI 事務局は、EU AI 法の重要な部分の実装を形作る重要な外部個人グループを 1 つ任命する可能性があります。つまり、汎用 AI の実施規定の議長と副議長です ( GPAI)モデル。

背景を説明すると、OpenAI の ChatGPT などの人気アプリケーションを含む生成 AI の台頭は、経済面で破壊的な影響を及ぼしただけでなく、AI 法の三者交渉の終わりに政治的な痛手も生み出しました。

フランス、ドイツ、イタリアなどの加盟国は、AIスタックの基盤への規制介入は時期尚早で、ミストラルやアレフ・アルファといったEUの新興企業を抑制することになると懸念していたが、覚えている人もいるかもしれないが、フランスはなんとか反転した。このスタンスに着地する前に数回。

欧州議会ではその逆が当てはまりました。市場の集中と基本的権利侵害の可能性を懸念し、生成型AI、つまり最終法で洗礼されたGPAIモデルのための包括的な法的枠組みを提案した。

このような反対の見解を踏まえ、EU の共同立法者は第 3 の方法、つまり GPAI モデルの提供者の義務を規定と技術標準に明記する共同規制アプローチを選択しました。

2022年の偽情報に関する実践規範からページを借用して、この手段の使用を提案したのは特にティエリー・ブルトン長官だった。

核となる類似点はガバナンス アプローチの先に隠されており、急速に進化するテクノロジー、社会技術的価値観、コンテンツ ポリシーとモデレーション決定の複雑さなど、柔軟なコードが AI の安全性に特に適しています。

しかし、誰もが規範が適切な規制手段であることに同意するわけではありません。彼らの批判者たちは、企業が最低限のことだけを約束し、あまりにも少なすぎて遅すぎるというリスクを指摘している。

少なくとも、多くの監査人が2018年のEUの偽情報に関する実践規範の初版に対して抱いた印象も同様だった。

厳しい審査の後、委員会の偽情報チームは企業に改善策を講じるよう促し、市民社会をテーブルに着かせ、強力な参加者がプロセスの議長に独立した学者を任命するようにした。

技術的に実現可能でイノベーションに優しい

良いニュースは、9 月中旬に予定されている(副)委員長の任命に戻ると、AI 局がその特定の経験を GPAI に対する共同規制アプローチの青写真として活用したということです。

6月30日、4つの作業部会によるGPAI実施規範の草案のための健全なガバナンスシステムを提案した。

これにより、関心のあるすべての利害関係者には、特に公開協議と 3 回の全体会議を通じて、最終文書に貢献し形成する複数の機会が与えられます。 GPAI 企業は今後も追加のワークショップに招待されるため、起草プロセスを主導することになります。

また、規範は自主的なものであるため、最終結果に従う必要もありません。

したがって、偽情報規定を振り返ってみると、起草プロセスの信頼性と適切なバランスを守るためには、(副)議長の独立性基準が重要になると言っても過言ではありません。

任命された人物は、文書の草案を作成し、4つの作業グループの議長を務める事実上の責任者であるため、多大な影響力を持つことになる。

9 番目の椅子をもう 1 脚追加すれば、コーディネートの役割を果たすこともできます。両者は協力して、義務を技術的に実現可能でイノベーションに適したものに保ちながら、システミックリスクを考慮して野心的なルール間の適切なバランスをとることを目指すことができるだろう。

彼らの目標は、最先端技術の実際的な解釈を反映した GPAI コードを達成することです。最高の品質を達成するために、AI 事務局は、GPAI モデルに関する技術的、社会技術的、またはガバナンスの強力な専門知識と、欧州または国際舞台で委員会活動を運営する方法に関する実践的な経験を組み合わせた能力に基づいて (副) 委員長を選出する必要があります。

最も重要な選択

選考プロセスは困難を伴うだろう。 AI の安全性は、試行錯誤を重ねた初期の進化中の研究分野です。

AI 局は、多くの主要な AI 安全専門家の多くが EU 外に拠点を置いているということを認識しながら、多様な専門的背景を扱い、精査された膨大な数の利益のバランスを取り、国と性別の多様性に対する EU の典型的な考慮事項を遵守する必要があります。

当然のことながら、GPAI コードは EU の価値観に焦点を当てるべきであり、(副)議長の間で強力な EU 代表を確保することが重要です。しかし、その世界的な重要性と、AI 法が国際的なアプローチを考慮する必要があるという事実を考慮すると、多くの著名な国際専門家がこれらの役割に関心を示しています。

また、相当数の国際的に著名な専門家を議長または副議長に任命することは、EUにとっても勝利となるだろう。このようなステップにより、成功する可能性が高まり、コード全体の正当性が保証され、EU 以外の企業がプロセスに参加しやすくなります。

結論として、現段階では GPAI コードの(副)議長の選出が最も重要です。

彼らのリーダーシップは、特に複雑な社会技術的課題や、知的財産権、CSAM、各 GPAI モデルが負う義務を決定する重要なしきい値などの機密性の高い政策を乗り越えるために、共同規制の取り組みが時間の経過とともにどのように進化するかの方向性を決めることになるでしょう。直面すること。

(副)議長の専門知識とビジョンは、将来の GPAI ルールを導き、AI エコシステムにおける信頼性を維持するためのヨーロッパの方法を確実に維持する上で極めて重要です。

Kai Zenner 氏は、アクセル フォス欧州議会議員 (ドイツ、EPP) の室長兼デジタル政策顧問であり、技術レベルで AI 法の交渉に関与していました。 Cornelia Kutterer は、Considerati のマネージング ディレクター、SaferAI の顧問、そして UGA の AI 学際的研究所の研究者です。

ユーロニュースでは、あらゆる意見が重要であると信じています。 [email protected] までご連絡いただき、ピッチや投稿を送信して会話に参加してください。