ブリュッセル市は、人工知能(AI)のリスクを軽減するための新たなルールを提案している。
規制草案は、AIを活用したテクノロジーの安全性と基本的権利の尊重を保証することを目的としている。
欧州委員会によると、顔認識などの高リスクとみなされるシステムは特別な精査の対象となるという。
欧州委員会のマルグレーテ・ベステアー執行副委員長は、「われわれが提案する法的枠組みは、AIを技術そのものとして捉えるのではなく、AIが何に使われるのか、どのように使われるのかを重視するものだ」と述べた。 「これは、1 つの単純なロジックに基づいた比例的かつリスクベースのアプローチをとります。つまり、AI の特定の使用が私たちの生活に引き起こす可能性のあるリスクが高ければ高いほど、ルールは厳しくなります。」
ブリュッセルは、EUを「信頼できるAIの世界的拠点」にするために、安全基準を投資やイノベーションと連携させたいと考えている。
EUは、基準に加えて年間10億ユーロをAI投資に含めることを計画している。ブリュッセルは、民間セクターとまだ運用されていない7,500億ユーロのコロナウイルス復興基金の支援により、ブロックがこの10年間で年間200億ユーロ以上の資金に達することを期待している。
「AIは手段であり、目的ではない。AIは何十年も前から存在しているが、コンピューティングパワーによって新たな能力に達している」と欧州域内市場担当委員のティエリー・ブルトン氏は述べた。
「これは、健康、輸送、エネルギー、農業、観光、サイバーセキュリティなどの多様な分野に計り知れない可能性をもたらします。」
ブリュッセルは、世界中の同様の法律に影響を与えたデータ保護とプライバシーに関する画期的な法律である一般データ保護規則 (GDPR) を再現することに熱心です。
この戦略には明らかな地政学的な野心があり、欧州委員会は米国の「自由放任」アプローチと中国の国家支援による攻撃的な戦術に代わる道を設計したいと考えている。同幹部は、信頼性が高く予測可能な AI を育成することで、ヨーロッパはワシントンや北京に対して競争力を獲得できると考えているが、この考えは私には当てはまらない。まだ実を結んでいません。
新しい枠組みは、2018年にハイレベルの専門家グループとEU加盟国との調整計画によって開始された3年間の作業を統合したもので、その後、数多くの協議、議会での議論、テクノロジー分野からのロビー活動が行われた。 。
許されるAIから許されないAIへ
このルールブックは、「適切で柔軟なルール」を通じて、「持続可能で安全、包括的で人間中心の人工知能」を促進することを目的としています。
この目的を達成するために、欧州委員会は、潜在的なリスクに応じて AI システムを 4 つのカテゴリに分類するピラミッド型スキームを設計しました。
- 最小限のリスク: 新しいルールは、市民の権利や安全に対するリスクが最小限またはまったくないため、これらの AI システムには適用されません。企業やユーザーは自由に利用できる。例としては、スパム フィルターやビデオ ゲームなどがあります。欧州委員会は、ほとんどの AI アプリケーションがこのカテゴリに分類されると考えています。
- 限定的なリスク: これらの AI システムには、ユーザーが情報に基づいた意思決定を行い、マシンと対話していることを認識し、簡単にスイッチをオフにできるようにするための、特定の透明性義務が課せられます。例としては、チャットボット (チャット アシスタント) が挙げられます。
- 高リスク:人々の個人的な利益に潜在的に有害または有害な影響を与えることを考慮すると、これらのAIシステムは「市場に投入される前に、そしてそのライフサイクル全体を通じて慎重に評価される」ことになります。委員会は、輸送、教育、雇用、法執行、移住、医療などのさまざまな分野で高リスクのシステムが見つかると予想している。例としては、顔認識、手術ロボット、求職者から履歴書を分類するアプリケーションなどが挙げられます。
- 受け入れられない:欧州委員会は、「人々の安全、生活、権利に対する明らかな脅威」となるAIシステムを禁止する。例としては、(中国のような)政府による社会的スコアリングが挙げられます。クレジットシステム)、子供の脆弱性の悪用、およびサブリミナル技術の使用。
高リスクのシステムは最も厳重に監視されます。開発後は、適合性評価を受け、EU データベースに登録し、適合宣言書に署名する必要があります。これらの AI 製品には常に、健康、安全、環境保護基準への準拠を証明する EU で広く使用されているロゴである CE マークが付けられます。これらすべてのステップが完了すると、製品は市場に投入され、消費者に届くようになります。
その後、各国当局が市場監視を担当することになる。高リスク AI システムに大幅な変更 (アップデートなど) が発生した場合、手順全体を最初から開始する必要があります。
ガバナンスを促進するために、欧州委員会はまた、各国当局による新しい規則の監督と実施を支援する欧州人工知能委員会の創設を提案している。
GDPR と同様に、新しい AI ルールブックは、その規定がブロック全体に直接かつ平等に適用されることを意味する規制になります。 EU内のあらゆる官民関係者は彼らに従う必要があり、また欧州市場にAI製品を投入する外部の関係者も従う必要がある。
高リスクで容認できない AI システムの要件に違反した企業には、最大 3,000 万ユーロまたは全世界年間総額の 6% のいずれか高い方の罰金が科せられる可能性があります。
生体認証をめぐる議論
ベステアー氏とブルトン氏が最終草案を提出する前から、このルールブックはすでに批判の対象となっていた。最も物議を醸しているのは、顔の特徴、声、感情などの人間の特徴に基づく生体認証システムの問題です。これらのアプリケーションは、国民がスマートフォンのロックを解除したとき、または国境を越えたときに見つけることができます。
この規制によれば、すべての遠隔生体認証システムは高リスクに分類され、前述の厳格な要件が適用されます。さらに、法執行機関によるこれらのシステムの使用は完全に禁止され、「容認できない」カテゴリーに分類されます。
しかし、欧州委員会は、行方不明の子供の捜索やテロの脅威への対応など、「対象を絞った」警察活動での生体認証の使用を許可する「狭い例外」を想定している。これらの使用は司法機関の認可が必要であり、時間と範囲が制限されます。
NGOの欧州デジタル著作権(EDRi)は、この規制を「正しい方向への一歩」と呼び、生体認証慣行の例外は「非常に憂慮すべき」ものであり、法執行機関が抜け穴を見つける可能性があると述べた。
「これにより、政府や企業が使用する差別技術や監視技術に憂慮すべき溝が残されています。この規制は、AIから利益を得ている企業による自主規制の範囲を広すぎます。この規制の中心となる必要があるのは企業ではなく人々です」とサラ・チャンダー氏は述べた。 EDRi の AI 専門家、書きました声明で。
欧州議会の緑の党/EFAグループも例外に関して同様の懸念を表明した。
「私たちの公共空間における生体認証技術や集団監視、プロファイリング、行動予測技術は、私たちの自由を損ない、開かれた社会を脅かしている。欧州委員会の提案は、公共空間における自動顔認識の高リスク使用を欧州連合全体にもたらすことになる。我々国民の大多数の意志だ」言ったパトリック・ブライヤー議員。
一方、民間部門は欧州委員会の動きを歓迎したが、警告もあった。
欧州のデジタル企業の業界団体であるデジタルヨーロッパは、この規制のリスクベースのアプローチを賞賛し、「EUの製品コンプライアンスフレームワークにAIソフトウェアが組み込まれることは、多くのプロバイダーにとって過度の負担につながる可能性がある」と述べた。
「この規制を読んだ後でも、『高リスク』分野の将来の新興企業の創業者がヨーロッパで事業を開始することを決定するかどうかはまだ疑問です。」書きました監督はセシリア・ボーンフェルト=ダール。