ユーロビュー。新しい AI 戦略は障害を持つ人々やその他の弱い立場の人々を守ることができるでしょうか?

アルゴリズムはそれを生み出した社会を反映しており、特定の課題に対処するためには、法律はアルゴリズム自体だけでなく社会を反映する必要があるという論理を提起している、とヨナ・ウェルカーは書いている。

ブレッチリー氏の宣言に28カ国が署名してからわずか数週間後、フロンティアAI、リスクの分野、種類、ケースに対するリスクベースのアプローチ(健康、教育、労働、人権を含む)に合意した。

これに続いて米国は、安全性評価、公民権に関する指導、労働市場への影響に関する調査を義務付ける初の AI 大統領令を発令し、これに伴い AI 安全性研究所も設立されました。

並行して、英国は欧州連合とデジタル サービス法のアプローチを反映した AI 安全性協会とオンライン安全法を導入しました。

大筋合意にもかかわらず、各国は依然として、監督機関、必要な能力、リスクベースの評価とインフラストラクチャーの形成、既存の法律、指令、枠組みの接続など、このビジョンの展開のさまざまな段階にあります。

この監視をどのように実施するかについても、さまざまなアプローチがあり、EU のより厳格なアプローチ(現在はドイツの Aleph Alpha やフランスの Mistral などの基礎モデル開発者からの反対につながっている)から、英国のかなり「ソフトな」アプローチまであります。 。

警察、司法、法制度、健康、教育、指定団体など、より注意を払う必要がある特定の高リスク分野に関連したさらに大きな問題もあります。

これは、障害のある人、子供、弱い立場にある人々などのグループにとって特に重要です。

政策とテクノロジーに関する複雑なタスク

たとえば、多くの法律 AI システムは特定の集団の参加なしでトレーニングされたため、それらに対するエラーが増加することが知られています。一部の国では、政府機関が年金制度のための患者の障害ステータスを確認するために同意なしにソーシャルメディアのデータを使用したとして告発された。

移民は強制送還や許容できない医療費に直面することを恐れて健康診断や検査を避ける傾向があるため、統計や公的データセットはそれらを反映していない。

最後に、AI は、手足の欠如、顔の違い、非対称、言語障害、コミュニケーション スタイルやジェスチャーの違いのある個人、または補助機器を使用している個人を適切に識別できない可能性があります。

別の例では、顔認識システムは、画像に人間の顔が含まれているかどうかを判断するために、耳の形状または外耳道の存在を使用する場合があります。しかし、頭蓋顔面症候群やこれらの部分が欠けているグループには効果がない可能性があります。

2021年のEU AI法の最初の提案以来、欧州委員会は、AIと障害者の権利、生体認証、顔、感情認識システムの使用、自動化されたリスク評価とプロファイリングを含む難民と移民に影響を与える事件に対処する上訴やコメントを受け取ってきた。システム。

しかし、障害中心の AI システムの研究開発は、テクノロジーと政策の両方の観点から見ても依然として複雑な課題です。

これには、その交差する性質、状態、年齢、性別、スペクトル固有のパラメータ、および適切に対処し保護するための複数の法的枠組みの関与が含まれます。

アクセシビリティ法、EU デジタルサービスおよび市場法、障害者権利条約、平等法および児童保護法、専門機関や多国間機関の関与など、AI に特化しない枠組みの役割が増大しています。一般的な「AI 安全性協会」を設立するだけではありません。

EU、AI、指定グループおよび法的エコシステム

指定された障害のあるグループや人に対処する AI システム規制は、1 つの法的文書に限定されるのではなく、さまざまな法的枠組み、法律、条約、政策によって提示されることを覚えておくことが重要です。

特に、そのようなケースは、「AI」に特有の行為、関連データ、消費者および人権の枠組み、覚書および協定によって規制されたり、影響を受ける可能性があります。

たとえば、失読症や自閉症をサポートするために使用される支援技術は、AI 法の条文、データ規制、障害者権利条約などの子供と指定されたグループを保護する特定の法律、および国固有の平等と非平等の影響を受ける可能性があります。 -差別法。

欧州委員会は、AI 法が完全に導入される前から、AI システムとその特有のリスクに対処する方法を検討し始めました。

特に、以前から存在していた GDPR (一般データ保護規則) では、指定されたグループのプロファイリング、「人種」と「性別」に基づくデータの使用、未成年者保護、生体認証および顔認識システムとデータに関連する記事が提示されていました。

より安全なデジタル空間の構築

指定団体の観点から見ると、デジタルサービス法(デジタル市場法と並行)にも重要な役割があります。

AI に特化したものではありませんが、「ユーザーの基本的権利が保護される、より安全なデジタル空間を作成する」ことを目的としています。

特に、オンライン プラットフォームの透明性、説明責任、使用されるアルゴリズムの説明可能性、「ダーク パターン」の使用、未成年者の保護、ターゲティングとプロファイリング、プライバシーと同意、操作、「信頼できる報告者」とモデレーターの導入に対する要件を導入します。プラットフォームと利害関係者間のフィードバック ループ。加盟国の「デジタル サービス コーディネーター」と呼ばれます。

これらのメカニズムは、ユーザー保護、加盟国を越えた協力、調査、および関連管轄裁判所や当局の関与を含む法的枠組みに適切に対処するのに役立ちます。

これには、加盟国の異なるルールによって作られた障壁を取り除くことにより、アクセシブルな製品やサービスの国内市場の機能を改善することを目的とした、2025 年のアクセシビリティ法が伴います。

最後に、これらの取り組みは、教育、医療、読み書き能力、能力指向の推奨事項における生成型 AI に対処するための分野固有のガイドラインに取り組んでいるユネスコ、WHO、OECD などの多国間機関によってサポートされています。

これには、学生と教師のためのユネスコの AI 能力フレームワークや、生成型 AI を使用できる最低年齢を 13 歳に設定するという推奨事項が含まれています。

さらに、偽情報やソーシャルメディアの被害に対処するための最近の行動計画には、アフリカやラテンアメリカを含む134カ国からの回答が集まった。

専門化、協力、そして今後の方向性

アルゴリズムはそれを生み出した社会を反映しており、特定の課題に対処するためには法律はアルゴリズムだけでなく社会を反映する必要があるという論理を提起しています。

指定されたグループに対するアルゴリズムのリスクを軽減することはかなり複雑なプロセスであり、AI に特化しない法律の役割が増大し、単なる「AI 安全性協会」の設立を超えたものになります。

これには、これらのグループに特有のリスク カテゴリと影響評価の構築、アルゴリズムの背後にある社会的および歴史的要因の考慮、データへのアクセスの確保、複数の利害関係者の監視と参加が含まれます。

Yonah Welker は、AI の専門家、テクノロジーの探求者であり、アルゴリズムの多様性を訴える国民の声であり、欧州委員会の資金提供による研究、テクノロジー、イノベーションのプロジェクトに取り組んでいます。

ユーロニュースでは、あらゆる意見が重要であると信じています。お問い合わせ先[email protected]提案や提出物を送信し、会話に参加します。