国際女性デー: アルゴリズムはどうして性差別的になるのでしょうか?

19 世紀に最初にアルゴリズムを作成したのは女性でしたが、現在では人工知能が女性を差別している可能性があります。

最初の例から 2 世紀が経ち、アルゴリズムは男女平等を「数十年後押しする能力を持っている」と、人工知能アルゴリズムによるジェンダー バイアスの学習を防ぐプロジェクトに参加しているユニバーシティ カレッジ ダブリンの研究者スーザン リービー氏は説明します。

「それらは、有害な男らしさと、私たちが社会の中で何十年にもわたって戦ってきた態度を悪化させる可能性があります」と彼女は付け加えた。

歴史の重荷

人工知能 (AI) は利用可能になったデータから学習しますが、そのデータのほとんどにはバイアスがかかっています、とリービー氏は言います。

問題は、機械が過去 10 ~ 20 年のデータから学習するため、知らず知らずのうちに過去の偏見が再現されてしまう可能性があることです。さらに、ジェンダーと態度に関する最近の社会的進歩を取り入れないと、データで使用される言語や表現が時代遅れの固定観念を永続させる可能性があります。

たとえば、ほとんどの AI は世界的なフェミニスト運動 #MeToo やチリの国歌「あなたの行く手には強姦者がいる」について聞いたことがありません。

「私たちは過去の過ちを繰り返し続けています」と研究者は言う。

そして、プログラミングにおけるこの偏見は、仕事探しから空港の保安検査場に至るまで、すべての女性の日常生活に影響を与えています。

プログラミングの世界の先駆者

エイダ・ラブレス (1815-1852) は、コンピューターが発明される 1 世紀前に史上初のプログラマーとなりました。

19 世紀半ば、イギリスの数学者は、同僚の科学者チャールズ バベッジによって考案された、コンピューター マシン用の最初のアルゴリズムと考えられるものを書きました。

実際、プログラミングの世界の先駆者の多くは女性でした。彼らは、ENIAC プログラミング (Electronic Numeric Integrator and Computer の頭字語) などの細かい作業に優れていると考えられていました。

第二次世界大戦中の米陸軍の秘密プロジェクトの一環として、6人の女性が最初の電子コンピューターをプログラムした。ただし、1946 年に公開されたとき、彼らの名前は省略されました。

科学とテクノロジーにおける男性の過多

1980 年代には、プログラミング部門はより男性優位になりました。によれば、今日でもヨーロッパの科学者と技術者の 59 パーセントは男性です。最新のユーロスタットデータ

この不平等は、アルゴリズムの記述に意図せず無意識のうちに組み込まれてしまいました。

「特に機械学習プロセスにおいては、男女格差という大きな問題があります」とリービー氏は強調する。 「これは批判的な視点が欠如していることを意味します。」

しかし、男性プログラマーが自分の仕事にもたらしているバイアスを正確に特定することは可能でしょうか?

「ほとんどのエンジニアは、性別や人種に基づいて差別するアルゴリズムを開発したいとは思っていないと思います」とリービー氏は言う。

しかし、それは単なる意図の問題ではありません。 Leavy 氏によると、そもそもマシンが偏見を吸収しないようにするには、多様なプログラミング チームを作ることが最善です。 「多様性のないチームは良い結果を生み出せないことを私たちは知っています。」

リービー氏はまた、ハイテク企業が自社の製品をチームの女性メンバーにテストしてもらうことを推奨している。

アルゴリズムはどのように女性を差別するのでしょうか?

ニューヨークの AI Now Institute で人工知能におけるジェンダー、人種、権力に関する第一人者研究者であるジョイ・リシ・ランキン氏は、「AI やその他のアルゴリズム技術は現在、重要かつ日常的な形で私たちの生活を形作っている」と説明する。

「テクノロジーは私たちには目に見えず、その仕組みはまったく透明ではないため、私たちがこのことを理解することはほとんどありません」と彼女は続けます。

これらのアルゴリズム システムは、たとえば「誰が重要なリソースや利益にアクセスできるか」を決定すると彼女は付け加えた。

AI の使用に基づく差別の最もよく知られた事例の 1 つは、Amazon による採用システムの自動化の試みでした。

2018年、このアメリカの多国籍企業が、性差別的であるという理由で、4年間仕事に応募する候補者を選定してきたAIツールを廃棄したことが明らかになった。

アマゾンのコンピューターモデルは、過去10年間に提出された履歴書のパターンを見て応募者を精査するよう訓練されていた。しかし、男性優位の業界であることを考慮すると、これらの履歴書のほとんどは男性のものであり、男性の応募者を有利にする機械学習によるバイアスが生じていました。

「履歴書の選考は非常に問題の多い分野です」とリービー氏は言う。 「たとえAIのアルゴリズムに性別を調べないよう指示したとしても、彼らは別の方法で調べようとするだろう。」

アマゾンのアルゴリズムは、「女子ラグビーチームのキャプテン」など、候補者の趣味の中に女性の性別に関連する単語を含む履歴書にペナルティを課した。

これは性別の問題だけではなく、このタイプのアルゴリズムは、社会で最も特権を持ち代表者である白人男性を優遇する一連のパターンを特権化することで、あらゆる種類の多様性を罰することにもなります。

顔認識システムも問題のあるアルゴリズムだと研究者は説明する。 「肌の色が濃い女性の場合、さらに悪影響を及ぼします。」

たとえば、顔でロックを解除すると携帯電話の料金が高くなるなど、影響は軽微かもしれませんが、セキュリティ検査を通過する際に困難が生じる可能性もあります。

「もしあなたが白人男性で空港に行くなら、すぐにパスをもらえますが、肌の色が黒い女性なら、長い列に並ぶ可能性がずっと高くなります。」

性差別的なアルゴリズムが女性の生活に重大な影響を与えているもう 1 つの分野は、検索エンジンとソーシャル ネットワークです。

「彼らは一連の固定観念を考慮してユーザーを分類し、異なる方法で扱います」とリービー氏は言います。 「最も危険なのは、こうした評価を利用して、特に影響を受けやすい若者に向けてパーソナライズされた広告を送信する場合だ」とリービー氏は指摘する。

ランキンは私たちに例を挙げています。「Facebook は白人男性に対して高賃金の仕事の広告を掲載したが、女性や有色人種には低賃金の仕事の広告が表示された。Google で「黒人少女」や「ラテン系」を検索すると、性差別的でポルノ的な内容が生み出された結果。"

性差別を永続させるのではなく、性差別と戦うのに役立つとしたらどうなるでしょうか?

AI 開発に関する欧州連合の新しい規制は、「認識の高まり」を示しているとリービー氏は言います。

これは、ウルズラ・フォン・デア・ライエン率いる欧州委員会が推進し、優先的に取り組んでいる問題である。 「10年かかるかもしれない」と彼女は付け加えた。

これを実現するには、チームに男性と女性の両方の視点が反映された、学際的なチームが参加する必要があると彼女は言います。

このアルゴリズムは、採用プロセスにおける性差別などの差別と闘うのにも役立つ可能性がある。機械が包括的であることを学習すれば、候補者を選択する際に人間よりも公平になる可能性があります。

「これを信じるには、もっと多くの証拠を見なければなりません」とリービー氏は述べ、アルゴリズムには偏りがない可能性があると信じていると付け加えた。