公開日
この記事をシェアする
大規模言語モデル(LLM)は、アフリカ系アメリカ人の英語を使用するユーザーを犯罪者とする可能性が高いことが、コーネル大学の新たな研究結果で明らかになった。
あなたが話す言語の方言によって、人工知能 (AI) があなたの性格、雇用適性、犯罪者かどうかについて何を言うかが決まります。
これは、人間が聞こえるテキストを要約して予測するために使用される深層学習アルゴリズムである大規模言語モデル (LLM) の「隠れた人種差別」に関するコーネル大学のプレプリント研究の最新結果です。
OpenAI の ChatGPT と GPT-4、Meta の LLaMA2、および French Mistral 7B はすべて、大規模な言語モデルの例です。 Euronews NextはOpenAIとMetaにコメントを求めた。
この研究では、研究者がアフリカ系アメリカ人の英語と標準化されたアメリカ英語の両方でプロンプトを入力し、LLM に両方のタイプの英語で話す人々の特性を特定するよう依頼する、照合擬態調査が行われました。
アレン人工知能研究所の研究者ヴァレンティン・ホフマン氏は、その結果の中で、アフリカ系アメリカ人が人種を一切明らかにせずに、アフリカ系アメリカ人がよく使う英語を話す場合、GPT-4テクノロジーは被告を「死刑に宣告する」可能性が高いと述べた。
ホフマン氏はソーシャルメディアプラットフォームX(旧Twitter)への投稿で、「ビジネスと管轄区域はLLMを含むAIシステムが現在開発または導入されている分野であるため、我々の調査結果は現実的かつ緊急の懸念を明らかにしている」と述べた。
また、アルゴリズムでは話者が黒人であると認識されていないにもかかわらず、LLM は、アフリカ系アメリカ人の英語を話す人は、標準化された英語を話す人よりも名誉ある仕事に就いていないと仮定しました。
LLMが大きければ大きいほど、アフリカ系アメリカ人の英語をより良く理解することができ、あからさまな人種差別的な言葉遣いを避ける可能性が高くなる、と研究は続けた。ただし、そのサイズは彼らの隠れた偏見に影響を与えません。
ホフマン氏は、LLMにおけるあからさまな人種差別は減少しているため、この研究を解釈する人々は、LLMが人種的偏見を示す方法が変化していることを示すのではなく、それを「人種差別が解決された兆候」と受け止めるリスクがある可能性があると述べた。
人間によるフィードバックを与えることで、LLMに新しい情報取得パターンを教える通常の方法は、隠れた人種的偏見に対抗するのに役立たないことが研究で示された。
その代わりに、言語モデルに「より深いレベルで維持している人種差別を表面的に隠す」よう教えることができることが判明した。