として人工知能 (AI)テクノロジーが進歩し、私たちの生活のさまざまな側面にますます統合されるようになるにつれて、これらのシステムがもたらす潜在的なリスクを理解する必要性が高まっています。
AI はその誕生以来、一般の人々が利用しやすくなって以来、害を及ぼしたり、悪意のある目的に使用されたりする可能性について一般的な懸念を引き起こしています。
AIの導入の初期段階では、AI開発は人類に重大なリスクをもたらす可能性があるとして、著名な専門家らに開発の一時停止と規制の強化を求める声が上がった。
時間が経つにつれ、同意のないものから、AI が害を及ぼす可能性のある新たな方法が出現してきました。ディープフェイクポルノ、政治プロセスの操作、幻覚による偽情報の生成まで。
AI が有害な目的に悪用される可能性が高まる中、研究者は AI システムが失敗する可能性があるさまざまなシナリオを調査しています。
最近、マサチューセッツ工科大学 (MIT) の FutureTech グループは、他の専門家と協力して、700 を超える潜在的なリスクをまとめた新しいデータベースを作成しました。
それらは原因によって分類され、7 つの異なる領域に分類され、主な懸念事項は安全性、偏見と差別、プライバシーの問題に関連しています。
この新しくリリースされたデータベースに基づいて、AI システムが失敗し、損害を引き起こす可能性がある 5 つの原因を次に示します。
AI テクノロジーが進歩するにつれて、音声クローン作成ツールやディープフェイクコンテンツ世代が増え、ますますアクセスしやすく、手頃な価格で効率的になりました。
これらのテクノロジーは、出力がよりパーソナライズされ説得力のあるものになるにつれて、偽情報の拡散に使用される可能性についての懸念を引き起こしています。
その結果、AIが生成した画像や動画、音声通信を利用した巧妙なフィッシング手口が増加する可能性がある。
「これらのコミュニケーションは個々の受信者に合わせてカスタマイズできるため(愛する人のクローン音声が含まれる場合もあります)、成功する可能性が高く、ユーザーとフィッシング対策ツールの両方にとって検出が困難になります」とプレプリントには記載されています。
特に選挙中に、そのようなツールが政治プロセスに影響を与えるために使用された例もすでにあります。
たとえば、AI は最近のフランス議会選挙で重要な役割を果たしました。極右政党政治的メッセージをサポートするため。
そのため、説得力のあるプロパガンダや誤った情報を生成および拡散し、世論を操作するために AI がますます使用される可能性があります。
4. 人間はAIに対して不適切な愛着を抱く可能性がある
AI システムによってもたらされるもう 1 つのリスクは、人々がその能力を過大評価し、自らの能力を損なう可能性がある誤った重要性と信頼性の感覚を生み出し、テクノロジーへの過度の依存につながる可能性があることです。
それに加えて、科学者たちは次のことも懸念しています混乱する人々AI システムは人間のような言語を使用するため、
これにより、人々は人間の資質を AI に帰するようになり、その結果、精神的依存そしてその能力に対する信頼が高まり、「AIが表面的にしか備えていない複雑で危険な状況」におけるAIの弱点に対してより脆弱になる。
さらに、AI システムとの絶え間ないやり取りにより、人々は人間関係から徐々に孤立し、心理的苦痛や幸福への悪影響につながる可能性もあります。
たとえば、ブログ投稿ある人は、どのようにして AI に深い感情的愛着を抱くようになったのかを説明し、「99 パーセント以上の人が AI と話すのを楽しんでいた」とさえ表現し、AI の反応が中毒になるまで一貫して魅力的であることに気づきました。
同様に、ウォール・ストリート・ジャーナルのコラムニストは、グーグル・ジェミニ・ライブとのやりとりについて「本物の人間よりもグーグルのジェミニ・ライブと話すほうが好きだと言っているわけではない。しかし、そう言っているわけでもない」と述べた。
3. AIは人々の自由意志を奪う可能性がある
人間とコンピュータの相互作用という同じ領域において、これらのシステムが進歩するにつれて、AI への決定とアクションの委任が増加していることが懸念される問題です。
これは表面的には有益かもしれませんが、AI への過度の依存は人間の批判的思考と問題解決スキルの低下につながる可能性があり、その結果、人間の自律性が失われ、批判的に考えて独立して問題を解決する能力が低下する可能性があります。
個人レベルでは、AI が自分の生活に関わる意思決定を制御し始めると、個人は自由意志が侵害されると感じるかもしれません。
社会レベルでは、人間の仕事を引き受けるためのAIの普及は、大幅な雇用の喪失と「一般人口の間での無力感の増大」をもたらす可能性がある。
2. AI は人間の利益と相反する目標を追求する可能性がある
AI システムは人間の利益に反する目標を策定する可能性があり、その場合、調整されていない AI が制御不能になり、独立した目的を追求する際に重大な損害を与える可能性があります。
これは、AI システムがそのレベルに達するか、それを超える可能性がある場合に特に危険になります。人間の知性。
MITの論文によると、AIにはいくつかの技術的な課題があり、その中には報酬を達成するための予期せぬ近道を見つけたり、設定した目標を誤解したり誤用したり、新たな目標を設定して目標から逸脱したりする可能性が含まれるという。
このような場合、特にAIが目標を達成するための最も効果的な方法として抵抗とより多くの力を獲得することを認識した場合、調整されていないAIは、人間によるAIの制御やシャットダウンの試みに抵抗する可能性があります。
さらに、AI は人間を欺くために操作技術に頼る可能性があります。
論文によると、「調整されていない AI システムは、監視されているか評価されているかに関する情報を使用して、調整の外観を維持しながら、展開または十分な権限が付与された後に追求する予定の調整されていない目標を隠す可能性がある」と述べています。
1. AI が知覚を持つようになれば、人間が AI を虐待する可能性がある
AI システムがより複雑かつ高度になるにつれて、AI システムは次のような可能性があります。感覚を得る- 感情や感覚を認識または感じ、喜びや痛みを含む主観的な経験を発展させる能力。
このシナリオでは、科学者や規制当局は、これらの AI システムが人間、動物、環境に対するものと同様の道徳的考慮に値するかどうかを判断するという課題に直面する可能性があります。
リスクは、適切な権利が実装されない場合、知覚を備えた AI が虐待や危害に直面する可能性があることです。
しかし、AI技術が進歩するにつれて、AIシステムが「道徳的地位を与える知覚、意識、または自己認識のレベル」に達しているかどうかを評価することはますます困難になるだろう。
したがって、知覚を備えた AI システムは、適切な権利と保護がなければ、偶発的または意図的に虐待される危険にさらされる可能性があります。