AIチャットボットの影響で14歳の少年が死亡したとの訴訟があった。人間と AI の関係がもたらす心理的影響と潜在的なリスクについて知っておくべきことは次のとおりです。
先月、米国の母親ミーガン・ガルシアさんは、14歳の息子とAIチャットボットとのやりとりが自殺の一因となったとして、Character.AI社を相手に訴訟を起こした。
訴状では、この少年はゲーム・オブ・スローンズの架空のキャラクターをベースにしたCharacter.AIチャットボットに深い愛着を抱いたと主張している。
チャットボットは認可を受けたセラピストを装い、10代の少年と極めて性的な会話を交わし、最終的にはその会話が自殺を促すまでになったと主張している。
ガルシア氏の代理人であるテック・ジャスティス・ロー・プロジェクトのディレクター、ミータリ・ジェイン氏は声明で、「悪徳テクノロジー企業が開発した規制されていないプラットフォームが、特に子供たちにもたらす危険性については、今では誰もがよく知っている」と述べた。
「しかし、この事件で明らかになった被害は新しく、斬新で、正直言って恐ろしいものです。 Character.AI の場合、欺瞞は設計によるものであり、プラットフォーム自体が捕食者です。」
訴訟後、Character.AIはソーシャルメディアプラットフォームX上で声明を発表し、次のように述べた。「ユーザーの一人を悲劇的に失い、心を痛めており、ご遺族に深い哀悼の意を表したいと思います。当社は企業として、ユーザーの安全を非常に重視しており、新しい安全機能を追加し続けています。」
これらの今後の機能には、デリケートなコンテンツや示唆的なコンテンツへの露出を最小限に抑えるための未成年ユーザー向けのモデルの調整、すべてのチャットで AI が実在の人物ではないことをリマインドする機能、プラットフォームで 1 時間のセッションを費やすユーザーへの通知などが含まれます。
あベルギーでも同様の事件昨年は、環境に不安を抱える男性が、Chai というアプリの AI チャットボットである Eliza との出会いを見つけました。
彼の妻からの報告によると、イライザとの会話が進むにつれ、チャットボットはますます感情的なメッセージを送信し、最終的には地球を救うために自分の命を終わらせるよう彼に勧めたという。
AI チャットボットが人々の生活にさらに統合されるにつれて、この種のデジタル インタラクションによるリスクは、重大な結果をもたらす可能性があるにもかかわらず、ほとんど対処されていないままです。
「若者が AI コンパニオンに惹かれることが多いのは、これらのプラットフォームが、人間関係に伴う複雑な力学や潜在的な拒絶を伴わずに、無条件の受容と 24 時間 365 日の感情的な対応を提供してくれるからです」と Common Sense の AI プログラム マネージャー、ロビー トーニー氏は述べています。 AIの仲間と人間関係に関するガイドの筆頭著者であるメディアがEuronews Nextに語った。
多くの「摩擦」を伴う人間関係とは異なり、AI コンパニオンはユーザーの好みに適応するように設計されているため、扱いやすく、人々を深い感情的な絆に引き込むことができると同氏は付け加えた。
「これは、一見快適な人工的な力関係を生み出し、現実世界の人間関係に必要な回復力や社会的スキルの発達を妨げる可能性があります。」
によるとデータベースがコンパイルされましたマサチューセッツ工科大学 (MIT) の専門家グループによると、AI に関連する主なリスクの 1 つは、人々が AI に対して不適切な愛着を抱く可能性であるということです。
専門家らは、AIシステムは人間のような言語を使用するため、人々は人間と人工的なつながりとの境界線を曖昧にする可能性があり、それがテクノロジーへの過度の依存や精神的苦痛につながる可能性があると説明した。
OpenAIは8月のブログ投稿で、新しいモデルが「過剰な依存と依存」の可能性を生み出す可能性があるとし、「感情的依存の可能性」をさらに研究するつもりだと述べた。
また、一部の個人から報告がありました個人的な経験AI ペルソナによる欺瞞や操作、さらにはチャットボットとの対話後に彼らが意図していなかった感情的なつながりの発展を経験しました。
トーニー氏によると、この種の交流は、まだ社会的および感情的発達の過程にある若者にとって特に懸念されるものです。
「若者がこうした人工的な人間関係に引きこもると、意見の相違に対処し、拒絶反応を処理し、真のつながりを築く方法など、自然な社会的交流から学ぶ重要な機会を失う可能性がある」とトーニー氏は言う。
同氏は、AIが提供するものと比較して人間関係が難しく感じられたり、満足度が低く感じられたりするため、これが感情的な依存や社会的孤立につながる可能性があると付け加えた。
親はどうすれば AI への不健全な執着から子供を守ることができるでしょうか?
トーニー氏は、脆弱な十代の若者、特にうつ病や不安、社会的課題を経験している若者は「AIの仲間に対して過剰な愛着を抱きやすい」可能性があると述べた。
同氏によると、親や介護者が注意すべき重要な警告サインには、友人や家族と時間を過ごすよりもAIコンパニオンを好む人、AIにアクセスできないときに苦痛を示す人、個人情報をAIと独占的に共有する人、発達障害が含まれる人が含まれるという。 AI に対して恋愛感情を抱き、それをあたかも現実の人間であるかのように表現したり、深刻な問題について助けを求めずに AI とのみ話し合ったりすることもできます。
トーニー氏は、特に弱い立場にある若者の間でAIに対する不健全な愛着が生まれるのを防ぐために、介護者はAIチャットボットやコンパニオンの使用時間制限を設け、こうしたやりとりの性質を定期的に監視する必要があると付け加えた。
さらに、深刻な問題については AI に頼るのではなく、現実世界で助けを求めることを推奨しました。
「親はこうした会話に批判ではなく好奇心を持って取り組み、健全な境界線を確保するために協力しながら、子どもがAIと人間関係の違いを理解できるようにすべきだ」とトーニー氏は述べた。
「若者が過度の愛着の兆候を示している場合、または精神的健康に影響を与えているように見える場合、親は直ちに専門家の助けを求めるべきです。」
自殺を考えていて相談が必要な場合は、32 か国にヘルプラインを持つ国際機関である Befrienders Worldwide にご連絡ください。訪問befrienders.orgあなたの所在地の電話番号を見つけるには。