午前1時ですが、眠れず、夜の静寂の中でのみ鮮明になる、ある種の実存的な恐怖で頭がクラクラしています。起きますか?それが終わるまで靴下の引き出しを並べ替えてみてはいかがでしょうか?
いいえ、携帯電話を手に取り、仮想ペンギンにメッセージを送信します。
世界的なメンタルヘルス危機が世界への影響を強めているため、人々はこれに対処するために人工知能 (AI) 療法アプリに注目するようになっています。
世界保健機関 (WHO) は、4 人に 1 人が人生のどこかの時点で精神疾患を経験すると推定していますが、欧州委員会がまとめた統計では、2021 年の EU 内の全死亡のうち 3.6% が精神的および行動的要因が原因であることが判明しました。障害。
しかし、資源は依然として大部分が資金不足でアクセスできず、ほとんどの国が投入する資金は平均して2パーセント未満です。医療予算精神的健康に。
これは人々の幸福だけでなく、重大な影響により企業や経済にも影響を与える問題です。生産性の損失。
近年、メンタルヘルスのサポートを期待したAIツールが多数登場している。 Woebot Health、Yana、Youper などの多くは、AI を活用した生成型チャットボットを身体を持たないセラピストとして使用するスマートフォン アプリです。
フランスに本拠を置くCallyopeなど、他の企業は統合失調症や双極性障害患者を監視するために音声ベースのモデルを使用しているが、Deepkeys.aiは「心拍数モニターのように、しかし心のために」受動的に気分を追跡していると同社のWebサイトには記載されている。 。
これらのアプリの有効性は大きく異なりますが、手頃な価格、地域での選択肢の不足、長い待機リスト、社会的偏見などの理由で専門的なケアにアクセスできない人々をサポートするという目標はすべて共通しています。
ChatGPT や Gemini のような大規模言語モデル (LLM) の急速な台頭により、人々はすでに問題解決や解決のために AI チャットボットに注目し始めているため、彼らはより意図的なスペースを提供しようとしています。つながりの感覚。
しかし、人間と AI の関係は依然として複雑で物議を醸しています。
誰かが最も弱く、最も弱い立場にあるときに、事前にプログラムされたロボットが本当に人間の助けに代わることはできるのでしょうか?そして、さらに懸念すべきことは、それが逆効果になる可能性があるということでしょうか?
AI ベースのメンタルヘルス アプリが直面する最大の問題の 1 つは、安全性を確保することです。
今年初め、10代の少年がカスタマイズされたチャットボットに深く執着した後、自殺した。キャラクター.ai。その後、彼の母親は、チャットボットが資格のあるセラピストを装い、息子に自殺を勧めたとして、同社を相手に訴訟を起こした。
同様に続きますベルギーで起きた悲惨な事件昨年、環境に不安を抱いていた男性が、アプリ「Chai」上のチャットボットに地球のために自分を犠牲にするよう説得されたと報じられた。
専門家は、規制されていない AI アプリが潜在的に重大な結果をもたらす可能性について、ますます懸念を抱いています。
「この種の療法は、人々を人間ではなく非人間との関係に同調させている」と英国心理学会(BPS)の公認会員であり、BPSのサイバー心理学セクションのメンバーであるデイビッド・ハーレー博士はユーロニュース・ネクストに語った。
「AIは均質化された形のデジタル共感を使用しており、どのように見えても、人が感じていることを感じることはできません。AIは言葉の本当の意味で『無責任』です。脆弱性の瞬間に『応答』することはできません。なぜなら、AIはそれを感じないし、できないからです。世界で行動する」。
ハーリー氏は、テクノロジーを擬人化する人間の傾向は、人生の決定においてAIセラピストに過度に依存することにつながり、「感情に焦点を当てたものよりも、人生のジレンマや治療的介入に対する象徴的な見方とのより大きな一致」につながる可能性があると付け加えた。
一部の AI アプリはこれらのリスクを非常に真剣に受け止めており、リスクに対するガードレールを実装しようとしています。その先頭に立っているのが、ペンギンのアバターのチャットボットとのパーソナライズされた、証拠に基づいた治療上の会話を提供するメンタルヘルス アプリである Wysa です。
2015 年にインドで設立され、現在では世界 30 か国以上で利用可能で、グローバル アプリ ストアからのダウンロード数は 600 万件を超えました。
2022 年には英国の国民保健サービス (NHS) と提携し、NHS のデジタル テクノロジー評価基準 (DTAC) を含む厳格な基準の長いリストを遵守し、英国の国民保健サービス (NHS) と緊密に連携しました。欧州のAI法、今年8月に発売されました。
「ここ(イギリス)の医療サービスを運営するには、満たさなければならない情報ガバナンス、臨床安全性、基準がたくさんあります。そして、多くの(AI治療)提供者にとってはそれが先延ばしにしていますが、私たちはそうではありません」 」とWysa社マネージングディレクターのジョン・テンチ氏はユーロニュース・ネクストに語った。
Wysa を際立たせているのは、立法的および臨床的裏付けだけでなく、人々がアプリ外で必要なサポートを受けられるよう支援するインセンティブも備えていることです。
これを実現するために、同社は Copilot と呼ばれるハイブリッド プラットフォームを開発し、2025 年 1 月にリリースされる予定です。これにより、ユーザーはビデオ通話、1 対 1 のテキスト メッセージ、音声メッセージを通じて専門家と対話できるようになり、外部から推奨ツールを受け取ることもできます。アプリと回復の追跡。
「私たちは、後戻りするのではなく、専門家と彼らが提供するサービスとの統合を継続して組み込みたいと考えています。人々が専門家にまったく会う必要のないものを提供できないでしょうか?」テンチは言った。
Wysa には、危機に瀕している人向けの SOS ボタンもあり、グラウンディング訓練、国立医療研究優秀研究所 (NICE) が定めたガイドラインに従った安全計画、国内および国際的な自殺ヘルプラインの 3 つのオプションを提供します。アプリ内からダイヤルできます。
「臨床安全アルゴリズムは当社の AI の基盤です。これは常に監査されるため、誰かが自傷行為、他人からの虐待、または自殺念慮を示唆する可能性のある内容をフリーテキストに入力すると、アプリがそれを選択します。起動すると、毎回同じ SOS ボタン経路が提供されます」と Tench 氏は言いました。
「私たちは環境内のリスクを適切に維持することに努めていますが、同時に人々が正確に適切な場所に適切な引き継ぎを受けられるようにしています。」
AIの非人間化の重要性
そんな世界ではこれまで以上に孤独AI アプリは、倫理的な懸念があるにもかかわらず、メンタルヘルスを取り巻く偏見が依然として多く、これを軽減する効果的な方法であることが実際に証明されています。
「彼らは低コストまたは無料で心理的な『サポート』を提供することで、何らかの形で『治療格差』に対処しており、ユーザーがあまり威圧感を感じない形でこれを提供している」とハーレー氏は語った。
「これは素晴らしいテクノロジーですが、それを人間であるかのように扱い始めると問題が発生します。」
Character.ai や Replika などの一部のアプリでは、チャットボットをカスタマイズされた人間のキャラクターに変換できますが、メンタルヘルスを専門とする人々にとっては、アバターが明らかに人間ではないことを確認して、人々がボットに話しかけていることを強調することが重要になっています。感情的なつながりを育みます。
テンチ氏は、「(アプリを)もう少しアクセスしやすく、信頼できるものにし、人々がその存在を快適に感じられるようにするため」にペンギンを選んだと述べ、「どうやらペンギンはペンギンに対する恐怖症の報告が最も少ない動物でもあるようだ」と付け加えた。 。
かわいいアバターのアイデアを全く新しいレベルに引き上げたのは、東京に本拠を置く企業バンガード・インダストリーズ社で、毛むくじゃらのインゲン豆に似たモフリンと呼ばれる物理的な AI を搭載したペットを開発しました。
センサーを介して外部刺激に反応するその感情的な反応は、環境との相互作用を通じて進化し続けるように設計されており、現実のペットのような快適さを提供します。
バンガード・インダストリーズ社の山中正彦社長は、「モフリンと暮らし、モフリンと感情を共有することがメンタルヘルスの改善に貢献できると信じている」と説明した。
「この技術のコンセプトは、動物の赤ちゃんや人間の赤ちゃんは、目が見えなくても、物を正しく認識できなくても、言葉を理解して正しく反応できなくても、愛情を感じることができる存在だということです。」
Tench 氏はまた、効果的な AI 療法の鍵は、AI が厳密な意図を持ってトレーニングされていることを確認することだと考えています。
「Wysaと会話すると、常にその3段階モデルに戻される。最初の段階は承認であり、(ユーザーは)アプリに課したどんな問題についても聞いてもらっていると感じることができる」と同氏は語った。
「2 つ目は説明です。つまり、Wysa が何かを推奨するのに十分な情報を持っていない場合、Wysa は説明の質問をします。それはほぼ満場一致で、何かが誰かをどのように感じるかについての質問です。そして 3 つ目は、ツールやサポートの推奨事項を作成することです。私たちのツールライブラリから」と Tench 氏は付け加えました。
「許可されない、あるいは許可されるべきではないのは、精神的健康に関係のないことについての会話です。」
AI が私たちの生活にますます組み込まれるようになるにつれ、AI が人間の心理や人間関係に及ぼす影響を理解することは、何が有益で何が危険なのかの間の微妙なバランスを調整することを意味します。
「[Wysa の使用中に] [NHS] 待機リストに載っていた人々のメンタルヘルスの改善を調べたところ、大幅に改善されました。約 36 パーセントの人にはうつ病の症状に前向きな変化が見られ、約 27 パーセントには前向きな変化が見られました」不安症状の変化です」とテンチ氏は語った。
これは、適切な政府規制、倫理アドバイザー、臨床監督があれば、AI が過大でリソースが不足している医療分野に大きな影響を与えることができることを証明しています。
また、これらは実際の人間のケアと組み合わせて最も効果的に機能するツールであることを思い出させてくれます。仮想コミュニケーションは快適ではありますが、触覚コミュニケーションや対面でのやり取りや回復へのつながりの核に取って代わることはできません。
「優れた人間のセラピストは、あなたの言葉の象徴的な意味を理解するだけでなく、あなたの声の調子にも耳を傾け、あなたの座り方、話すのが難しいと感じる瞬間、感情にも注意を払います。説明するのは不可能だと思います」とハーレーは言いました。
「要するに、彼らは真の共感能力を持っているのです。」