新しい研究により、ChatGPT を使用することで陰謀論に対する人の信念を軽減できる可能性があることが判明しました。
米国のアメリカン大学、マサチューセッツ工科大学(MIT)、コーネル大学の研究者らは、OpenAIの最先端人工知能(AI)チャットボット「GPT-4 Turbo」を利用して、陰謀論を信じる人々と対話した。
最新バージョンの ChatGPT を使用してチャットすると、調査参加者の陰謀論に対する信念が平均 20% 減少し、それが少なくとも 2 か月間続きました。
この研究は木曜日に雑誌に掲載された科学2,100人以上の自称アメリカ人の陰謀信者が関与していた。
「多くの陰謀論信者は、確かに、説得力のある反証を提示されると自らの見解を更新することに積極的だった」と、アメリカン大学の心理学の助教授であり、この研究の筆頭著者であるトーマス・コステロ氏は次のように述べている。声明で述べた。
研究者らは、AI チャットボットがパーソナライズされた生成コンテンツを使用して各人の特定の主張に反論できる可能性を強調しました。
同紙によると、AIはユーザーが信じている陰謀に対して「非常に効果的に説得」するよう指示されていたという。
「最初はかなり驚きましたが、会話を読んでいくうちに、それほど懐疑的ではなくなりました。 AIは、会話の各ラウンドで、与えられた陰謀がなぜ誤りであるのかについて、ページに渡って非常に詳細な説明を提供し、また、愛想よく振る舞い、参加者との信頼関係を築くことにも長けていた」とコステロ氏は付け加えた。
AI との対話が 10 分未満で減少
参加者はアンケート調査を受け、実験前の信念の強さをスコアで示され、AIと対話することになると警告された。
陰謀論は、ジョン・F・ケネディ元米国大統領暗殺、宇宙人、イルミナティに関連したものから、新型コロナウイルス感染症や2020年の米国大統領選挙に関連したものまで多岐にわたる。
研究者らは、AI との対話の 10 分未満で、平均的な参加者の陰謀論に対する信念が 20 パーセント減少し、参加者の約 27 パーセントが自分の陰謀論に対する信念が「不確か」になったことを観察しました。
英国ケント大学の社会心理学教授ロビー・サットン氏は、この減少は「顕著」だと述べた。
「これらの効果は、他の誤りを暴くことや誤りを暴く前の介入に関するいくつかの研究で示された効果よりも弱いと言わざるを得ません」と、研究には参加していないサットン氏は電子メールで述べた。
「しかし、それらの主な重要性は介入の性質にあります。生成 AI はもちろん自動化されているため、介入を拡大して多くの人々にリーチすることができ、少なくとも理論上は、AI から最も恩恵を受けるであろう人々にリーチすることを目標とすることができます。」と彼は付け加えた。
さらに、実験は制御された環境で行われたため、大規模な再現が困難であることに注意することも重要であると研究者とサットン氏は指摘した。
「誤りを暴く前、特に誤りを暴く介入は、非常に非現実的な条件で慎重に設計され、テストされている」とサットン氏は述べ、参加者を「本質的に囚われの聴衆」であり、一度研究に参加すると離脱することを選択することはほとんどない。