「幻覚」: AI チャットボットが時々誤った情報や誤解を招く情報を表示するのはなぜですか?

Googleの新しい検索機能であるAIの概要は、クエリに対する事実に反して誤解を招く回答の一部をユーザーが指摘したことを受けて、反発が高まっている。

2 週間前に公開された AI 概要は、インターネット上のさまざまなソースから取得した、Google 検索でのよくある質問に対する回答の概要をページの上部に表示します。

Googleによれば、新機能の目的は、ユーザーが「より複雑な質問」に答えられるようにすることだという。ブログ投稿

その代わりに、チーズが剥がれたらピザに接着するようにユーザーに告げたり、健康を助けるために石を食べたり、バラク・オバマ前米国大統領はイスラム教徒であるなどの誤った答えを生み出しましたが、これは陰謀論であり、誤りであることが暴かれています。

AI の概要の回答は、チャットボット モデルが誤って応答する一連の例の最新のものです。

1つベクタラの研究生成 AI スタートアップ企業である , は、AI チャットボットが 3 ~ 27 パーセントの確率で情報を発明していることを発見しました。

OpenAI の ChatGPT や Google の Gemini などのチャットボットを強化する大規模言語モデル (LLM) は、観察したパターンに基づいて応答を予測する方法を学習します。

Artefact のパートナー兼生成 AI リードのハナン・オアザン氏によると、このモデルは、データベースの内容に基づいて、質問に答える可能性が最も高い次の単語を計算します。

「それがまさに私たちが人間として働く方法であり、話す前に考えます」と彼はユーロニュースに語った。

しかし、場合によっては、モデルのトレーニング データが不完全または偏り、チャットボットによる不正確な回答や「幻覚」が生じる可能性があります。

マッキンゼーのクアンタムブラックのシニアパートナー、アレクサンダー・スカレフスキー氏にとって、提供されるチャットボットの回答は観察したデータに基づいて「数学的に計算」されるため、AIを「ハイブリッドテクノロジー」と呼ぶ方が正確だという。

Google によると、幻覚が起こる理由はひとつではありません。モデルが使用するトレーニング データが不十分であるか、誤った仮定があるか、チャットボットが使用する情報に隠れたバイアスがある可能性があります。

{{関連 align="center" size="fullwidth" rate="auto" storyIdList="8461182" data='

' }}

Google は、実際には起こらない可能性のあるイベントの誤った予測、存在しない脅威を特定することによる偽陽性、癌性腫瘍を正確に検出できない可能性がある偽陰性など、いくつかのタイプの AI 幻覚を特定しました。

しかしGoogleは、ヘルスケアAIモデルが良性の皮膚モデルを誤って悪性と識別し、「不必要な医療介入」につながるなど、幻覚が重大な結果をもたらす可能性があることを認めている。

世界的な製品開発会社である HTEC グループの AI 責任者であるイゴール・セボ氏によると、すべての幻覚が悪いわけではありません。それはAIが何に使われるかによって決まります。

「クリエイティブな状況では、幻覚は良いことだ」とセボ氏は述べ、AIモデルは特定の声やスタイルでテキストや電子メールの新しい文章を書くことができると指摘した。 「今の問題は、モデルたちにクリエイティブと真実をどのように理解させるかです」と彼は言いました。

{{関連 align="center" size="fullwidth" rate="auto" storyIdList="8437058" data='

' }}

すべてはデータに関するものです

Ouazan 氏は、チャットボットの精度は、チャットボットに供給されるデータセットの品質によって決まると述べました。

「1 つの [データ] ソースが 100% ではない場合… [チャットボット] が正しくないことを言う可能性があります」と彼は言いました。 「これが私たちが幻覚を見る主な理由です。」

今のところ、AI モデルはモデルのトレーニングに多くの Web およびオープンソース データを使用しているとオアザン氏は述べました。

{{quotation_v2 align="center" size="fullwidth" rate="auto" quote=""一日の終わりには、それは旅です。企業も初日から優れた顧客サービスを提供できるわけではありません。"" author="Alexander Sukharevsky、マッキンゼーの QuantumBlack シニア パートナー" }}

特に OpenAI は、より信頼性の高いデータに基づいてモデルをトレーニングできるように、Axel Springer や News Corp などのマスメディア組織や Le Monde などの出版物とコンテンツのライセンス供与に関する契約を結んでいます。

Ouazan 氏によれば、AI が正確な応答を作成するためにより多くのデータが必要なわけではなく、モデルには高品質のソース データが必要だということです。

スハレフスキー氏は、AIチャットボットが間違いを犯すことには驚かない、と語った。AIチャットボットを実行する人間がテクノロジーとそのデータセットを改良していくためには間違いを犯さなければならないのだ。

「結局のところ、それは旅だと思います」とスカレフスキーは語った。 「企業も初日から優れた顧客サービスを提供できるわけではありません」と彼は言いました。

{{関連 align="center" size="fullwidth" rate="auto" storyIdList="8433946" data='

' }}

グーグルの広報担当者はユーロニュース・ネクストに対し、同社のAI概要には改ざんされたり、正確に再現できなかったりする「珍しいクエリ」が多数寄せられ、虚偽や幻覚のような回答が得られたと語った。

彼らは、同社がAI Overviewsを発売する前に「広範なテスト」を実施し、システムを改善するために「迅速な行動」をとっていると主張している。

AI企業はどうすれば幻覚を止めることができるのでしょうか?

この問題を遅らせるために Google が推奨している手法がいくつかあります。これには、極端な予測を行うモデルにペナルティを与える正則化などがあります。

これを行う方法は、AI モデルが予測できる結果の数を制限することだと Google は続けました。トレーナーはモデルにフィードバックを送信して、回答の何が気に入ったのか、何が気に入らなかったのかを伝えることもできるため、チャットボットがユーザーが何を求めているかを学習するのに役立ちます。

また、AI は、患者の診断を支援する AI に医療画像のデータセットを使用するなど、その実行内容に「関連する」情報を使用してトレーニングする必要があります。

AI言語モデルを導入している企業は、最も一般的なクエリを記録し、さまざまなスキルを持つ個人を集めてチームを編成し、回答を改良する方法を見つけることができるとスハレフクシー氏は述べた。

たとえば、スカレフスキー氏は、最も人気のある質問に応じて、英語の専門家がAIの微調整を行うのに適している可能性があると述べた。

{{quotation_v2 align="center" size="fullwidth" rate="auto" quote="「この問題は解決すると思います。[AI チャットボット] の信頼性を高めなければ、誰も使用しなくなるからです。」 "" author="HTEC グループ AI 責任者 Igor Sevo" }}

Sevo氏によると、主要なコンピューティング能力を持つ大企業は、モデルの信頼性を向上させるために独自の進化的アルゴリズムを作成する機会を得る可能性もあるという。

これは、AI モデルが幻覚を見せたり、数式によってすでに特定されている真実の情報を使用して他のモデルのトレーニング データをでっち上げたりする場所であると Sevo 氏は続けました。

何千ものモデルが真実性を見つけるために互いに競い合えば、作成されたモデルは幻覚を起こしにくくなるだろうと同氏は述べた。

「この問題は解決すると思います。(AI チャットボットを)もっと信頼できるものにしないと、誰も使わなくなるからです」とセボ氏は語った。

「これらのものが使用されることは誰の利益にもなります。」

小規模企業であれば、自社のモデルが信頼できる、あるいは真実であると判断するデータを、自社の一連の基準に基づいて手動で微調整してみることもできるが、そのソリューションはより多くの労力と費用がかかるとセボ氏は述べた。

AI専門家によれば、ユーザーは幻覚が起こる可能性があることにも注意する必要があるという。

「私は(AI チャットボットが)何なのか、何がそうでないのかについて自分自身で教育し、ユーザーとしての限界について基本的に理解しています」と Sukharevksy 氏は言いました。

「物事がうまく機能していないことがわかったら、私はツールを進化させます。」