Microsoftは、新しいAI修正機能が幻覚を修正できると主張している。効果ありますか?

マイクロソフトは今週、モデルの虚偽の発言を修正するのに役立つという新しい人工知能(AI)機能を発表した。

新しい「修正」機能により、AI出力の不正確さテクノロジー大手によると、それらを修正するのです。

いわゆるAI幻覚は「生成AIアプリケーションのユーザーが遭遇する前に」リアルタイムで修正されるとMicrosoftは述べ、広報担当者はこれを「この種では初めての新機能」と呼んでいる。

この機能は、応答の不正確な部分をスキャンして強調表示することによって機能します。その後、セグメントが間違っている理由についての応答を生成し、生成 AI を使用してセクションを修正し、「書き換えられたコンテンツが接続されたデータ ソースとより適切に一致するように」することができると Microsoft の広報担当者は述べています。

これは Microsoft の Azure AI Content Safety ソフトウェア インターフェイスの一部であり、デバイスに組み込むこともできるようになりました。

AIモデル訓練を受けています予測を行うために大規模なデータセットを使用しますが、「幻覚」を起こすこともあります。つまり、不正確または虚偽の記述が生成されることを意味します。これは、不完全なトレーニング データまたは偏ったトレーニング データが原因である可能性があります。

ハーグ戦略研究センターの戦略アナリスト、ジェシー・コマンドール氏は、これを完全なレシピなしでケーキを焼くこと、つまりこれまでの経験に基づいてうまくいきそうなものを推測することに喩える。ケーキはうまく出来上がることもあれば、そうでない時もあります。

「AIは学習した不完全な情報(『レシピ』)に基づいて最終出力(テキストや決定など)を『焼き付け』ようとしている」とコマンドール氏は電子メールで述べた。

AI チャットボットが虚偽の回答や誤解を招く回答を提供する注目を集めた例は数多くあります。提出する弁護士Google の AI モデルを使用した後の偽の訴訟AIの概要今年初めに誤解を招く不正確な回答を提供しました。

Vectara 社が昨年行った分析では、AI モデルはツールに応じて 3 ~ 27% の確率で幻覚を起こしていたことがわかりました。その間、非営利デモクラシー・リポーティング・インターナショナル欧州選挙を前に、最も人気のあるチャットボットはどれも選挙関連の質問に対して「確実に信頼できる」回答を提供していないと述べた。

この新しいツールは幻覚を解決できるでしょうか?

生成 AI は「実際には反映したり、計画したり、考えたりすることはありません。入力に順番に応答するだけです…そして私たちはその限界を目の当たりにしました」と米国のニューヨーク大学スターンビジネススクールおよびデータサイエンスセンターの教授であるバサント・ダール氏は語った。

「[新しい矯正機能が]幻覚を軽減すると言うのは一つのことです。おそらくそうなるでしょうが、現在のアーキテクチャではそれらを完全に排除することは実際には不可能です」と彼は付け加えた。

理想的には、企業は幻覚を一定の割合で軽減すると主張できるようにしたいとダール氏は付け加えた。

「そのためには、既知の幻覚に関する膨大な量のデータと、この小さな迅速なエンジニアリング手法が実際に幻覚を軽減するかどうかを確認するためのテストが必要になります。それは実際には非常に難しい注文であり、それが幻覚をどれだけ減らすかについて定量的な主張をしていない理由です。」

コマンダー氏は、修正機能に関してマイクロソフトが公表したと認めた論文を調べ、「有望に見え、これまでに見たことのない方法論を選択しているが、おそらくこの技術はまだ発展途上であり、限界がある可能性がある」と述べた。

「段階的な改善」

マイクロソフトは、幻覚によって一か八かの分野での AI モデルが妨げられていると述べています。医療など、さらに広範な展開に向けて。

「Google 検索を含むこれらのテクノロジーはすべて、これらの企業が製品の漸進的な改善を続けているだけのテクノロジーです」とダール氏は述べています。

「主力製品が完成したら、その後はそれを改良し続けるというようなモードです」と彼は言いました。

「私の見解では、長期的には、モデルが幻覚を起こし続ける場合、特にこれらのエラーが誤った情報や欠陥のある意思決定などにつながり続ける場合、AIへの投資は負債になる可能性があります」とコマンドール氏は述べた。

「しかし、短期的には、[大規模言語モデル] LLM は、効率の面で多くの人々の日常生活に非常に多くの価値をもたらし、幻覚は私たちが当然のことだと思っているようだと思います」と彼は言いました。 。