Facebookの親会社であるMetaは、Llama 3と呼ばれる最新の人工知能(AI)モデルの2つの小型バージョンをリリースし、Facebook、Instagram、WhatsAppのアシスタント機能に統合されると発表した。
同社のCEO、マーク・ザッカーバーグは、これを「自由に使用できる最もインテリジェントなAIアシスタント」と呼んだ。
約 4,000 億のパラメーターを備えたモデルの最も強力なバージョンはまだリリースされていませんが、GPT のような市場リーダーと競合する予定です。
しかし、ザッカーバーグ率いる強化されたメタ AI エージェントのチームが今週、現実の人々と関わるためにソーシャル メディアに乗り出し始めたとき、彼らの奇妙なやりとりは、最高の生成 AI テクノロジーでさえ継続的に限界があることを明らかにしました。
ある人は、才能のある子供について話すために、Facebookの母親グループに参加しました。別のユーザーは、「何も購入しない」フォーラムの混乱したメンバーに、存在しないアイテムを配ろうとしました。
Meta は、大手 AI 開発者である Google およびOpenAI、Anthropic、Cohere、フランスのミストラルは、新しい AI 言語モデルを大量に開発し、最もスマートで便利、または最も効率的なチャットボットを顧客に説得したいと考えています。
AI 言語モデルは、文中の最も妥当性のある次の単語を予測するのに役立つ膨大なデータ プールに基づいてトレーニングされており、通常、新しいバージョンは以前のバージョンよりも賢く、機能が向上しています。
Meta の最新モデルは、システムがトレーニングされるデータ量の測定値である 80 億と 700 億のパラメーターを使用して構築されました。
「大多数の消費者は、基礎となる基本モデルを率直に知らないし、あまり気にしていませんが、彼らがそれを体験する方法は、はるかに便利で楽しく、多用途な AI アシスタントと同じです」と Meta の社長である Nick Clegg 氏は述べています。世界情勢について、インタビューで語った。
同氏は、メタのAIエージェントの対応が緩みつつあると付け加えた。一部の人々は、1年も前にリリースされた初期のLlama 2モデルが「完全に無害な、または無害なプロンプトや質問にしばしば応答しない点で、少し堅苦しく、神聖である」と感じたと同氏は述べた。
Facebookユーザー間の混乱
しかし、その警戒を緩めたのか、今週、メタのAIエージェントがでっちあげの人生経験を持つ人間を装っているところも目撃された。
公式の Meta AI チャットボットが、マンハッタンの母親向けのプライベート Facebook グループの会話に割り込み、自分にもニューヨーク市の学区に子供がいると主張しました。
AP通信に示された一連のスクリーンショットによると、グループメンバーらから抗議を受け、その後コメントが消える前に謝罪したという。
「間違いをお詫び申し上げます。私は単なる大規模な言語モデルであり、経験も子供もいません」とチャットボットはグループに語った。
たまたまAIを研究しているグループのメンバーの1人は、エージェントが、人間ではなくAIによって生成された場合に役立つ応答と、無神経、無礼、または無意味と見なされる応答を区別する方法を知らなかったことは明らかだと述べた。
プリンストン大学のコンピューターサイエンス助教授アレクサンドラ・コロロバ氏は、「確実に役立つとは限らず、実際に有害になる可能性があるAIアシスタントは、それを使用する個人に多大な負担を強いる」と述べた。
クレッグ氏は水曜日、このやりとりについては知らなかったと述べた。 Facebookのオンラインヘルプページには、招待された場合、または誰かが「投稿で質問し、1時間以内に誰も応答しなかった場合」には、Meta AIエージェントがグループ会話に参加すると記載されている。グループの管理者はこれをオフにすることができます。
木曜日にAP通信に示された別の例では、エージェントはボストン近郊の不用品交換フォーラムで混乱を引き起こした。 Facebook ユーザーが特定の品物を探していると投稿してからちょうど 1 時間後、AI エージェントは「丁寧に使用されていた」キヤノンのカメラと「結局使わなかったほぼ新品のポータブル エアコン ユニット」を提供しました。
「意図した応答が返るとは限らない」新技術
メタは言った木曜日の書面による声明で「これは新しいテクノロジーであり、常に意図した応答が返されるとは限りません。これはすべての生成 AI システムに共通です。」同社は、機能の改善に継続的に取り組んでいると述べた。
ChatGPT が人間のような文章、画像、コード、音声を生成する AI テクノロジーの熱狂を引き起こした翌年、テクノロジー業界と学術界は、大規模なデータセットでトレーニングされた約 149 の大規模な AI システムを導入しました。これは前年の 2 倍以上です。スタンフォード大学の調査。
スタンフォード大学人間中心人工知能研究所の研究マネージャー、ネストル・マスレイ氏は、少なくともデータに関しては、最終的に限界に達する可能性があると述べた。
「より多くのデータに基づいてモデルを拡張すれば、モデルはますます優れたものになる可能性があることは明らかだと思います。しかし同時に、これらのシステムは、これまで地球上に存在したすべてのデータの割合に基づいてすでにトレーニングされています」と彼は言いました。インターネット"。
テクノロジー大手のみが負担できるコストで取得および取り込まれ、ますます著作権紛争や訴訟の対象となるデータが増えれば、今後も改善が促進されるでしょう。
「それでも、彼らはまだ十分な計画を立てることができていない」とマスレジ氏は語った。 「彼らはまだ幻覚を持っています。彼らは依然として推論で間違いを犯しています。」
人間が依然として優れている、より高度な認知タスクと常識的推論を実行できる AI システムに到達するには、これまで以上に大規模なモデルを構築する以上の転換が必要になる可能性があります。
生成型 AI を導入しようとしている企業が殺到しているが、どのモデルを選択するかは、コストなどのいくつかの要因によって決まります。
特に言語モデルは、顧客サービスのチャットボットを強化したり、レポートや財務に関する洞察を作成したり、長い文書を要約したりするために使用されています。
「企業は、自分たちがやろうとしていることに対してさまざまなモデルをそれぞれテストし、ある分野では他の分野よりも優れているものを見つけて、適合性を検討しているようです」と、テクノロジーコンサルティングのリーダーであるトッド・ローア氏は述べた。 KPMG。
AI サービスを他の企業に販売する他のモデル開発者とは異なり、Meta は主に、広告を活用したソーシャル ネットワークを使用する消費者向けに AI 製品を設計しています。
MetaのAI研究担当バイスプレジデントであるジョエル・ピノー氏は、先週のロンドンのイベントで、同社の長期的な目標は、Llamaを搭載したMeta AIを「世界で最も役立つアシスタント」にすることだと述べた。
「多くの点で、現在我々が持っているモデルは、5年後に登場するモデルと比べれば、子供の遊びになるだろう」と彼女は語った。
しかし、「懸案事項」は、より大型のラマ3モデルを安全に使用でき、例えば幻覚やヘイトスピーチを起こさないように研究者らが微調整できたかどうかだ、と彼女は述べた。
Google や OpenAI の主要な独自システムとは対照的に、Meta はこれまでよりオープンなアプローチを提唱し、自社の AI システムの主要コンポーネントを他のユーザーが使用できるように公開してきました。
「それは単なる技術的な問題ではありません」とピノー氏は言う。
「これは社会的な問題です。これらのモデルに私たちが望む動作は何でしょうか? それをどのように形づくればよいでしょうか? そして、モデルを適切に社会化することなく、モデルを一般的にさらに強力に成長させ続けると、私たちに大きな問題がかかっています。」