人間的は、より強力な新しい生成人工知能 (AI) モデルを発表しました。これは、以前のバージョンから 3 か月後に登場し、ChatGPT-4o などの競合他社を上回る性能を備えていると主張しています。
同社はAI安全性研究会社を自称しており、OpenAIの元幹部や研究者らによって設立された。 GoogleとAmazonも同社への主要投資家である。
Anthropic は、今後の Claude 3.5 モデル グループの最初のリリースとなる新モデル、Claude 3.5 Sonnet が「これまでで最も強力なモデル」であると述べました。
社内のエージェントコーディング評価では、Claude 3.5 Sonnet は問題の 64% を解決し、38% を解決した Claude 3 Opus を上回ったと同社は述べています。
また、より優れたニュアンス、ユーモア、複雑な指導機能を備えており、自然で共感できるトーンで高品質のコンテンツを書くことに優れていると同社は付け加えた。
人間的また、大学院レベルの推論では、ChatGPT-4o のスコアが 53 パーセントだったのに対し、スコアは 59 パーセントであることもわかりました。
テキストに対する推論に関しても、他の企業を 87 パーセント上回りました。これに対し、ChatGPT-4o は 83 パーセント、Google の Gemini は 74 パーセント、Meta の Llama 大規模言語モデルは 83 パーセントでした。
ただし、数学の問題解決に関しては、Claude 3.5 より 5% 正確な ChatGPT-4o に負けました。
生成 AI 企業は、互いに一歩先を行こうと競い合っています。 4 月、OpenAI、Google、Mistral AI はいずれも、それぞれのフロンティア AI モデルの新バージョンを互いに 12 時間以内にリリースしました。
このため、開発者が介入してモデルが有害な目的で使用されるのを阻止したり、修正が必要なバイアスがモデルに存在する場合に、ハイテク企業がその技術を開発者が介入するよりも早く展開しているのではないかという懸念が生じている。
Anthropic の共同創設者兼 CEO のダリオ・アモデイ氏は、「機能だけでなく、信頼性、安全性、そして人間の価値観に沿ったシステムを作成することは、複雑な課題です」と述べています。
同氏はプレスリリースで「すべての答えを持っているわけではないが、思慮深く責任を持ってこれらの問題に取り組むことに専念している」と述べた。
Anthropic はまた、Artifacts の発売も発表しました。クロード・アイこれにより、コード スニペットやテキスト ドキュメントなどのコンテンツを、その作成物と一緒に専用ウィンドウに表示できます。
「これにより、動的なワークスペースが作成されます」とアンスロピック氏は述べ、ユーザーはそこで作業している内容をリアルタイムで確認、編集し、構築することができます。
同社は、これは「会話型 AI から共同作業環境へのクロードの進化」を示すものであると述べた。
「これは、より広範なビジョンの始まりにすぎません。クロード・アイ、間もなく拡張されます
チームの協力をサポートします」と同社は述べた。
近い将来、クロードが「オンデマンドのチームメイト」として機能することで、チーム、そして最終的には組織が知識、ドキュメント、進行中の作業を 1 つの共有スペースに安全に集中できるようになるだろうと述べています。
アンスロピックは、その後、以下を含むモデルファミリーのアップグレードをリリースする予定であると述べた。
今年後半には、Claude 3.5 Haiku と Claude 3.5 Opus がリリースされますが、「同時に、これらのシステムの安全性を確保するための安全性研究も推進しています」。
同社は、OpenAIを退職したダリオ・アモデイ兄妹とダニエラ・アモデイ兄妹によって2021年に設立された。
Fortune とのインタビューでダリオ氏は、OpenAI が安全性に注意を払っていなかったため退職したと述べた。
発表は次のように行われますOpenAIの共同創設者で元主任科学者が自身のAI会社を発表安全に専念します。