公開されています
この記事を共有してください
Openaiは、競合する会社が保護なしで高リスクの人工知能モデルをリリースした場合、安全要件の調整を検討すると述べました。
Openaiはその中に書いた準備枠組み別の企業が脅威をもたらすモデルをリリースした場合、「リスクのある状況」が変化したことを「厳密に」確認した後も同じことができると報告しています。
このドキュメントは、AIモデルによってもたらされる壊滅的なリスクから、会社がどのように追跡、評価、予測、保護するかを説明しています。
「別のFrontier AI開発者が同等のセーフガードなしでリスクの高いシステムをリリースした場合、要件を調整することができます」とOpenaiは火曜日に公開されたブログ投稿に書いています。
「しかし、最初にリスクの状況が実際に変化したことを厳密に確認し、調整を行っていることを公に認識し、調整が深刻な危害の全体的なリスクを有意に増加させないことを評価し、それでも保護策をより保護的に保つことができます」。
モデルを一般大衆に公開する前に、Openaiは、もっともらしい、測定可能、新しく、厳しく、無制限のリスクを特定し、それらに対する保護手段を構築することにより、深刻な害を引き起こす可能性があるかどうかを評価します。次に、これらのリスクを低、中、高、または臨界として分類します。
会社がすでに追跡するリスクのいくつかは、生物学、化学、サイバーセキュリティ、およびその自己改善の分野におけるモデルの能力です。
同社は、AIモデルが人間の関与、自己複製、核および放射線分野でどのような脅威をもたらすことなく、長い間実行できるかどうかなど、新しいリスクも評価していると述べました。
ChatGptが政治キャンペーンやロビー活動にどのように使用されるかなど、「説得リスク」はフレームワークの外で処理され、代わりにモデル仕様、ChatGptの動作を決定するドキュメント。
「安全へのコミットメントを静かに減らす」
元Openaiの研究者であるSteven Adlerは言ったx会社の準備報告書の更新が「安全へのコミットメントを静かに減らす」ことを示していることを示しています。
彼の投稿で、彼はAIモデルの「微調整されたバージョン」をテストするという会社による2023年12月のコミットメントを指摘しましたが、Openaiは訓練されたパラメーターまたは「重み」がリリースされるモデルのみにシフトするようになりました。
「人々は、Finetunedモデルをテストする必要があるかどうかについて完全に反対することができ、Openaiがそれを維持し、従わないよりもコミットメントを排除するのに適しています」と彼は言いました。
「しかし、どちらの場合でも、Openaiがこの以前のコミットメントを後退させたことを明確にしたい」。
このニュースは、Openaiが今週GPT-4.1と呼ばれるAIモデルの新しいファミリーをリリースした後、伝えられるところによると、システムカードまたは安全レポート。 Euronews NextはOpenaiに安全レポートについて尋ねましたが、出版時に返信は受けませんでした。
ニュースは、12人の元Openai従業員が提出した後に来ます簡単な先週、Elon Muskの事件でOpenaiに反対した。これは、営利団体への移行が安全に削減される可能性があると主張している。