公開日•更新されました
この記事をシェアする
この動きは、アルトマン氏が委員会のリーダーの一人として直接影響を与えてきたOpenAIの安全ポリシーに対する監視の高まりを受けてのことだ。
OpenAI同社は月曜日のブログ投稿で、社内の安全委員会を「独立した」監視委員会に変革していると述べた。
ChatGPTの作成者はまた、いわゆる安全・セキュリティ委員会の委員長はカーネギーメロン大学のジーコ・コルター教授が務めるだろうとも述べた。
5月に発表された委員会には当初、CEO サム・アルトマンしかし今後は「独立したガバナンス」を持つことになる。
OpenAIは以下の点で批判にさらされているその安全文化。 6月、OpenAIの現従業員と元従業員のグループが公開書簡を発表し、「これらのテクノロジーがもたらす深刻なリスク」について警告した。
共同創設者のイリヤ・サツケヴァー氏を含む多くの著名な従業員が、安全上の懸念を理由に同社を辞任した。
1か月後、5人の米国上院議員が、OpenAIが新興問題にどのように対処しているかについて疑問を提起した。安全上の懸念アルトマンへの手紙の中で。
OpenAIは、「独立」委員会は新モデルについて説明を受ける予定で、取締役会は新モデルのリリースを遅らせる可能性があると述べた。
同社はまた、委員会が開発コード名「Strawberry」の新しいo1モデルを検討し、「中リスク」であると述べたと発表した。
「安全・セキュリティ委員会は、その業務の一環として、現在および将来のモデルの技術的評価に関する定期的な報告書と、継続的なリリース後のモニタリングに関する報告書を引き続き受け取ることになる」とOpenAIはブログ投稿で述べた。
「私たちは、モデル発売の成功基準を明確に定義した統合された安全性とセキュリティのフレームワークを確立するために、モデル発売のプロセスと実践を構築しています」と付け加えた。
他の委員会メンバーには、Quora CEOのアダム・ディアンジェロ氏、退役米陸軍大将で元NSA長官のポール・ナカソネ氏、元ソニーの法務顧問ニコール・セリグマン氏が含まれる。