公開日•更新されました
この記事をシェアする
生成型 AI の潜在的な危険性は、国民、政治家、AI 研究者にとって懸念事項です。
OpenAIは、有害な人工知能 (AI) の脅威に対処するために社内の安全プロセスを拡張しました。政府はテクノロジーを取り締まろうとしている。
チャットボットChatGPTで大成功を収め、マイクロソフトの支援も受けているこの新興企業は、技術的作業と運営体制を監督する専門チームを設立し、取締役会が安全性に関する決定を覆すことも可能になると述べた。
「私たちはすべての報告書を検討し、経営陣と取締役会に同時に送信するために、部門横断的な安全諮問グループを設立しています。
経営陣が意思決定者である一方で、取締役会は決定を覆す権利を有している」と同社は月曜日にウェブサイトで述べた。
同社は「準備フレームワーク」を更新し、新たなリスクをより適切に検出するための入念な能力評価と予測にも投資すると述べた。また、モデルの「スコアカード」を継続的に更新するとも述べた。
「私たちは、トレーニング実行中の実効コンピューティングの 2 倍増加ごとを含め、すべてのフロンティア モデルを評価します。私たちはモデルを限界まで押し上げるつもりです」と OpenAI は語った。
生成型 AI は偽情報を広める可能性があるため、このテクノロジーの潜在的な危険性は国民、政治家、AI 研究者にとって懸念事項となっています。
OpenAIは米国で最も価値のある新興企業であるが、11月に共同創設者兼最高経営責任者(CEO)のサム・アルトマン氏が取締役から外され、同社スタッフの大半が同氏を復帰させなければ辞めると脅迫したことで混乱に陥った。
アルトマン氏が取締役から解任される数日前、スタッフの研究員数名が取締役会に、人類を脅かす可能性のある強力なAIの発見について警告する書簡を書いた。ロイターが11月に報じたと、この件に詳しい2人の関係者の話として伝えた。
世界中の政府欧州連合がAIルールブックに初めて同意するなど、テクノロジーの規制を開始している。