公開日
この記事をシェアする
この合意は、韓国と英国が共催したAI安全サミットのバーチャルセッション中に発表された。
10カ国と欧州連合は、機械学習の標準とテストに関する研究を連携させるために、人工知能(AI)の安全性に関する機関をさらに発展させる予定だ。
この国際ネットワークは、韓国のソウルで開催された AI 安全サミットで、世界のリーダーたちがバーチャル上で会合を行った際に合意されました。
英国の AI 安全性研究所など公的支援を受けた機関の科学者が集まり、AI モデルのリスク、能力、限界に関する情報を共有する予定だ。
このグループの機関は、「特定の AI 安全性インシデント」が発生した場合にも監視します。
英国のリシ・スナック首相はプレスリリースで、「AIは非常にエキサイティングなテクノロジーだ…しかし、利点を得るには安全性を確保する必要がある」と述べた。
「だからこそ、今日、AI安全性協会のネットワークに関して合意に達したことを嬉しく思います。」
新しい安全機関を支持しているのはどの国ですか?
この新しい AI Safety Institute ネットワークの署名者には、EU、フランス、ドイツ、イタリア、英国、米国、シンガポール、日本、韓国、オーストラリア、カナダが含まれます。
英国は昨年11月、初期投資1億ポンド(1億1,740万ユーロ)を投じて世界初のAI安全研究所を設立したと主張している。
それ以来、米国、日本、シンガポールなどの国も独自のサービスを開始しました。
英国政府の 2023 年 11 月のプレスリリースには、英国の AI 安全性研究所の使命は「AI の急速かつ予期せぬ進歩による英国と人類への驚きを最小限に抑えること」であると書かれています。
EUは現在、EU AI法を可決し、AI事務局を立ち上げる準備を進めている。欧州委員会は以前、ユーロニュースに語った法律が完全に承認されれば、彼らは新しい政府長官を雇用する予定だ。
欧州委員会のウルズラ・フォン・デア・ライエン委員長は、昨年のAI安全サミットで、AI部門は「世界中の同様の組織と協力」できるように「世界的な使命」を持つべきであり、そうすべきであると述べた。
首脳らはまた、この会議中に、人間中心で信頼できるAIを開発するための「国際協力の強化」の重要性を宣言する、より広範なソウル宣言にも署名した。
AIセーフティサミット初日今週は16人だったOpen AI、Mistral、Amazon、Anthropic、Google、Meta、Microsoft、IBM を含む世界最大手のテクノロジー企業が、一連の安全性に関する取り組みに同意しています。
このリストには、AI のリスクが高くなりすぎる場合のしきい値の設定と、そのリスクについての透明性が含まれています。このイベントを共催した英国政府は声明で、これを「歴史的初」と述べた。
フランスはAIの安全な使用に関する次回のサミットを主催する。