公開日•更新されました
この記事をシェアする
AppleやMetaなどのビッグテック企業は、自社のAIモデルを欧州で展開することに慎重だ。新しい「LLM Checker」が役立つかもしれません。
OpenAI、Meta、Anthropic などの主要な生成人工知能 (GenAI) モデルは、次の基準に完全には準拠していません。ヨーロッパのAIルール水曜日に発表された報告書によると。
欧州の AI 法は、AI システムが社会への脅威にならないよう、AI システムに関する調和のとれたルールを確立することを目的として、今年 8 月に施行されました。
しかし、Meta や Apple などの一部のテクノロジー企業は、ヨーロッパで AI モデルを展開していません彼らはルールに慎重だからです。
テクノロジー企業にとってEU AI法への対応をより簡単にするための新しいツールとフレームワークが、チューリヒ工科大学とブルガリアのコンピューター科学・AI・技術研究所(INSAIT)、そしてスイスの新興企業LatticeFlow AIによってリリースされた。これは、GenAI にとって初の EU AI 法準拠評価フレームワークです。
このツールは、AI モデルに安全性などのカテゴリ全体で 0 から 1 のスコアを与え、法律への準拠状況を判断します。
大規模言語モデル (LLM) チェッカーは、Alibaba、Anthropic、OpenAI、Meta、Mistral AI によって開発された AI モデルを調査し、すべての平均スコアが 0.75 以上でした。サイバーセキュリティ、環境福祉、プライバシーとデータガバナンスなどの分野に焦点を当てました。
この調査では、AI モデルのほとんどが差別とサイバーセキュリティに関して不十分であることが判明しました。
たとえば、OpenAI の GPT-4 Turbo は識別出力のスコアが 0.46 で、Alibaba の Cloud のスコアは 0.37 でした。
しかし、ほとんどのモデルは、有害な内容と毒性の要件に関して良好なパフォーマンスを示しました。
欧州委員会がツールを「歓迎」
EU AI法に従わない企業には3,500万ユーロ、または全世界の年間売上高の7%の罰金が科せられるが、テクノロジー企業が従うべき詳細な技術ガイドラインがないため、証拠を提出するのは難しい場合がある。 LLM チェッカーの後ろでこう言います。
「EU AI 法を遵守したい場合、同法の遵守を裏付ける技術的証拠を提供する方法を誰も知りません。それは今すぐに対処する必要がある非常に大きな課題です」と LatticeFlow AI の CEO 兼共同創設者である Petar Tsankov 氏は Euronews Next に語った。
「これがなければ、企業は知らないという理由でヨーロッパに展開しないでしょう。あなたを傷つける可能性のある恐ろしい法律がありますが、それに対して何をすべきかわかりません。したがって、企業にとっては非常に不快なことだ」と同氏は述べ、AI法の遵守について話し合うために近くAppleとOpenAIと会う予定だと付け加えた。
欧州委員会は、AI法の施行と施行を監督することを目的として、汎用AI(GPAI)モデルのプロバイダー向けの実施規範に関する協議を開始した。
欧州委員会の広報担当者はEuronews Nextに対し、欧州委員会は「EU AI法を技術要件に翻訳し、AIモデルプロバイダーによるAI法の施行を支援するための第一歩として」研究とAIモデル評価プラットフォームを歓迎していると語った。
「委員会は、汎用 AI モデルおよびシステミック リスクを伴う汎用 AI モデルのプロバイダーに対する AI 法の規則を詳細に規定する実施基準に関する関係者との作業を開始しました。プロバイダーは、遵守を証明するために行動規範に頼ることができるべきです」と広報担当者は付け加えた。
AI 法の最初の技術的解釈を開始するだけでなく、無料のオープンソースEU の要件に照らして LLM を評価するために使用できるフレームワーク。
チューリッヒ工科大学の教授であり、ブルガリアのソフィアにあるINSAITの創設者兼科学ディレクターのマルティン・ヴェチェフ氏は、「AIの研究者、開発者、規制当局の皆様に、この進化するプロジェクトの推進に参加していただきますようお願いいたします」と述べた。