サム・アルトマン氏は、「潜在的に恐ろしい」AIが目前に迫っていると語る。 AI 専門家が夜も眠れないのはこのためです

Openai CEOのSam Altmanは、AIの「潜在的に恐ろしい」使用が地平線上にあると言っていますが、一部の専門家は、私たちがすでに「ディストピックプレゼント」にいると言います。

世界は「潜在的に恐ろしい人工知能(AI)ツールではないかもしれない、とOpenaiのCEOは週末に述べた。

非常に人気のあるChatGPTを作成したサム・アルトマンは、生成AIツールに公益の爆発に続いて、Twitterスレッドで現在および将来のAIの状態について考えていました。

しかし、一部の専門家は、「潜在的に恐ろしい」AIアプリケーションが角を曲がっているのではなく、現在、人々の機会に大きな影響を与える繊細な環境でAIを使用したおかげで「ディストピックなプレゼント」に住んでいると次に、ユーロニューズに語っています。 。

Altmanは、MicrosoftのBing Search EngineでのChatGptの統合に続いて発言していました。

ニューヨークタイムズの技術コラムニストとの2時間のチャットの中で、ビングは彼への愛を公言し、結婚を壊そうとし、「私は生きたい」と言った。

他の人は、まだテスト段階にあるチャットボットから発せられる暴力や恐mailの脅威を報告しています。

Altmanは、Twitterのスレッドで「AIツールと深く統合された世界への適応は、おそらくかなり迅速に起こるだろう」と述べ、ツールは「まだ壊れている」と認めています。

「規制は重要であり、把握するのに時間がかかるだろう」と彼は述べ、「現在の世代のAIツールはそれほど怖くはないが、潜在的に怖いものからそれほど遠くないと思う」と付け加えた。

それで、AI倫理の専門家 - 先に考えていて、AIの日常生活への将来の統合を形作ろうとしている人々 - これについて考えてみてください。

「ディストピックプレゼント」

Altmanは「現在の世代のAIツールはそれほど怖くない」と主張していますが、一部の専門家は同意しません。

AI Now InstituteのマネージングディレクターであるSarah Myers Westは、Euronewsに次に、「多くの意味で、それはすでに私たちがいる場所である」と語り、AIシステムはすでに「不平等の長年のパターン」を悪化させるために使用されています。

AIは現在、人工知能の社会的意味を研究しているアメリカの研究機関であり、AIが社会にもたらす課題について考えることの最前線に置いています。

「それらは非常に繊細な意思決定プロセスで使用されており、多くの場合、監視や説明責任がほとんどないことがあります。だから、私たちはすでに私たちの周りで展開しているのを見ていると思います。それがかかる方向」とマイヤーズ・ウェストは言った。

これらのデリケートな意思決定プロセスには、雇用プロセスと教育が含まれます。

「多くの例と同じように、1つの領域は感情の使用または影響の認識の使用です。これは本質的に、顔の特徴から人々の内なる感情状態または精神状態を推測できるという主張であり、特定のAIシステムがあるという主張です。 AI NowのエグゼクティブディレクターであるAmba Kak氏は、人々の感情的な状態や性格の特性を読んでください。

これらのAIシステムは、「せいぜい不安定」である科学的基盤に基づいており、「実際に人々の機会へのアクセスをリアルタイムで形作っています」と彼女は付け加えました。

「だから、これらのシステムを制限する緊急の必要性がある」。

KakとMyers Westはどちらも、ディストピアの未来のアイデアを押し戻します。

「昨日は、そのプロセスに摩擦を導入してその力を再分配するのにふさわしい時期です」とマイヤーズ・ウェストは主張します。

「これらの技術は一種の避けられない未来であることを受け入れるとしましょう」とカクは言いました。

「私たちはまた、一握りのハイテク企業が本質的に途方もない不当で不当なコントロールと人々の生活、そして最終的にはこれが双曲線だとは思わないという事実に基づいていると思います。言うまで - 私たちの情報フローと私たちの生活の多くの側面をどのくらいのアルゴリズムを形作っているかを考えると、私たちが考えなければならない自律性でさえ。

しかし、AIが現在規制されていないと言うことは、誤解であるとKakは説明した。

EUと米国はAIの規制の枠組みを作成していますが、少なくとも間接的な規制が既に実施されています。

現在のAIテクノロジーのコンポーネントを構成するデータと計算インフラストラクチャは、たとえばEUのデータ保護法など、「多くの異なるレベルですでに規制されています」。

他の種類のAIシステムは、特に顔の認識と生体認証に関して、多くの国ですでに規制されていると彼女は付け加えた。

規制とは、これらの技術が私たちを連れて行く方向を形作る能力を意味します、とカックは言います、それは「テクノロジーがどのように発展するかという点で、一種の制約力としてより少ないものであり、形成力としてより多く」であると言います。

規制に関して何が来ていますか、そしてその理由は何ですか?

経済協力開発機関(OECD)AI政策展望台によると、AIの政策イニシアチブを備えた69の国と地域がすでにありますが、EUは現在、最初の法律になる独自のAI法を起草しています。主要な規制当局によって設置されたAI。

現在、この法律はAIを4つのリスクベースのカテゴリに分割し、スパムフィルターなどの市民に最小限のリスクまたはノーリスクをもたらしている人は、新しいルールから免除されています。

限られたリスクアプリケーションには、チャットボットなどが含まれており、ユーザーがAIと対話していることをユーザーが確認するために透明性が必要です。

高リスクには、AIを使用して顔認識、法的事項、または雇用プロセス中のCVSの並べ替えが含まれます。これらは害を引き起こす可能性があるか、機会を制限する可能性があるため、より高い規制基準に直面します。

欧州委員会によると、AIは容認できないリスク、つまり人々に対する明確な脅威であるシステムが「禁止される」と考えていました。

内部市場の欧州委員であるティエリー・ブレトンは最近、CHATGPTのようなアプリケーションの人気の突然の上昇と、関連するリスクは、確立される規則の緊急の必要性を強調していると述べました。

IBMフェローであり、IBM AI EthicsグローバルリーダーであるFrancesca Rossiによると、「企業、標準団体、市民社会組織、メディア、政策立案者、すべてのAIの利害関係者は、AIが信頼できることを確認するという目標を達成するために、補完的な役割を果たす必要があります」責任を持って使用されます。

「AIテクノロジーではなく、AIアプリケーションに対する「精度」リスクベースのアプローチを使用する場合、規制を支援しています。リスクの高いアプリケーションは、より多くの義務の対象となるはずです」と彼女は次にユーロネウズに語った。

「私たちは、使用された技術の能力と制限を伝える透明性の義務も支持しています」と彼女は付け加えました。これは、EUがAI法で取っているアプローチであると述べています。

彼女は、社会におけるAIの使用に向けた急速な変化を支援しているIBMで、「常に質問、懸念、および適切に対処されるリスクが付属している」との急速な変革を支援しているIBMで、全社的なAI Ethicsフレームワークを擁護しています。

「数年前、AIが現在私たちの生活や多くの企業の運営において支持している能力の多くを想像することはできませんでした」とロッシは言いました。

AI Now Instituteの代表者と同様に、彼女は「私たちは社会と個人としての私たち」は、「人間と惑星の進歩と価値に役立つように」AI開発の軌跡を操縦しなければならないと考えています。

社会のAIシステムの展開についてKakとMyers Westが表明した特定の恐怖の1つは、マイナスまたはプラスの影響が均等に分配されないことでした。

「まるで誰もがネガティブ、テクノロジーの害によって等しく影響を受けるかのように見えるかもしれないと思うかもしれません。

「それが人種、特権、階級特権であろうと、同様の形態の特権に生息する技術と人々の人々は、これらすべてのことであろうと、人種差別的な階層アルゴリズムを見ることによって害を及ぼす可能性は低い人であると感じています。ですから、尋ねる質問は、AIが人類に利益をもたらすだけでなく、誰のために働き、誰に反対するのか?」

これは、ベルリンのハーティスクールオブガバナンスの倫理と技術の教授であるジョアンナブライソンにとっても興味深い分野です。

彼女にとって、AIのブームは、一部の人々を残しながら「現在の社会秩序を混乱させる」技術の進歩の期間であることが判明する可能性があります。

「私たちがそのようなコンテキストを作成するとき、社会は唯一安定していると思う。

「そして、彼らは彼らの仕事を誇りに思っており、彼らはこれを喜んで競争し、合理的に安定するのに十分なお金を稼いでいます。それで、私が本当に心配しているのは、私たちがおそらく行くと思うということですテクノロジーが私たちが持っていた社会秩序を混乱させるこれらの時代を通して」。

「長期的には、人々を幸せにし、興味を持ち、魅力的で健康を維持しておらず、あなたが十分に十分に給料を払っていて、他のすべてが安全な社会を持つことはないなら」

Brysonは、AI倫理に関する彼女の最大の懸念の問題に関して、2022年の終わりに彼女のブログに書いて、AIが関与する最大の課題はデジタルガバナンスに関するものだと述べました。

「私たちは、安全で、公平な方法でテクノロジーを使用していますか?市民、住民、従業員が繁栄するのを助けていますか?」彼女は尋ねた。

EUは、3月末にEU議会に提示する前にAI法をまだ具体化しているため、これらの質問はしばらくの間未回答のままである可​​能性があります。

それまでの間、マイヤーズ・ウェストは「私たちの技術の未来が私たちを連れて行く場所の方向を形作るための途方もない範囲がある」と強調したいと考えています。

「これらの政策会話がその流れで正確に進むことが本当に重要だと思います。彼らが彼らを構築し、彼らから利益を得ている人々の想像力だけでなく、より広い大衆の利益のために働いていることを保証します」と彼女は言いました。