人工知能(AI)の著名な専門家たちは、この分野における最近の進歩のペースと規模に警鐘を鳴らしており、AIは人類にとって脅威に他ならないと警告している。
その中には、「AIのゴッドファーザー」として知られる受賞歴のあるコンピューター科学者、ジェフリー・ヒントン氏も含まれる。彼は先月Googleでの仕事を辞め、彼の懸念を共有する新しいAIツールの野放しな開発について。
75歳のヒントン氏は今週のMIT Technology Reviewのインタビューで、「これらのものが私たちよりも賢くなるのかどうかについて、突然見方を変えた」と語った。
「彼らは現在それに非常に近づいていると思います、そして将来彼らは私たちよりもはるかに知性を持つでしょう...私たちはどうやってそれを生き残るのですか?」
懸念を抱いているのはヒントン氏だけではない。 2月には、ChatGPTの開発者であるOpenAIのCEOであるサム・アルトマンでさえ、世界は「それほど遠くないかもしれない」と述べた。潜在的に怖いAI ツール - そしてその規制は重要ですが、理解するには時間がかかります。
マイクロソフトが支援するこの新興企業が 3 月に GPT-4 と呼ばれる最新の AI モデルをリリースした直後、1,000 人以上の研究者や技術者が、半年間の休止AI開発は「社会と人類に重大なリスク」をもたらすからだと彼らは述べた。
ここでは、ヒントンや他の専門家が表明した最大の懸念を見てみましょう。
1. AI はすでに私たちより賢いかもしれない
私たちの人間の脳は、情報を整理して保存し、厄介な問題の解決策を推論するという生まれ持った才能のおかげで、方程式を解き、車を運転し、Netflix シリーズを追跡することができます。
私たちの頭蓋骨に詰め込まれた約 860 億個のニューロン、そしてさらに重要なことに、それらのニューロンが相互に構築する 100 兆の接続がそれを可能にします。
対照的に、ChatGPT の基盤となるテクノロジーは 5,000 億から 1 兆の接続を特徴としているとヒントン氏は述べています。それは私たちと比べて大きな不利な立場にあるように思えるが、OpenAI の最新 AI モデルである GPT-4 は人間一人よりも「何百倍も」多くのことを知っている、とヒントン氏は指摘する。おそらく、それは私たちよりも「はるかに優れた学習アルゴリズム」を備えており、認知タスクをより効率的にしているのではないかと彼は示唆しています。
研究者らは、人工ニューラルネットワークのトレーニングには膨大な量のエネルギーとデータが必要となるため、人工ニューラルネットワークは人間よりも新しい知識を吸収して適用するのにはるかに時間がかかることに長い間注目してきた。
ヒントン氏は、GPT-4のようなシステムは、研究者によって適切に訓練されれば、新しいことを非常に早く学習できると指摘し、もはやそうではない、と主張する。これは、訓練を受けたプロの物理学者が、一般的な理科の高校生よりもはるかに早く新しい実験結果を頭の中で理解できる方法と似ています。
このことからヒントン氏は、AI システムはすでに私たちを出し抜いているかもしれないという結論に至りました。AI システムは物事をより速く学習できるだけでなく、知識のコピーをほぼ瞬時に相互に共有できるのです。
「これはまったく異なる形態の知性です」と彼は言う。MITテクノロジーレビューに語った。 「新しくてより優れたインテリジェンスの形」。
2. AI は誤った情報の拡散を「加速」させる可能性がある
人間よりも賢い AI システムは何をするのでしょうか?気が遠くなる可能性の 1 つは、悪意のある個人、グループ、または国民国家が、単に自分たちの目的を推進するために彼らを利用する可能性があることです。
数十のフェイクニュースサイトWebサイトの信頼性を評価し、オンラインの誤った情報を追跡するNewsGuardの新しいレポートによると、Webサイトはすでに多言語でWeb上に広まっており、中にはAIが生成した記事を1日に数百件も公開しているところもあるという。
ヒントン氏は、AIツールが選挙を左右し、さらには戦争を引き起こすように訓練される可能性があることを特に懸念している。
たとえば、AI チャットボットを介して拡散される選挙の誤情報は、Facebook やその他のソーシャル メディア プラットフォームを介して拡散される選挙の誤情報の将来のバージョンとなる可能性があります。
そしてそれはほんの始まりに過ぎないかもしれません。
ヒントン氏は記事の中で、「プーチン大統領がウクライナ人殺害を目的とした超知能ロボットを作らないなどとは一瞬も思わないでください」と述べた。 「彼は躊躇しなかった」。
3. AI によって私たちは不要になるのでしょうか?
OpenAI は、米国の労働者の 80% が自分の仕事が AI の影響を受ける可能性があると推定しており、ゴールドマンサックスの報告書は、このテクノロジーにより世界中で 3 億人のフルタイムの雇用が危険にさらされる可能性があると述べています。
ヒントン氏によれば、「賢いものが私たちを出し抜くことができる」とき、人類の生存は脅かされているという。
ヒントン氏は水曜日、MITテクノロジーレビューのEmTech Digitalカンファレンスで自宅からビデオを通じて「発電所の稼働を維持するために、しばらくの間私たちは立ち往生するかもしれない」と語った。 「しかしその後は、もしかしたらそうではないかもしれない」。
「これらのことは、これまでのすべての小説やマキャベリが書いたものすべてを読むことで、人々を操作する方法を学んだでしょう」とヒントンは語った。 「たとえ彼らが直接レバーを引くことができなくても、彼らは私たちにレバーを引くように確実にさせることができます。」
「推進できるシンプルな解決策があればいいのですが、それはありません」とヒントン氏は付け加えた。 「解決策があるかどうかわかりません。」
しかし、各国政府はAIの台頭に細心の注意を払っています。ホワイトハウスは、Google、Microsoft、ChatGPTメーカーOpenAIのCEOらを木曜日に招集し、カマラ・ハリス副大統領と会談することを決定した。当局者によれば、この会談は短期と長期の両方のリスクを軽減する方法について率直に議論するものだとされている。彼らのテクノロジーの。
欧州の議員らも、抜本的な新たなAI規則の可決に向けた交渉を加速させており、英国の競争規制当局は、AIが消費者、企業、経済に与える影響や、ChatGPTなどの技術に新たな規制が必要かどうかを調査する予定だ。
明らかになっていないのは、ロシアのような大国がAI技術を利用して近隣諸国や自国民を支配するのをどうやって阻止するのかということだ。
ヒントン氏は、1997 年の化学兵器禁止条約と同様の世界協定が、兵器化された AI に対する国際ルールを確立するための良い第一歩となる可能性があると示唆しています。
ただし、血なまぐさい内戦中の2017年と2018年に、シリアが民間人に対して塩素ガスと神経剤サリンを使用した攻撃を行った可能性が高いと捜査当局が発見したことを、化学兵器コンパクトが阻止できなかったことも注目に値する。