適切な規制措置が講じられれば、AI システムのプラスの影響はマイナスの側面を大幅に上回る可能性があります。テクノフォビアは正当化されるものでも解決策でもない、とイオアニス・ピタス教授は書いている。
ますます存在する人工知能が制御不能になる可能性に対する不安が高まる中、この物語を説明するために、古代の人々のスタイルで次のたとえ話を検討することから始めるとよいでしょう。
かつて、非常に繁栄した AIcity (そう呼びましょう) は、驚くべきペースで成長しました。
その AI メーソンは、かつては洗練された素敵な家を建て、その後は低層の家を建てていました。これは非常に収益性の高い事業であったため、彼らは多かれ少なかれ同じ技術を使用して、より複雑な高層ビルの建設を開始しました。
あちこちに亀裂が生じ始めましたが、誰も注意しませんでした。 AI メイソンたちは彼らの成功に非常に魅了され、同じ建設技術を猛烈なペースで拡張するだけで、「AI のバベルの塔」と適切に名付けられた非常に高い超高層ビルを建設し始めました。
彼らの AI タワーには何千人もの住民が住むことができます。しかし、AI メイソンは、なぜこのような非常に複雑な建物がうまく機能するのかを本当に理解できませんでした。
同時に、亀裂や事故が驚くべき速度で発生し続けました。
誰も何をすべきか分からず、誰もが最悪の事態を予想している
さて、AI メイソンたちは本当に心配し始めました。技術的な問題の原因は何でしょうか?これらの AI タワーが崩壊する可能性はありますか?すでに安全な高さの制限を超えていますか?
AI タワーの所有者は、より現実的な懸念を抱いていました。それは、タワーが崩壊したらどうなるのかということでした。誰が被害者に賠償するのでしょうか?
このような場合にはどのような規制や立法府が適用されるのでしょうか?競争は何をしているのですか?どうすればそれを出し抜くことができるでしょうか?
もともと、この都市の人々は、これらの素晴らしい AI タワーでの生活に非常に魅了されていました。彼らはその大きさに畏怖の念を抱きました。
しかし、そこかしこに説明のつかない問題が見えてきて、将来に不安を抱き始めた人も少なくありませんでした。
彼らは、本当にこのような巨大で複雑な構造物を作ることができるのか、そしてそのような都市では安全なのか、と尋ね続けました。
AIcity 政府は他の差し迫った問題で忙しすぎて、これらすべての問題に対処する気はありませんでした。
つまり、誰も何をすべきかわかりませんでしたが、非常に多くの人が最悪の事態を恐れ始めました。
このたとえ話はここで終わります。そして、それが AI チャットによって生成されたものではないことを約束します。
AI への熱狂にはテクノロジー恐怖症がつきまとっている
しかし、生成 AI や ChatGPT のような大規模言語モデルに関しては、これが現状です。実際のところ、AI への熱意にはテクノロジー恐怖症が伴います。
これは一般大衆にとって自然なことです。彼らは新しい刺激的なものが好きですが、未知のものには恐怖を感じます。
新しいことは、何人かの著名な科学者が、自らテクノロジー恐怖症ではないにしても、テクノロジー懐疑主義者になったことです。
科学者や実業家がAI研究の6か月禁止を求めた事件や、トップAI科学者のジェフリー・ヒントン教授の懐疑論などがその例だ。
私が思い出すことができる唯一の関連する歴史的同等物は、冷戦時代の科学界の一部による原爆と核爆弾の批判です。幸いなことに、人類はこれらの懸念にかなり満足のいく方法で対処することができました。
もちろん、誰もが AI の現状に疑問を抱く権利を持っています。まず、大規模言語モデルがなぜこれほどうまく機能するのか、またそれに制限があるのかどうかは誰も知りません。
また、特に政府が規制に関して消極的な傍観者でいる場合には、悪者が「AI 爆弾」を作成する可能性があるという多くの危険もあります。
これらは、著名な科学者の間でさえ、未知への恐怖を煽る正当な懸念です。結局のところ、彼ら自身が人間なのです。
AI のプラスの影響を最大限に活用する必要がある
しかし、AI研究を一時的にでも止めることはできるのでしょうか?私の見解では、AI はますます複雑化するグローバル社会と物理世界に対する人類の反応であるため、そうではありません。
物理的および社会的な複雑さが増すにつれて、プロセスは非常に奥深くなり、容赦なく行われるようになります。 AI と市民の形態形成は、現在の情報社会から知識社会へスムーズに移行するための唯一の希望です。
そうしないと、私たちは壊滅的な社会的崩壊に直面する可能性があります。
解決策は、AI の進歩について理解を深め、その開発を加速し、すでに明らかなマイナスの影響やその他の隠れたマイナスの影響を最小限に抑えながら、そのプラスの影響を最大化するようにその使用を規制することです。
AI 研究は、よりオープンで民主的、科学的かつ倫理的なものになる可能性があり、またそうあるべきです。そのために、建設的な方法でこの問題にアプローチできる方法があります。
まず、社会に広範囲に影響を与える重要な AI 研究問題に関する最初の発言は、企業や個人の科学者ではなく、選挙で選ばれた議会や政府に委ねられるべきです。
社会的および財政的進歩における AI のポジティブな側面の探求を促進し、そのネガティブな側面を最小限に抑えるためにあらゆる努力が払われるべきです。
適切な規制措置が講じられれば、AI システムのプラスの影響はマイナスの側面を大幅に上回る可能性があります。テクノフォビアは正当化されるものでも解決策でもありません。
民主主義と進歩には危険があるが、それに対処することはできる
私の見解では、現在の最大の脅威は、このような AI システムが、ほとんどまたは平均的な教育や捜査能力を持たないあまりにも多くの国民を遠隔から騙す可能性があるという事実から来ています。
これは民主主義やあらゆる形態の社会経済的進歩にとって極めて危険となる可能性があります。
近い将来、私たちは違法行為での LLM や CAN の使用から来る大きな脅威に対抗する必要があります (大学試験でのカンニングは、関連する犯罪の可能性の分野ではむしろ良性の使用です)。
さらに、労働と市場への影響は中長期的に非常にプラスとなるでしょう。
私の意見では、これを助けるために、AI システムは、a) 国際法により「AI システム登録簿」に登録することが義務付けられ、b) AI システムと会話している、または AI システムの結果を使用していることをユーザーに通知する必要があります。
AI システムは社会に多大な影響を及ぼし、利益の最大化と社会経済的進歩に向けて、高度な主要な AI システム技術がオープンになる必要があります。
AI 関連データは、利益と社会経済的進歩の最大化に向けて、(少なくとも部分的に)民主化されるべきです。
規制メカニズムを維持しながら進歩を許可することもできます
AI テクノロジーの擁護者は、前述の開放性による利益損失を補填し、テクノロジーの特許や義務的なライセンス制度などを通じて、AI 研究開発への将来の強力な投資を確保するために、適切で強力な金銭的補償スキームを予見する必要があります。
競争力を維持し、引き受けた研究開発リスクに対して報酬を与えながら、研究成果を最大化するために、学界と産業界の間の AI 研究のバランスを再検討する必要があります。
AI テクノロジーの利点を最大限に活用しながら、創造的で順応性のある新種の国民と (AI) 科学者を生み出すために、教育実践をすべての教育レベルで再検討する必要があります。
そして最後に、上記を確実にするために、適切な AI の規制、監督、資金調達のメカニズムを構築し、強化する必要があります。
おそらく、その場合、上記の寓話は単なる(ちょっと)面白い寓話に過ぎないでしょう。
イオアニス・ピタス博士は、テッサロニキのアリストテレス大学 – AUTH の教授であり、全ヨーロッパの主要な AI 研究機関である国際 AI 博士アカデミー (AIDA) の会長でもあります。
ユーロニュースでは、あらゆる意見が重要であると信じています。 [email protected] までご連絡いただき、ピッチや投稿を送信して会話に参加してください。