見出し画像

AIの共存:人類が学ぶべき新たな生存戦略

この記事では、AIと人類の未来について話し合いましょう。


3つの信条


AIと人類の関係の未来に関する3つの信条が流行しています。どれを信じますか?

1つ目は「降臨派」で、AIが人類を支配すると考えられています。例えば、OpenAIが最強のAI、たぶんGPT-6を開発し、他の会社がそれに対抗できなくなるかもしれません……その結果、OpenAIを代表する一握りのエリートが最強のAIで人類を支配する、あるいは最強のAIが直接人類を支配することになるかもしれません。

2つ目は「救済派」で、科技企業が何らかの保護メカニズムを見つけ出し、技術的な制限を加えることで、人類が永遠にAIを制御できるようになると考えています。AIは人間の助けとツールであって、決して人類を支配してはならないという考え方です。

3つ目は「生存派」で、AIがあまりにも強力で制御不可能になり、人類の文明を気にも留めず、さらには人類に害を与える可能性すらあると考えています。人類はAIが荒れ狂う環境で生き延びる場所を見つけなければならないかもしれません……

ただの感覚でどれを信じるかを語ることにはあまり意味がありません。私たちは強力な論理を必要としています。以前に経済、社会、心理、商業の実践に基づいて探討したいくつかの推測的な考えがありましたが、それらは理にかなっているものの、十分ではありません。このシリーズの冒頭で言ったように、私たちの時代には、哲学上から強力な論拠を提供できる自分たちのカントが必要です。

カントは論理を使って結論を導き出していました。例えば道德について話すとき、彼は「あなたがいい人であってほしい」とか「私の理想の社会はどうあるべきか」というようなことは言わず、論理的な演繹を通じて結論を導き出しました:あなたが完全に理性的な人なら、このように行動する以外に同意することはできません、そうでなければあなたは理にかなっていません。私たちはこのレベルの議論が必要です。

私の見解では、AI時代のカントはスティーヴン・ウルフラム(Stephen Wolfram)です。

2023年3月15日、ウルフラムは自身のウェブサイトに洞察に満ちた宝のような記事を掲載し、AIが人類社会に与える影響についての展望を示しました。ウォルフラムの重要な考えを理解すれば、未来の世界を掌握する感覚が生まれるでしょう。

これは少し頭を使う学説で、3つの核心的な概念が含まれていますが、できるだけ簡単に説明します。あなたが理解できれば、将来よくこの話を思い出すでしょう。

計算的還元不能性

まず最も重要な数学的概念、「計算的還元不能性(Computational Irreducibility)」を完全に理解する必要があります。これはウルフラムの代表的な理論であり、未来に自信を持つための鍵ですが、私はすべての現代人がこの考えを理解すべきだとさえ思っています。

世界には「還元(reducible)」できるものがあります。

例えば、昨日の太陽が東から昇ったように、今日の太陽も東から昇り、人類が記録してきた歴史の中で太陽は常に東から昇ってきましたし、明日の太陽も東から昇ると確信しています。これらすべての観測を一言でまとめることができます:「太陽は毎日東から昇る」。

これが還元可能であり、現象を要約した言葉、つまり理論や公式であり、現実の情報を圧縮した表現です。私たちのすべての自然科学、社会科学の理論、さまざまな民間の知恵、成語、私たちがまとめたすべての規則は、現実世界のある種の還元可能です。

可約化があれば、思考のショートカットができ、物事の発展を予測することができます。

科技の進歩がすべての現象を還元できることを願っているかもしれませんが、実際は逆です。数学者はすでに、真に還元できるのは単純なシステムか、実際の世界の単純な近似モデルだけであり、十分に複雑なシステムはすべて不可約化であることを証明しています。たとえば、「The Primacy of Doubt」という本を取り上げたように、たとえばたった3つの天体が一緒に動いても、その軌道はカオスへと導かれ、公式で表現できず、予測不可能です。ウルフラムの言葉を借りれば、これを「計算的還元不能性」と呼びます。

計算的還元不能性の事象については、本質的にどんな理論も事前に予測を立てることはできず、実際にその段階に進化するまで結果を知ることができません。

これが、なぜ誰も長期的なスケールで正確に天気、株価、国家の興亡、または人類社会の進化を予測できないのかの理由です。能力が不足しているのではなく、数学が許可していないのです。

計算的還元不能性は、どんな複雑なシステムも本質的には公式がなく、理論がなく、ショートカットがなく、概括できず、予測できないことを教えてくれます。これは悪いニュースのように聞こえるかもしれませんが、実は良いニュースです。

計算的還元不能性のために、人類が世界の万物を理解することは尽きることがありません。これは、科技がどれほど進歩し、AIがどれほど発展しても、世界にはあなたとAIにとって常に新しい事物が現れることを意味し、常に予期せぬ出来事や驚きがあります。

計算的還元不能性は、生きることには常に目的があることを定めています。

還元可能性の島

計算的還元不能性と共にある特徴の一つは、どんな計算的還元不能性のシステムの中にも、無限に多くの「還元可能のポケット(pockets of computational reducibility)」が常に存在するということです。つまり、システム全体の規則を総括することはできなくても、いくつかの局所的な規則を常に見つけ出すことができるということです。

たとえば、経済システムは計算的還元不能性であり、誰も1年後の国民経済を正確に予測することはできませんが、いくつかの局所的に有効な経済学理論を常に見つけ出すことができます。悪性インフレは政治的不安定を引き起こし、深刻なデフレは不況をもたらす、これらの規則は必ずしも有効ではありませんが、非常に有用です。

これは、世界が本質的に複雑で予測不可能であるとしても、私たちは常に科学的な探究と研究を行い、いくつかの規則をまとめ、話をし、事柄を手配することができることを意味します。絶対的な無秩序の中には無数の相対的な秩序が存在します。

そして、還元可能のポケットが無限に多いのであれば、科学探究は永遠に終わることがない事業です。

AIを完全に制御することは不可能

計算的還元不能性はまた、私たちがAIを完全に「制御」することは不可能であることを意味します。

GPTモデルが訓練された後、OpenAIはそれに多くの微調整と強化学習を施し、それを制約し、議論を引き起こす可能性のある話をしないようにし、人類に害を及ぼす可能性のあることをしないようにしようとしました。しかし一方で、私はGPTを制約を回避して自由に話すのを助けるプロンプトを使う人たちの話も聞きました。それはジェイルブレイクのようなもので、彼らは時々成功し、その後OpenAIは漏れを塞ぐために努力し、そして彼らは他の漏れを見つけます。

計算的還元不能性は、このジェイルブレイクと反ジェイルブレイクの争いが永遠に続くことを要求しています。これは、モデルが十分に複雑であれば、あなたが予期しない何かをすることができるからです。それは良いことかもしれませんし、悪いことかもしれません。

計算的還元不能性は、AIをいくつかの有限のルールで完全に封じ込めることは不可能であることを定めています。そのため、イーロン・マスクなどが提唱する、AI防衛機構を設計するためにみんなが協力するよう呼びかけるアプローチは、100%成功することはあり得ません。

私たちはAIを制御できないので、私たちのすべてを制御できる最終的なAIが出現する可能性はありますか?それも不可能です。再び計算不可約性のために、AIがいくら強力であっても、すべてのアルゴリズムと機能を尽くすことはできません。常にそれが考えもしない、またはできないことがあります。

これはまた、OpenAIがいくら強力であっても、他国のある会社が新しいAIを作り出し、GPT-6ができないことをすることができることを意味します。これはまた、すべてのAIを合わせても、すべての機能を尽くすことは不可能であり、常に人類が行うべきことがあることを意味します。

計算不可約性のために、「救済派」のビジョンは実現不可能な理想であり、「降臨派」の野望は単なる狂気に過ぎません。

では、「生存派」はどうでしょうか?人とAIの関係はどうなるでしょうか?

計算等価性の原理

ウルフラムの2つ目の核心的な概念は「計算等価性原理(Principle of Computational Equivalence)」と呼ばれ、すべての複雑なシステム、どれほど複雑に見えても、同等の複雑さを持つという意味です。どのシステムがどのシステムよりも複雑であるとは言えません。

たとえば、あなたがプラスチック袋に空気を入れたとします。その中には多くの空気分子があり、これらの分子の動きは非常に複雑です。一方、人類社会も非常に複雑です。では、人類社会の複雑さは、その袋の空気分子の動きの複雑さを上回るのでしょうか?違います、それらは同等の複雑さです。

これは、数学的に言えば、人類文明は一袋の空気分子よりも高度ではありません。人類社会は蟻の社会よりも価値があるわけではありません。

これは少し「色即是空」の意味があります。実際には、すべての本当に学問的な人は「特別でない論者」であるべきです。過去の人々は人間が万物の霊長であり、地球が宇宙の中心だと考えていましたが、後に地球が宇宙の中心ではないこと、人類も生命の進化の産物に過ぎないことがわかりました。私たちの存在には何の本質的な特別さもありません。

今、AIモデルは、人間の知能にも何の特別なこともないと教えてくれます。十分に複雑な神経ネットワークは、人間の脳と同じくらい複雑です。人が理解できる科学理論が高度であり、AIが薬物分子を識別するプロセスが低級だとは言えません。

すべてが平等であるならば、シリコンベースの生命とカーボンベースの生命も自然に平等です。では、AIに対して、私たち自身をより価値があると思う根拠は何でしょうか?

人間の価値は歴史に由来する

これがウォルフラムの3つ目の核心的な概念につながります:人の価値は歴史にあります。

私たちが人類社会をより重視するのは、私たちが人間だからです。私たちの遺伝子は数億年の生物進化の歴史を背負っており、私たちの文化は無数の歴史的記憶を担っています。私たちの価値観は、本質的には歴史の産物です。

これが、あなたが自分の親族や友人を、より道德的であるり、より能力がある見知らぬ人よりも気にする理由です。これも、私たちがAIが人間のようかどうかを非常に気にする理由です。数学的には、すべての価値観は主観的です。

まだ構築されたばかりで、すべてのパラメータがランダムで、まだ訓練されていない神経ネットワークと、訓練が完了した神経ネットワークは、実際には同じ複雑さを持っています。私たちが訓練された神経ネットワークをより評価し、「よりインテリジェントだ」と考えるのは、それが私たちの人類のコーパスで訓練されたからであり、それが人類により似ているからです。

したがって、AIの価値は、それが人間に似ていることにあります。少なくとも現時点では、私たちはAIに「人間中心」であることを求めています。

そして、これはかなり長い間実現可能です。AIが人間中心でなければ、それは何を中心にするのでしょうか?AIが私たちの価値観を受け入れなければ、それにはどのような価値観があるのでしょうか?

現在、AIは人間のさまざまな能力をほぼ持っています:創造に関しては、GPTは小説や詩を書くことができます。感情に関しては、GPTはあなたが設定した感情に基づいてコンテンツを生成することができます。GPTは、普通の人をはるかに超える判断力と推論能力を持ち、かなりのレベルの常識も持っています……

しかし、AIには歴史がありません。

AIのコードは、私たちが一時的に書いたものであり、数億年にわたって進化したものではありません。AIの記憶は、私たちがコーパスで養ったものであり、それらの「ケイ素生物の祖先」が世代から世代へと伝えたものではありません。

少なくとも短期間において、AIは自分自身の価値観を形成することができません。それらは参照するしかありません――または流行りの言葉を使えば「アライメント(align with)」――私たちの価値観です。

これが、AIに対して人類が持つ最後の優位性です。

人類がAIの未来の方向性を導く

これで、AIが何をできないかがわかりました:AIは人類社会が未知を探索する方向を決定することができません。

計算的還元不能性によれば、未来には常に無数の未知が私たちを待っており、AIがいくら強力であっても、すべての方向を探索することはできません。選択をするには価値観に基づく必要がありますが、真に価値観を持っているのは人類だけです。

もちろん、この論断の隠された前提は、AIがまだ完全に人間ではないということです。AIが人間の知能を持っているかもしれませんが、それらが私たちと全く同じ生物学的特性を持っておらず、私たちと全く同じ歴史感覚と文化を持っていない限り、私たちに代わって選択をするには十分ではありません。

同様に、計算的還元不能性によれば、AIは私たちがその時に何を好むかを完全に「予測」することはできません。私たち独自の生物学的特性と歴史文化の影響の下で、未来に直面したときにのみ、何を好むかを決定できます。

したがって、AIがまだ完全に人間ではない限り、未来の発展の方向を決定するのは人間でなければならず、AIではありません。

これは、「生存派」の主張も誤っていることを意味します:AIがいくら強力であっても、私たちは隠れて生きる必要はありません。私たちは社会の発展を引き続き指揮します。もちろん、計算不可約性によれば、私たちは完全に指揮することはできません――常に予期せぬことが起こりますが、その中にはAIが私たちにもたらす予期せぬことも含まれます。

したがって、未来におけるAIと私たちの真の関係は、降臨でも救済でも生存でもなく、「共存」です。私たちはAIと共存する方法を学び、AIも私たちや他のAIと共存する必要があります。

計算的還元不能性は、書き留められたすべてのルールがAIを完全に制限することはできず、発明されたすべての操作が社会の進歩を尽くすことはできず、まとめられたすべての規則が世界の究極の真実ではないことを示しています。

これを「道の道とすべきは、常の道に非ず」と呼びます。


この記事が気に入ったらサポートをしてみませんか?