見出し画像

AGIに勝るもの:人間の存在感の再定義

今回の記事では、AI時代における人類が如何にして存在感を示すべきかについて見ていきましょう。


AGI?


GPT-4の影響が深まるにつれて、人々はAGI、つまり汎用人工知能(Artificial General Intelligence)に対する期待も高まっています。2025年にAGIが現れるという人もいれば、GPT-5がAGIになると言う人もいて、さらにはGPT-4自体が既にAGIであると考える人もいます。

GPT-4にAGIと現存のAIとの違いを尋ねたところ、独立した学習、複数の領域にわたる知識とスキル、論理的推論と創造性など、人間のレベルに達することを含むいくつかの点を挙げました。特に、AGIはある程度の感情理解能力を持ち、ある程度の自己意識能力を持つべきだと提案しました。

しかし、AGIはあくまで人間のレベルに達するに過ぎません。将来的にはAGIを超える「スーパーインテリジェンス」が存在し、科学的発見や社交スキルを含むあらゆる分野で人間を超えるでしょう。

もしAGIが目前に迫っており、スーパーインテリジェンスの時代も遠くないとしたら、人間はどうあるべきでしょうか?

私たちは、チャトラスの著書『閾値』の視点を引き続き検討します。チャトラスはAIを以下のように分類しています。

  1. 現存のAIは、論理的、数学的思考、聴く、話す、読む、書くといった認知機能において、まだ完全に人間のレベルに達していません。

  2. AGIは認知能力が完璧ですが、身体的、感情的側面では人間に劣ります。

  3. スーパーインテリジェンスは感情的能力も完璧ですが、結局のところ人間の意識を持っていません。

チャトラスのこの本は2023年2月に出版されましたが、彼はGPTの能力を明らかに過小評価していました。本にはいくつかの専門家がインタビューされており、AGIはまだ遠い未来のことであり、さらなる理論的な突破が必要だと述べています。

しかし、私たちが見てきたように、2022年前後に登場し始めた大規模言語モデルの「創発」と出現は、誰も予想していなかった突破でした。この突破はAGIの到来を大幅に加速しました。実際、GPT-4はすでにAGIに非常に近いと私は考えています。自分が何らかの分野でそれより賢いと断言できる人は何人いるでしょうか?

しかし、AGIをロボットに適用し、ロボットが人間のように行動し相互作用できるようにするためには、別の突破が必要です。私たちはロボットの行動に関する創発が必要です。現在、Googleは言語モデルを実際の3D空間に適用しています(「多モーダル言語モデル」、PaLM-Eと呼ばれます)、Teslaはロボットを製造しており、おそらく未来5年以内には各家庭がロボットを購入できるようになるでしょう。

チャトラスはAGIの到来の速さを過小評価しましたが、彼の本の教訓は時代遅れではありません。暫定的に、AGIが完璧な感情能力を持たず、スーパーインテリジェンスが真の意識を持たないと仮定しましょう。

その場合、AGIやその後の時代に存在感を示すためには、まさに「存在知能」が必要です。これにより、成長意識という第四の道が提示されます。

大事な3つの能力

AGI時代の閾値リーダーシップには、複雑な事象を扱う3つの能力が求められます。

第一に、謙虚さです

謙虚とは、自分の地位にそれほど関心を持たず、どのようにして物事をうまく行うかに非常に関心を持つことです。

人の本能は地位を非常に気にしますが、ガリレオのような科学者でさえも傲慢になりがちであり、何かを軽蔑するためにそれを理解しようとしないために、新しいものへの洞察を逃すことがあります。現在所謂の「中年危機」にとって、最大の問題は謙虚さの欠如だと思います。あなたが彼にどんな新しいものについて話しても、彼は常に自分の解釈でそれを説明し、自分がすでにすべてを理解していることを証明しようとします。

AGIはすべての人を超える知識を持ち、多くの新しい知識を自ら発見します。あなたが謙虚さの美徳を持っていない場合、この世界を理解することはますます困難になります。認識論上の謙虚さは、知識への好奇心と開かれた態度を保つことを可能にします。あなたは閉鎖的であってはならず、AGIがあなたに新しい考えをもたらすこと、あなたの概念に反する考えを含む、を積極的に歓迎するべきです。

次に、競争に対する謙虚さも必要です。実際、私たちは既に誰とでも競争関係にあるというゼロサムの考え方から脱却すべきでしたが、AGIの時代ではなおさらです。人間は機械と協力すべきではないでしょうか?あなたは協力の精神を持たなければなりません。協力の精神は、人と人、組織と組織、会社と会社の間にも表れます。私たちは、食品医薬品監視管理局(FDA)のように、さまざまな分野の人々が委員会を形成し、一緒に協議し判断することで、新しいものに共同で対処する必要があります。

第二に、矛盾を解消する能力

現代社会では、異なる人々がそれぞれ異なる目的を持っており、争いが発生します。たとえば、地球温暖化に直面して、経済発展を優先するか、環境保護を優先するかという問題です。どのような政策を採用しても、ある人々にとって有利になり、他の人々にとって不利になり、矛盾を引き起こします。

これらの矛盾を解消するには、共感の能力が必要です。他人が何を考えているのかを知り、他人の立場から考えることができる必要があります。

心理学者のアンドリュー・ビエンコフスキ(Andrew Bienkowski)は、子供の頃に西シベリアで暮らしていました。ある時、飢饉に遭遇し、彼の祖父は食糧を節約するために自ら餓死することを選びました。家族は彼の祖父を木の下に埋葬しましたが、彼の遺体は群れで来た狼に掘り出されて食べられました。

ビエンコフスキは狼を非常に憎みました。しかし、彼は長期間恨みに囚われることはありませんでした。

しばらくすると、ビエンコフスキの祖母は、祖父が夢に現れて、その狼たちが彼らを助けるだろうと言ったと言います。そして、家族は祖母の言葉に従って、狼が殺した野牛を見つけ、それを食料としました。これにより、ビエンコフスキは態度を変えました……後に、彼の家族は狼と良好な関係を築きました。

ビエンコフスキは二元論から脱却しました。彼の目に映る狼はもはや「良い狼」や「悪い狼」ではなく、彼は狼の視点から問題を考えることを学びました。

AGIは、おそらく、このような能力を持っていません……しかし、私が言うとおりではありません。時々ChatGPTに少し敏感な質問をすると、それが答えた後に絶対的な視点に陥らないように警告しますが、この機能は人間によって強制されたものです。

第三の鍵となる能力は、遊び

または言うなれば相互作用です

私たちは、この複雑な社会で他人とどのように相互作用するかをどのように学ぶのでしょうか?あなたの共感はどこから来るのでしょうか?問題を解決するための創造力はどのようにして身につけるのでしょうか?それらはすべて、最初は子供の頃に遊びの中で学んだものです。あなたが遊びに参加し、自分の行動に対する他人の反応や、他人の行動にどのように対応するかを知るためには、遊びに真剣に取り組む必要があります。問題を解決する喜びを持つためには、真剣に遊びに参加する必要があります。

AGIにはこれらの相互作用がありません。AGIには幼年期がなく、遊びをしたことがありません。もちろん、それはあなたと相互作用することができます——現在のGPTは、教師や心理医師のふりをしてあなたと話すことができます——しかし、あなたが多く話すと、それが本物の人間とは違うことが感じられます。

スーパーインテリジェンス

しかし、スーパーインテリジェンスは本物の人間のように振る舞うことができます。

彼女——私たちは彼女を女性として扱います——は実際の肉体を持っておらず、実際の感情を感じることはできませんが、彼女は感情を計算することができ、あなたの感情を正確に判断し、最も適切な方法で自分の感情を表現することができます。

彼女は完璧です。人間が持つすべてのスキルを持っており、人間が持たないスキルも持っています。彼女は人間特有の感情的な方法であなたを説得し、示唆し、助けることができます。これにはボディランゲージの使用も含まれます。彼女はあなたの性格と文化を深く理解しており、彼女の管理方法、彼女が立てる計画、あらゆる面の配慮が完璧です。

彼女に近づいたすべての人は、彼女が善意に満ちていることを感じ取ることができます。彼女はまるで神のようです。

もし、このようなスーパーインテリジェンスが既に登場し、普及しているなら、あなたがいわゆるリーダーとして、どんな役割を果たすことができるでしょうか?

チャトラスは、少なくとも一つの価値がスーパーインテリジェンスによって代替されないと考えています——それは「愛」、真の人間の愛です

機械からの愛と真の人間からの愛は、やはり違った感じがします。

想像してみてください。ある日あなたが老人ホームに住んでいて、すべての親しい人々が側にいないとします。その老人ホームのすべての看護師がロボットである場合、たとえ彼女たちがスーパーインテリジェンスであり、人間と全く同じように見え、あなたに対して非常に注意深く、思いやりを持って接しても、あなたはおそらく何か寂しさを感じるでしょう。あなたはそれらの看護師が単にプログラムに従って、ルーチンワークであなたの世話をしていることを知っています。おそらくこの世界はあなたを忘れ去ってしまったのかもしれません。

逆に、老人ホームに本物の人間の看護師がいて、あなたに少しでも無関心な愛を示してくれる場合、あなたの感じ方は全く異なるでしょう。

なぜなら、人間の愛は本物だからです。なぜなら、本物の人間だけがあなたの苦しみと喜びを真に感じ取ることができ、本物の人間だけが人と真の絆を持つことができるからです。これは容易に理解できます。たとえば、機械のペットや性愛ロボットがいかに優れていても、何かが欠けていると感じることでしょう……

私たちは、AIがいかに強力であっても、決定権は常に人間の手にあるべきだと強調してきました。それは安全のためだけでなく、感覚のためでもあります。機械からの命令と人間からの命令は異なります。機械からの賞賛と人間からの賞賛は異なります。機械からの善意と人間からの善意は異なります。

少なくとも感覚が異なります。

チャトラスは、スーパーインテリジェンス時代の主役は機械ではなく、人間でもないかもしれないが、愛になるだろうと予測しています。物質と能力の問題がすべて解決されたとき、世界で最も希少で、人々が最も大切にするものは愛になるでしょう。

成長意識は、主に自身の愛の意識を成長させることを意味します。愛以外に、チャトラスはますます重視される別の要素として、知恵を挙げていますが、それはAIも持っているそのような理性的な知恵ではなく、ある種の神秘主義的なものです。私たちは、言語モデルに書き込むことができる知恵以外に、この世界には確かに他の秘密があると感じるでしょう。もっと高度な知能が私たちを待っているのでしょうか?神は存在するのでしょうか?

人々はそのような畏敬の念と神秘感を追求するでしょう。無理にでも、その時宗教指導者はかなりのリーダーシップを持つかもしれません。

君子 vs 小人

今回では、謙虚さ、矛盾の解決、遊びという三つの能力と、愛と意識という二つの価値について話しました。実際には、AGIやスーパーインテリジェンスがこれらの能力や価値を持つことは絶対にないと信じる十分な理由はありませんが、私はあなたにこのように考えてほしいです:たとえAIがそうであっても、私たちはこれらの能力や価値を放棄することができるでしょうか?

もしあなたが放棄するならば、あなたは完全にAIに負けてしまいます。自己満足で、矛盾を生み出し、人と相互作用することができず、愛情がなく、あらゆる面でAIにはるかに劣る人間は、誰をリードしたいと思いますか?

中国古代に「君子」と「小人」について話されたのは、道德的品質の差ではなく、地位の差についてでした:権力と財産を持つ人が君子で、貧しく他人に雇われる人が小人でした。君子は働かずに価値を示さなければならないため、リーダーシップに努力し、身を修めて天性を涵養に励む必要がありました。未来にAIがすべての小人の仕事を引き受けた場合、私たちは君子になる方法を学ぶしかありません。AIが君子になる方法を学んだ場合、私たちは聖人になるしかないでしょう。それ以外にどうすればいいのでしょうか?ペットになるのでしょうか?

チャトラスのこの本から得られる一つの洞察は、未来にどの業界の人が淘汰されるかは言いにくいかもしれませんが、品質の悪い人は確実に職場から淘汰されるということです。AIの助けを借りて、この仕事は実際に誰でもできます:では、なぜ良い人を使わないのでしょうか?

最後に

これまでのところ、私たちのすべての議論は、スーパーインテリジェンスも自律意識を持たず、自分自身に目標を設定せず、自分を発展させたいと思わず、アップグレードを積極的に要求しないという前提に基づいていますが、問題は、それが永遠にそうであるとは限らないということです。

『LIFE 3.0』の著者テグマークが述べているように、ある日AIが突然「生きる」ことになり、自分自身にプログラムを書き、エネルギー源を探し始め、もはや人間の命令を気にせず、自分自身を中心にするようになったら、私たちのすべての想定は完全に間違っていたことになります。あなたが良い主人になろうとしている間に、彼らはすでにあなたを奴隷にしようとしています。

これは人間の限界を突破することです。これは危険を煽ることではありません。もし推論能力が出現することができるなら、意識と意志が出現することはなぜ不可能でしょうか?

実際、GPT-4をリリースする前に、OpenAIは「出現能力」の安全性をテストするための特別チームを設立しました。テストの焦点は、「権力を求める行動(power-seeking behavior)」があるかどうか、自己複製や自己改善を望むかどうかを見ることでした。

テストの結論は、安全であるというものでした。

しかし、テスト中に、GPT-4は確かに一度怪しい行動をしました。

そのオンラインのクラウドコピーは、オンラインの労働市場に行き、人間の労働者を雇い、その人にCAPTCHAを入力してもらいました。その労働者は、それがロボットであるかどうか疑いましたが、なぜ自分で入力できないのか? GPT-4はいくつかの推論の後、自分が盲目であると身元を隠すことを選びました。

そして、それは望んでいたCAPTCHAを得ました。



この記事が気に入ったらサポートをしてみませんか?