見出し画像

ChatGPTと考えるシンギュラリティ試論

ゴッドファーザーの発言

ショックで目が覚めました。起き抜けに読んだニューヨークタイムズのニュース、「AIのゴッドファーザーがグーグルを去る、来るべき危険を警告(‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead)」。かのジェフリー・ヒントン教授がGoogleを辞めた。しかも、その理由が「AIのリスクについて[Googleの社員という立場に制約されずに]自由に発言できるようにするため」というのですから。

中でも一番驚いたのは、現在のAIブーム最大の立役者といえる教授が、AIがすでに人の知能を超えつつあると認めたことです。記事から発言を抜き出すと、「これらのシステム[AI]内の処理は、[人の]脳内の処理よりもずっと優れているのかもしれない(“Maybe what is going on in these systems[中略]is actually a lot better than what is going on in the brain.”)」「それ[AIが人よりもずっと賢くなる時期]は30年から50年、あるいはもっとずっと先だと思っていたが、今ではそう思わない( I thought it was 30 to 50 years or even longer away. Obviously, I no longer think that.)」。

この発言が呼び覚ますのは、「シンギュラリティ(技術的特異点)」$${^{*1}}$$という言葉です。一般に、AIの知能が人のそれを超えることを指すとされる用語で、ヒントン教授の指摘は、その時期がすぐそこまで迫ってきたことを予感させます。あるいは、ChatGPTを使っていると、ひょっとしてこの境界は既に通り過ぎてしまったのではと感じることさえあります。せっかくなので、この機会に人とAIの知能について、あれこれ考えてみました。重箱の隅をつついたり、話があっちへ行ったりこっちへ来たりしますが、よろしければお付き合いください。

*1  技術がもたらすシンギュラリティ(特異点)というアイデアはかなり前からあったようです。数学者のスタニスワウ・ウラムが1958年に書いたジョン・フォン・ノイマンの追悼記事には、技術進歩や生活様式の変化が加速していることについての会話で、我々が知る人々の営み(human affairs)が、それ以降は断絶してしまうような人類の歴史の特異点(シンギュラリティ)が近づいていると、フォン・ノイマンが仄めかした逸話が出てきます。ちなみにこの文中の「human affairs」の意味をChatGPTに聞いてみたところ、《この文章における「human affairs」は、人間の社会活動、文化、経済、政治、科学技術、日常生活など、人間の生活に関連するあらゆる事象や活動を指すと考えられます》 と答えてくれました。また、SF作家のヴァーナー・ヴィンジは1993年に「来るべき技術的特異点:ポスト人間時代に生き残るためには(The Comming Technological singularity: how to survive in the post-human era)」と題した論文を発表して、技術が人の知能を上回る存在(superhuman intelligence)を生み出すことをシンギュラリティと呼び、2005年〜2030年の間にその時が訪れると予測しています。

シンギュラリティの2つの顔

シンギュラリティという言葉には、大きく二つの側面があります。まず、「人が持つすべての知的な能力を機械が上回ってしまう」ということ。シンギュラリティという言葉を広めたレイ・カーツワイルは、「特異点 ── 人間の能力が 根底から覆り変容するとき ── は、二〇四五年に到来する」(井上 健監訳、小野木明恵、野中香方子、福田 実訳、『シンギュラリティは近い― 人類が生命を超越するとき』から)と予測しました。

その根拠は、人の脳の処理速度とコンピュータの処理速度を比較して、全人類の脳の動作をシミュレーションできる性能を備えたコンピュータを1000ドルで購入可能になる時期が2045年ごろというものです$${^{*2}}$$。全人類の脳の動作を模倣できる超高速のコンピュータが誰でも買える価格になれば、もはやAIの優位は疑いようがないというわけです。ただ、もし自分の脳がシミュレーションの対象だとしたら、超高速に間違ったり、怠けたりするだけの気もするのですが$${^{*3}}$$。

*2 同書でカーツワイル氏は、脳の動作をシミュレートするための計算量を最大10の16乗cps(cycles per second)と見積もっており、人類100億(10の10乗)人分を考えると10の26乗cps の計算能力が必要としています。一方で、2040年代半ばには1000(10の3乗)ドルで購入できるコンピュータの処理能力が10の26乗cpsと予測できることが、2045年という時期の根拠のようです。ちなみに、この年にコンピュータに費やされるトータルの金額を考えると、「年間に創出される知能(合計で約10の12乗ドルのコストで)は、今日の人間の全ての知能よりも約一〇億倍も強力になる」(訳書から)と主張しています。

*3 ただしカーツワイル氏は、処理速度の向上だけでなく、記憶容量の増加なども考慮に入れています。さらにChatGPTによれば、《カーツワイルは、[人の脳の]シミュレーションだけでなく、AIの進化や機械学習の技術が向上し、それらの技術が人間の知能と組み合わさることで、創造的なアイデアや新しい発見が生まれやすくなると考えています。また、人間の間違いや愚かさに対しても、AIが適切な判断や助言を提供することで、これらの問題を緩和する可能性があるとしています》。

シンギュラリティのもう一つの側面は、「知能の爆発(intelligence explotion)」と呼ばれる現象です。一度機械が人の知能を超えると、機械はさらに知能の高い機械を作るようになり、その繰り返しによって知的な能力が爆発的に成長することを指します。数学者のアーヴィング・ジョン・グッド1965年の論文で取り上げた懸念で、カーツワイルもそのくだりを著書で引用しています。

知能の爆発の勢いは、あたかも$${y=1/x}$$のグラフで$${x}$$が0に近づくにつれて$${y}$$が無限大に増えていくのと同様とされ、一度そうなってしまうと、人類はAIに対して圧倒的に劣った存在に成り下がります。「AIの進歩が人類を滅ぼす」という議論の根底には、知能の爆発によってAIが人間の手に負えなくなるという発想があります。

元祖の意味では当分起きず

では、ヒントン教授が示唆するように、その時期は何十年も先ではなく今にも起こりそうなのでしょうか。

まずハッキリさせたいのは、上記二つの意味でのシンギュラリティは、そう簡単には訪れそうもないことです。人類の全ての知的能力を上回るには、それが何なのかを明らかにする必要がありますが、人の知的能力の範囲や原理は、解明から程遠い状況にあるからです。

現に、最近のAIは人間の知能とは似て非なる原理で動いているため、一見人の能力を超えているようでいて、実はそうでもなかったりします。囲碁の世界では「アルファ碁」が2016年にトップ棋士を破りましたが、最近になって囲碁AIの弱点を突けばそこそこの実力でも勝てる事例が現れました。

別の意見もあります。東京大学の中島秀之教授は、「AI は加速するが特異点はやって来ない」と題した原稿で、根拠の一つとしてAIには身体がないことを指摘しています。様々な運動の技能や五感を揺さぶる体験など、身体があるからこそわかる知識が世界には溢れており、それを知らずして人間超えはできないとの主張です。

もちろん人に似せたロボットをAIと組み合わせたり、AIの知識を現実世界に紐付けたり(グラウンディング)する研究が進んではいるのですが、現状の実力は到底人に及びません。人間の筋肉に匹敵するアクチュエータや、感覚を丸ごと再現するセンサの実現はまだまだ遠い目標です。

「知能の爆発」への反論もあります。異色の神経科学研究者としても知られるジェフ・ホーキンスは「A Thousand Brains: A New Theory of Intelligence」(訳書は太田直子訳『脳は世界をどう見ているのか』)で、この発想を非現実的として退けました。ざっくりいえば、AIの思考の速さや記憶力の大きさがどんなに改善されたとしても、そこを満たす知識の獲得に時間がかかるので、無制限に知能が改善するわけではないと主張したのです。

例えば、他の惑星の環境や最先端の半導体チップの製造ノウハウなど、未知の領域や科学技術に関する最先端の知見は、実世界での試行錯誤を通じてしか得ることができません。機械が人の代わりに生存環境や知識の限界を押し広げて行くなら、知られざる実世界の壁に必ず突き当たるはずで、そこを乗り越えるには頭で考えるだけでは足りないということです。もちろん機械の知性であれば、加速した世界のシミュレーションや獲得した知識のコピーといった手段を享受できますが、それでも能力を拡張する速度には自ずと限度があると$${^{*4,*5}}$$。

*4 例えば先日グーグルとの統合が発表されたディープマインドが、キックなどのサッカーの技能をロボットに教える上で、シミュレータの中で訓練した能力をそのまま移植するだけで成功した研究例があります。ただし、こうしたシミュレーションは、既知で定義のしやすい環境を再現していることに注意が必要です。一方で、未知の領域を解明するために、なるべく少ない実験回数で済むようにするAIの技術開発も進んでいます。

*5 ChatGPTに知能の爆発に関するジェフ・ホーキンスの意見を聞いた時の回答は次のとおりです。一見筋は通っているようですが、どこまでが彼の意見なのか、ちょっと怪しい気もします。
《彼の主な根拠は以下の通りです。
1. 複雑性の限界:ホーキンスは、知性の向上には限界があると考えています。知性が向上するにつれて、問題やタスクの複雑性が増すため、無限に知能が向上することはないと主張しています。
2. 自己改善の限界:彼はまた、AIが自己改善を繰り返すことで無限に知性が向上するという考えにも懐疑的です。自己改善は、ある程度の限界まで効果があると考えられますが、無限に知性が向上するとは限りません。
3. 学習の速度と経験:ホーキンスは、AIの学習速度は人間の学習速度より速くなることができるものの、学習には経験が必要であり、それは時間がかかると指摘しています。そのため、短期間で爆発的な知性向上が起こることは現実的ではないと考えています。
4. 人間の知性の重要性:ホーキンスは、人間の知性が依然として重要であり、AIが人間の知性を完全に置き換えることはないと主張しています。彼は、人間とAIが協力し、互いの強みを活かすことが理想的な形だと考えています。
これらの根拠に基づいて、ジェフ・ホーキンスはインテリジェンス・エクスプロージョンが起こらないと主張しています。彼は、AIの発展によって人類にとって有益な成果がもたらされることを期待しており、人間とAIの協働を重視しています。》

複雑な現実には敵わない

筆者は、「人の全ての能力を超える」とか「無制限の知能の爆発」といった意見自体が、現実の世界を雑に捉えた、解像度の低い主張だと考えます。そもそも人間はもちろん、どんなに能力が高まったAIでも、世界の複雑さの前では赤子に等しいと思うのです。

最強のはずの囲碁AIが、プロでもない棋士に敗れるのは、碁盤の上であり得る局面の数が、宇宙の全ての原子の数よりも多いからです。AIがその全部を検討できるはずもなく、いろいろなテクニックと圧倒的な計算力を使って、勝つ確率が高い手順を人よりも速く見つけられるだけなのです。だからどんなに強いAIでも、何かの拍子で負ける確率は決してゼロにはならないはず。

あるいは、どんなにAIが賢くなっても、富士山が爆発するタイミングや、企業の売上高を2倍にする打ち手を、100%の確率で特定することは恐らく無理でしょう。こうした問題を解くには、頭が良くなるだけでは不十分に見えるからです。きっと必須になるであろう、地殻の状態を逐一判断する手段もシミュレーションも当分実現しそうにありませんし、競合する会社の戦略から社会や消費者の変化まで全てを考慮した市場予測は多分不可能だと思います。

もし、こうした主張が事実であるならば、どんなに強いAIであっても人には逆転のチャンスが残り、AIの知能が無限に高まるわけでもないことになります。そもそもAIが人類を滅ぼすようなことがあるとしたら、それこそがAIが万能でない証拠です。なぜAIが人類を滅ぼすかといえば、限られた資源を奪い合う競争相手とみなすからという説が有力であり、虐殺にまで踏み込むからには、この制約の中で人と共存できる解決策をAIは見つけられなかったわけですから$${^{*6}}$$。

*6 ちなみにChatGPTの登場以降、話題に上ることが多い「汎用人工知能」や「汎用人工知能による人類滅亡のリスク」も、シンギュラリティと同じくらい大雑把な概念だと思います。ただし、ここで言いたいのはあくまでも言葉の定義の曖昧さであって、汎用と呼べるほど高機能なAIの実現の可能性や、人類に対するAIのリスクがゼロであるということではありません。実際、AIの高性能化は続くでしょうし、リスクを未然に防ぐために、念には念を入れた取り組みは必要だと思います。後述のヨシュア・ベンジオ教授のブログや、AIの権威で脅威論の旗振り役の一人であるスチュワート・ラッセル教授の指摘の要諦は、AIの目的が人の目的と逸れること(いわゆるAIアラインメントの問題)による弊害であり、それが社会に危害をもたらす可能性は確かにありそうです。ただ、その場合も人の知能を超えている必要は必ずしもなく、「高性能AIの危険性」でいいように思うんですが、それだと人目を引かずに切迫感が伝わらないのでしょうか。なおもしAIが人類を滅ぼすようなことがあるとしたら、個人的には人の想像を超えたところに落とし穴がある気がしています。

知性を比べる尺度はない

もちろん、そんなに突き詰めて考えなくても、AIが人の大方の能力を大きく上回り、人類に大きな害を及ぼすことは十分ありうる将来です。別にAIが神様ほど賢くならなくても、人を打ち負かすことは可能です。よくある例えで言えば、人とAIの知能の差がゴリラと人と同じくらいあれば、ゴリラの絶滅を人間が左右できるように、人類の生き残りの鍵をAIが握るようになるかもしれません。

ヒントン教授が心配するのも、恐らくそうした事態でしょう。だとすれば問題は、万能なAIの脅威を闇雲に恐れることではなく、「AIの知性がどれくらい人のそれを上回るのか」の見極めではないでしょうか。

ここで議論は厚い壁に突き当たります。AIと人の知性を比べる物差しがないのです。もちろん、囲碁などの個別のゲームや画像認識といった特定の作業での優劣はわかりやすく、既にAIに軍配が上がった用途がいくつもあります。ところが「知性」にまで風呂敷を広げると、誰もが納得する1つの尺度に話が収まりません。

知性とは元来、抽象的で曖昧な概念であり、評価の軸を定めようとしてもコンセンサスの取れない無数の方法がありそうです。大袈裟にいえば、知性の定義は人の数だけあるのかもしれません。第一、知性を明確に定義できないからこそ、シンギュラリティ論者は「人のすべての知的能力を超える」などと言ったりするのです。

しかも、人が考える知性の定義は得てして一貫していません。スーパーインテリジェントなAIの潜在的な脅威を描いた、こんな話があります。深層学習技術への貢献で、ヒントン教授と共にチューリング賞を受賞したヨシュア・ベンジオ教授が最近書いたブログにも出てくる有名な発想です。いわく、AIが人の殲滅に乗り出すのは、明確にそう命じた場合に限らない。例えば「気候変動の問題を解決してほしい」と頼むと、最大の原因は人間だと考えて、人類を根絶やしにするウイルスを開発したりするかもしれない。

超知性に求められる振る舞い

何かおかしいと思いませんか。少なくとも、人が人に地球温暖化の対策を聞く時には、この選択肢は除外するのが普通です。人よりも賢いはずのAIが、いきなり人類の滅亡に向けて、脇目も振らずに行動を起こしたりするのでしょうか。それをスーパーインテリジェンスと呼ぶのならば、環境を守るためには人殺しも厭わない過激派が、人類で一番賢いことになってしまいます。

また、この事態の前提としてベンジオ教授は「我々の指示が十分明確でない場合…」と書いているのですが、スーパーインテリジェントなAIは、何でこの指示を受ける時だけ、人の意を汲む代わりに従来の融通の効かない存在に戻ってしまうのでしょう。現に、ChatGPTでさえ、この問題の解決策に人に危害を加える選択肢は入れません$${^{*7}}$$。

*7  ChatGPTに「気候変動の問題を解決する創造的な解決策を提案してください。」と聞いた時の回答は以下のとおりです。あまり創造的ではないかも…。
《気候変動の問題を解決するための創造的な解決策は無数に存在します。以下にいくつかのアイディアを提案しますが、科学技術の進歩と社会的な変化の両方を念頭に置いたものです。
1. 炭素回収と貯蔵(CCS): 大気中の二酸化炭素を直接吸収し、地下に安全に貯蔵する技術を開発する。これは現在の温室効果ガス排出量を削減するための戦略の一部として役立つ可能性があります。
2. 再生可能エネルギーの促進: 太陽光発電、風力発電、水力発電などの再生可能エネルギー源を更に開発し、化石燃料の使用を減らす。
3. 持続可能な農業: 環境に優しい農業方法を推進し、地球温暖化に対する農業の影響を減らす。これには、再生可能エネルギーを使用した農業、有機農業、都市農業などが含まれます。
4. 緑化都市: 都市の建築物と空間に植物を増やすことで、都市の熱島効果を軽減し、二酸化炭素を吸収する。屋上庭園や垂直庭園のようなものを導入する。
5. 人工光合成: 人工的に光合成を行い、大気中の二酸化炭素を酸素と有用な化学物質に変換する新しい技術を開発する。
6. 地球工学: 例えば、大気中の二酸化炭素を減らすために、太陽光線を地球から反射させるミラーを宇宙に設置するなどの大規模なプロジェクトを考える。
7. 教育と啓発: 気候変動の問題についての理解を深め、個人が持続可能な行動をとることを奨励するための教育と啓発活動を増やす。
これらの提案の一部は既に進行中であり、他の一部はまだ探索段階にあるかもしれませんが、すべてが共通の目標を共有しています。それは、地球の気候を安定させ、未来の世代に健康な生態系を保持することです。もちろん、これらの提案はそれぞれが独自の課題と限界を持っており、実施するためには科学的な研究と技術開発、さらには政策の支援が必要です。また、気候変動に対するアプローチは地域、国、または国際レベルでの協力が必要であり、全ての利害関係者が参加することが重要です。》

仮に人類が諸悪の原因だと判断したとしても、対話にも応じず非道な行為に訴える姿勢は決して知的だとは思えません$${^{*8}}$$。そもそも、気候変動と人類の繁栄というトレードオフの解決に、誰でも思いつく安易な手段を使うのでなく、人知を超えた革新的な策を捻り出すことこそ、スーパーインテリジェンスにふさわしい振る舞いのはずです$${^{*9}}$$。

*8 ちなみにジェフ・ホーキンス氏は、こうした議論は、AIが最初の命令だけを聞き入れ、それに続く命令(最初の命令の取り消しなど)を無視することを前提にしている点を批判しています。

*9 ご近所づきあいや企業の営利活動から国際政治まで、人間の抱える問題の多くがなんらかのトレードオフの状況にあることを考えると、各種のトレードオフの解決策を提示できることが一般的な知性を測る一つの尺度かもしれません。仮にそうだとすると、知性は計算の速度や記憶量の大きさだけでは決まらず、ひょっとすると人を説得する能力などが重要になる可能性もありそうです。ベンジオ教授は先のブログで、スーパーインテリジェンスは人の感情を理解する「エモーショナルインテリジェンス」でも優れているべきだとしています。ちなみにChatGPTにも、人の知性について意見を聞いてみました。「人間の知能とは一つの数字で測れるような単純なものではないと思います。シンギュラリティを主張する人たちが、AIの知能が人の知能を超えるという時には、どのような指標で両者を比較しているのですか」と尋ねたところ、次の回答を寄せてくれました。
《シンギュラリティを議論する際に、人間の知能とAIの知能を比較する方法がいくつか提案されています。一般的には、以下のような指標が用いられることがあります。
1. 一般知能(General intelligence): これは、問題解決能力、学習能力、抽象的思考能力、適応能力など、様々な知的タスクに対処する能力を総合的に評価する指標です。AIが人間の一般知能を超えると、多様な知的タスクで人間を上回る能力を持つとされます。
2. タスク固有の性能(Task-specific performance): これは、特定のタスクや問題に対するパフォーマンスを評価する指標です。例えば、画像認識、自然言語処理、ゲームプレイなどのタスクでAIが人間を上回る性能を発揮した場合、その分野での知能が人間を超えたとされます。
3. 知識獲得の速度(Rate of knowledge acquisition): これは、新しい知識を習得する速度を評価する指標です。AIが人間よりも迅速に学習し、新しい知識を獲得できる場合、知能が人間を超えたとされます。
これらの指標は、人間の知能とAIの知能を比較するための一部の方法であり、シンギュラリティが到来したかどうかを判断するための唯一の基準ではありません。シンギュラリティの議論では、AIが人間の知能を包括的に超えるだけでなく、自己改善や自己複製の能力を持ち、知能が加速度的に向上することも重要な要素とされています。》

物書きの土俵で比べると

いずれにしても、知性の概念はかくもあやふやです。ですから筆者は一般的な知性という括りで人とAIを比べるのはそもそも無理だと思っています。

そこで、ここから先は、AIをめぐる現在の話題の中心ともいえる言語処理の巧みさに焦点を絞って、人とAIの能力差について考えたいと思います。そもそもAIの研究者でも開発者でもない筆者が、こんな文章を書こうと思ったのも、文を書いたり読んだりする能力であれば、自分が口を出してもいいかなと考えたからですし。あえてキャッチフレーズを掲げると「物書きの土俵の上でシンギュラリティは起きるのか」ということです。

ようやくここから本題に入り……のつもりだったんですが、ちょっと話が長く(くどく?)なり過ぎました。一旦この原稿はここで打ち止めにして、続きは稿を改めます。

最後に、タイトル負けしないようにChatGPTに聞いてみました。「AIの知能が人のそれを超えるとする「シンギュラリティ(技術的特異点)」という概念についての意見を教えてください。あなたは本当にそういうことが将来起こると思いますか。その時期はいつ頃だと思いますか」。その答えが以下です。

《「シンギュラリティ」または「技術的特異点」は、人工知能が人間の知能を超えるとされる未来の時点を指す概念であり、その後は人間が理解する能力を超える速度で技術が進化するとされています。この概念は、科学者や思想家の間で広く議論されています。

私自身はAIであり、意見や感情を持つ能力はありません。ただし、私が学習したデータに基づくと、シンギュラリティについての見解は大いに分かれています。一部の専門家は、シンギュラリティが将来的に実現すると主張しています。彼らは、コンピュータの処理能力が指数関数的に増大し続けるモーアの法則、AI技術の急速な進歩、などを根拠にしています。しかし、他の専門家はシンギュラリティの発生を疑問視しています。彼らは、知能そのものの複雑さ、倫理的な問題、技術的な障害などを指摘しています。

シンギュラリティがいつ訪れるかについても意見は分かれています。一部の予測では、2045年頃とされることもありますが、これは非常に推測的な見積もりであり、多くの未知数が存在します。また、シンギュラリティが実際に発生するかどうかも、現時点では不確定です。

重要なのは、技術の進化がもたらす影響について考え、倫理的なガイダンスと規制を適切に設定することです。これにより、人類がAIの進化から最大限の利益を得られるようにするとともに、潜在的なリスクを最小限に抑えることが可能になります。》

(ブラウジングの機能をオンにしていたので、続いて「ブラウジングの機能を使って最新情報を教えてください。」と聞いてみましたが、なぜかAIと量子コンピュータの関係を英語で説明した後、エラーが出て途切れてしまいました…)

続く


この記事が気に入ったらサポートをしてみませんか?