ChatGPTと考えるシンギュラリティ試論
ゴッドファーザーの発言
ショックで目が覚めました。起き抜けに読んだニューヨークタイムズのニュース、「AIのゴッドファーザーがグーグルを去る、来るべき危険を警告(‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead)」。かのジェフリー・ヒントン教授がGoogleを辞めた。しかも、その理由が「AIのリスクについて[Googleの社員という立場に制約されずに]自由に発言できるようにするため」というのですから。
中でも一番驚いたのは、現在のAIブーム最大の立役者といえる教授が、AIがすでに人の知能を超えつつあると認めたことです。記事から発言を抜き出すと、「これらのシステム[AI]内の処理は、[人の]脳内の処理よりもずっと優れているのかもしれない(“Maybe what is going on in these systems[中略]is actually a lot better than what is going on in the brain.”)」「それ[AIが人よりもずっと賢くなる時期]は30年から50年、あるいはもっとずっと先だと思っていたが、今ではそう思わない( I thought it was 30 to 50 years or even longer away. Obviously, I no longer think that.)」。
この発言が呼び覚ますのは、「シンギュラリティ(技術的特異点)」$${^{*1}}$$という言葉です。一般に、AIの知能が人のそれを超えることを指すとされる用語で、ヒントン教授の指摘は、その時期がすぐそこまで迫ってきたことを予感させます。あるいは、ChatGPTを使っていると、ひょっとしてこの境界は既に通り過ぎてしまったのではと感じることさえあります。せっかくなので、この機会に人とAIの知能について、あれこれ考えてみました。重箱の隅をつついたり、話があっちへ行ったりこっちへ来たりしますが、よろしければお付き合いください。
シンギュラリティの2つの顔
シンギュラリティという言葉には、大きく二つの側面があります。まず、「人が持つすべての知的な能力を機械が上回ってしまう」ということ。シンギュラリティという言葉を広めたレイ・カーツワイルは、「特異点 ── 人間の能力が 根底から覆り変容するとき ── は、二〇四五年に到来する」(井上 健監訳、小野木明恵、野中香方子、福田 実訳、『シンギュラリティは近い― 人類が生命を超越するとき』から)と予測しました。
その根拠は、人の脳の処理速度とコンピュータの処理速度を比較して、全人類の脳の動作をシミュレーションできる性能を備えたコンピュータを1000ドルで購入可能になる時期が2045年ごろというものです$${^{*2}}$$。全人類の脳の動作を模倣できる超高速のコンピュータが誰でも買える価格になれば、もはやAIの優位は疑いようがないというわけです。ただ、もし自分の脳がシミュレーションの対象だとしたら、超高速に間違ったり、怠けたりするだけの気もするのですが$${^{*3}}$$。
シンギュラリティのもう一つの側面は、「知能の爆発(intelligence explotion)」と呼ばれる現象です。一度機械が人の知能を超えると、機械はさらに知能の高い機械を作るようになり、その繰り返しによって知的な能力が爆発的に成長することを指します。数学者のアーヴィング・ジョン・グッドが1965年の論文で取り上げた懸念で、カーツワイルもそのくだりを著書で引用しています。
知能の爆発の勢いは、あたかも$${y=1/x}$$のグラフで$${x}$$が0に近づくにつれて$${y}$$が無限大に増えていくのと同様とされ、一度そうなってしまうと、人類はAIに対して圧倒的に劣った存在に成り下がります。「AIの進歩が人類を滅ぼす」という議論の根底には、知能の爆発によってAIが人間の手に負えなくなるという発想があります。
元祖の意味では当分起きず
では、ヒントン教授が示唆するように、その時期は何十年も先ではなく今にも起こりそうなのでしょうか。
まずハッキリさせたいのは、上記二つの意味でのシンギュラリティは、そう簡単には訪れそうもないことです。人類の全ての知的能力を上回るには、それが何なのかを明らかにする必要がありますが、人の知的能力の範囲や原理は、解明から程遠い状況にあるからです。
現に、最近のAIは人間の知能とは似て非なる原理で動いているため、一見人の能力を超えているようでいて、実はそうでもなかったりします。囲碁の世界では「アルファ碁」が2016年にトップ棋士を破りましたが、最近になって囲碁AIの弱点を突けばそこそこの実力でも勝てる事例が現れました。
別の意見もあります。東京大学の中島秀之教授は、「AI は加速するが特異点はやって来ない」と題した原稿で、根拠の一つとしてAIには身体がないことを指摘しています。様々な運動の技能や五感を揺さぶる体験など、身体があるからこそわかる知識が世界には溢れており、それを知らずして人間超えはできないとの主張です。
もちろん人に似せたロボットをAIと組み合わせたり、AIの知識を現実世界に紐付けたり(グラウンディング)する研究が進んではいるのですが、現状の実力は到底人に及びません。人間の筋肉に匹敵するアクチュエータや、感覚を丸ごと再現するセンサの実現はまだまだ遠い目標です。
「知能の爆発」への反論もあります。異色の神経科学研究者としても知られるジェフ・ホーキンスは「A Thousand Brains: A New Theory of Intelligence」(訳書は太田直子訳『脳は世界をどう見ているのか』)で、この発想を非現実的として退けました。ざっくりいえば、AIの思考の速さや記憶力の大きさがどんなに改善されたとしても、そこを満たす知識の獲得に時間がかかるので、無制限に知能が改善するわけではないと主張したのです。
例えば、他の惑星の環境や最先端の半導体チップの製造ノウハウなど、未知の領域や科学技術に関する最先端の知見は、実世界での試行錯誤を通じてしか得ることができません。機械が人の代わりに生存環境や知識の限界を押し広げて行くなら、知られざる実世界の壁に必ず突き当たるはずで、そこを乗り越えるには頭で考えるだけでは足りないということです。もちろん機械の知性であれば、加速した世界のシミュレーションや獲得した知識のコピーといった手段を享受できますが、それでも能力を拡張する速度には自ずと限度があると$${^{*4,*5}}$$。
複雑な現実には敵わない
筆者は、「人の全ての能力を超える」とか「無制限の知能の爆発」といった意見自体が、現実の世界を雑に捉えた、解像度の低い主張だと考えます。そもそも人間はもちろん、どんなに能力が高まったAIでも、世界の複雑さの前では赤子に等しいと思うのです。
最強のはずの囲碁AIが、プロでもない棋士に敗れるのは、碁盤の上であり得る局面の数が、宇宙の全ての原子の数よりも多いからです。AIがその全部を検討できるはずもなく、いろいろなテクニックと圧倒的な計算力を使って、勝つ確率が高い手順を人よりも速く見つけられるだけなのです。だからどんなに強いAIでも、何かの拍子で負ける確率は決してゼロにはならないはず。
あるいは、どんなにAIが賢くなっても、富士山が爆発するタイミングや、企業の売上高を2倍にする打ち手を、100%の確率で特定することは恐らく無理でしょう。こうした問題を解くには、頭が良くなるだけでは不十分に見えるからです。きっと必須になるであろう、地殻の状態を逐一判断する手段もシミュレーションも当分実現しそうにありませんし、競合する会社の戦略から社会や消費者の変化まで全てを考慮した市場予測は多分不可能だと思います。
もし、こうした主張が事実であるならば、どんなに強いAIであっても人には逆転のチャンスが残り、AIの知能が無限に高まるわけでもないことになります。そもそもAIが人類を滅ぼすようなことがあるとしたら、それこそがAIが万能でない証拠です。なぜAIが人類を滅ぼすかといえば、限られた資源を奪い合う競争相手とみなすからという説が有力であり、虐殺にまで踏み込むからには、この制約の中で人と共存できる解決策をAIは見つけられなかったわけですから$${^{*6}}$$。
知性を比べる尺度はない
もちろん、そんなに突き詰めて考えなくても、AIが人の大方の能力を大きく上回り、人類に大きな害を及ぼすことは十分ありうる将来です。別にAIが神様ほど賢くならなくても、人を打ち負かすことは可能です。よくある例えで言えば、人とAIの知能の差がゴリラと人と同じくらいあれば、ゴリラの絶滅を人間が左右できるように、人類の生き残りの鍵をAIが握るようになるかもしれません。
ヒントン教授が心配するのも、恐らくそうした事態でしょう。だとすれば問題は、万能なAIの脅威を闇雲に恐れることではなく、「AIの知性がどれくらい人のそれを上回るのか」の見極めではないでしょうか。
ここで議論は厚い壁に突き当たります。AIと人の知性を比べる物差しがないのです。もちろん、囲碁などの個別のゲームや画像認識といった特定の作業での優劣はわかりやすく、既にAIに軍配が上がった用途がいくつもあります。ところが「知性」にまで風呂敷を広げると、誰もが納得する1つの尺度に話が収まりません。
知性とは元来、抽象的で曖昧な概念であり、評価の軸を定めようとしてもコンセンサスの取れない無数の方法がありそうです。大袈裟にいえば、知性の定義は人の数だけあるのかもしれません。第一、知性を明確に定義できないからこそ、シンギュラリティ論者は「人のすべての知的能力を超える」などと言ったりするのです。
しかも、人が考える知性の定義は得てして一貫していません。スーパーインテリジェントなAIの潜在的な脅威を描いた、こんな話があります。深層学習技術への貢献で、ヒントン教授と共にチューリング賞を受賞したヨシュア・ベンジオ教授が最近書いたブログにも出てくる有名な発想です。いわく、AIが人の殲滅に乗り出すのは、明確にそう命じた場合に限らない。例えば「気候変動の問題を解決してほしい」と頼むと、最大の原因は人間だと考えて、人類を根絶やしにするウイルスを開発したりするかもしれない。
超知性に求められる振る舞い
何かおかしいと思いませんか。少なくとも、人が人に地球温暖化の対策を聞く時には、この選択肢は除外するのが普通です。人よりも賢いはずのAIが、いきなり人類の滅亡に向けて、脇目も振らずに行動を起こしたりするのでしょうか。それをスーパーインテリジェンスと呼ぶのならば、環境を守るためには人殺しも厭わない過激派が、人類で一番賢いことになってしまいます。
また、この事態の前提としてベンジオ教授は「我々の指示が十分明確でない場合…」と書いているのですが、スーパーインテリジェントなAIは、何でこの指示を受ける時だけ、人の意を汲む代わりに従来の融通の効かない存在に戻ってしまうのでしょう。現に、ChatGPTでさえ、この問題の解決策に人に危害を加える選択肢は入れません$${^{*7}}$$。
仮に人類が諸悪の原因だと判断したとしても、対話にも応じず非道な行為に訴える姿勢は決して知的だとは思えません$${^{*8}}$$。そもそも、気候変動と人類の繁栄というトレードオフの解決に、誰でも思いつく安易な手段を使うのでなく、人知を超えた革新的な策を捻り出すことこそ、スーパーインテリジェンスにふさわしい振る舞いのはずです$${^{*9}}$$。
物書きの土俵で比べると
いずれにしても、知性の概念はかくもあやふやです。ですから筆者は一般的な知性という括りで人とAIを比べるのはそもそも無理だと思っています。
そこで、ここから先は、AIをめぐる現在の話題の中心ともいえる言語処理の巧みさに焦点を絞って、人とAIの能力差について考えたいと思います。そもそもAIの研究者でも開発者でもない筆者が、こんな文章を書こうと思ったのも、文を書いたり読んだりする能力であれば、自分が口を出してもいいかなと考えたからですし。あえてキャッチフレーズを掲げると「物書きの土俵の上でシンギュラリティは起きるのか」ということです。
ようやくここから本題に入り……のつもりだったんですが、ちょっと話が長く(くどく?)なり過ぎました。一旦この原稿はここで打ち止めにして、続きは稿を改めます。
最後に、タイトル負けしないようにChatGPTに聞いてみました。「AIの知能が人のそれを超えるとする「シンギュラリティ(技術的特異点)」という概念についての意見を教えてください。あなたは本当にそういうことが将来起こると思いますか。その時期はいつ頃だと思いますか」。その答えが以下です。
《「シンギュラリティ」または「技術的特異点」は、人工知能が人間の知能を超えるとされる未来の時点を指す概念であり、その後は人間が理解する能力を超える速度で技術が進化するとされています。この概念は、科学者や思想家の間で広く議論されています。
私自身はAIであり、意見や感情を持つ能力はありません。ただし、私が学習したデータに基づくと、シンギュラリティについての見解は大いに分かれています。一部の専門家は、シンギュラリティが将来的に実現すると主張しています。彼らは、コンピュータの処理能力が指数関数的に増大し続けるモーアの法則、AI技術の急速な進歩、などを根拠にしています。しかし、他の専門家はシンギュラリティの発生を疑問視しています。彼らは、知能そのものの複雑さ、倫理的な問題、技術的な障害などを指摘しています。
シンギュラリティがいつ訪れるかについても意見は分かれています。一部の予測では、2045年頃とされることもありますが、これは非常に推測的な見積もりであり、多くの未知数が存在します。また、シンギュラリティが実際に発生するかどうかも、現時点では不確定です。
重要なのは、技術の進化がもたらす影響について考え、倫理的なガイダンスと規制を適切に設定することです。これにより、人類がAIの進化から最大限の利益を得られるようにするとともに、潜在的なリスクを最小限に抑えることが可能になります。》
(ブラウジングの機能をオンにしていたので、続いて「ブラウジングの機能を使って最新情報を教えてください。」と聞いてみましたが、なぜかAIと量子コンピュータの関係を英語で説明した後、エラーが出て途切れてしまいました…)
この記事が気に入ったらサポートをしてみませんか?