見出し画像

GPTはなぜ数学問題に弱い? 言語の奥深くに隠された秘密

前回、私たちは大型言語モデルが「グロッキング」を開いて、「創発」し、「思考の連鎖」を持つために、今のように驚異的な機能を持つようになったと話しました。しかし、GPTをさらに理解するためには、それが人間の脳とどのように比較されるのか、どのような制限があるのか、得意でないことは何かをさらに理解する必要があります。今回はAIの能力の限界について話し合います。


時代遅れならない本

歴史的な変革の時期にあるGPTの進歩は非常に速いです。様々な製品、サービス、学術論文が次々と現れ、進歩は日単位で計算され、1ヶ月前の認識はすでに古くなっている可能性があります。ただし、今回使用する本は非常に強力です。スティーヴン・ウォルフラム(Stephen Wolfram)の「ChatGPTが何をしているのか...そしてなぜそれがうまくいくのか」(What Is ChatGPT Doing ... and Why Does It Work? )(2023年3月9日発行)です。

この本は時代遅れになりません。なぜなら、GPTの一般的な機能ではなく、数学の原理と哲学的思弁について語っており、数学と哲学は時代遅れになることがないからです。

この本の著者、ウォルフラムは神のような存在で、Mathematicaソフトウェアを開発し、WolframAlphaウェブサイトを作成し、Wolfram Languageという計算言語を構築し、物理学全体に対して全く新しい見方を提案しました。現在生きている世界で最も賢い3人を挙げるなら、彼は間違いなくその中の一人であり、残りの2人が誰であるかさえ私には確信がありません。

GPTと現在市場に出ているすべてのAIの本質は、神経ネットワークです。ウォルフラムは40年以上にわたって神経ネットワークに注目しており、1983年には既に自分でプログラミングして神経ネットワークの研究を行い、最近ではGPTを用いて多くの研究を行っています。彼のこの本は、OpenAIのCEOであるサム・アルトマン(Sam Altman)からの支持を受けており、彼がこれまで見た中で最も良い説明であると言われています。

実際、ウォルフラムはGPTの秘密と弱点を明らかにするだけでなく、衝撃的な洞察を提供しています。

計算が弱いAI

まず、GPTについての理解を深めるために、小さな例を示します。

GPT-4に最も簡単な計算問題を解かせました。これは私が手元で作ったものです:1231 × 434523 + 323 × 34636 はいくらになりますか?

GPTは真剣に計算した後、結果として546115741を出しました。しかし、計算機で計算してみると、正しい答えは546085241であるはずです。

これはどういうことでしょうか?GPT-4は強力な推論能力を持っており、時には難問を解くこともできますが、なぜこんなに簡単な計算問題を間違えるのでしょうか?

もちろん、すべての計算を間違えるわけではありません。たとえば、25+48を計算させれば、間違いなく正解を出します……しかし、非常に長い数字の計算になると、うまくいかないのです。

その根本的な理由は、GPTが言語モデルであることにあります。それは人間の言語を使って訓練されており、その思考は人間の脳に非常に似ています——そして人間の脳は、この種の数学問題を得意としていません。計算機を使わなければならないのではないでしょうか?

GPTは人間の脳に似ており、一般的なコンピュータプログラムとは異なります。

本質は予測

言語モデルの機能は、本質的にはテキストを「合理的に続ける」こと、つまり次に何を言うべきかを予測することに他なりません。

ウォルフラムは例を挙げています。たとえば、この文The best thing about AI is its ability to……「AIの最高の点は、その……能力にあります」次の単語は何でしょうか?

モデルは、学習したテキストの確率分布に基づいて、5つの候補単語を見つけます:学習する(learn)、予測する(predict)、作る(make)、理解する(understand)、行動する(do)。そして、その中から1つの単語を選びます。

どの単語を選ぶかは、「温度」の設定によってある程度ランダムです。それほど複雑ではありません。GPTがコンテンツを生成するのは、これまでの話に基づいて次の単語が何であるべきかを自問自答する過程です。

出力の質は、「べき」が何を意味するかに依存します。単語の頻度や文法だけを考慮するのではなく、意味を考慮し、特に現在の文脈における単語間の関係が何であるかを考慮しなければなりません。トランスフォーマーアーキテクチャが大いに役立ちます。思考の連鎖を使用する必要がありますなど。

はい、GPTは次の単語を探しているだけですが、アルトマンが言ったように、人間も「生存と繁殖」を目的としているのではないでしょうか?基本原理はシンプルですが、そこからさまざまな驚異的で美しいものが生まれるのです。

GPTを訓練する主な方法は教師なし学習です:まず、テキストの前半部分を見せて、後半部分が何であるかを予測させます。なぜこの訓練方法が機能するのでしょうか?言語モデルはなぜ人間の思考にとても近いのでしょうか?それに十分な知恵を持たせるには、どれだけのパラメータが必要でしょうか?どれだけのコーパスを供給すべきでしょうか?

おそらくOpenAIはこれらの問題をすべて理解しており、外部に秘密にしていると思うかもしれませんが、実際は正反対です。ウォルフラムは非常に確信を持って言いますが、現在科学的な答えはありません。なぜGPTがこれほどうまく機能するのか、モデルにどれだけのパラメータが必要かを教えてくれる第一原理は存在せず、これはすべて芸術であり、感覚に従って行うしかありません。

アルトマンも言っていますが、それは天の恵みです。OpenAIが最も感謝すべきなのは、運です。

3つの幸運

ウォルフラムはGPTのいくつかの特徴について語っていますが、私が見た中で3つの最も幸運な発見があります。

第一に、GPTは「自然言語処理(NLP)」などのルールを人間から教えられたわけではありません。すべての言語特徴、文法であれ意味であれ、全てはそれ自体が発見したものです。言い換えれば、神経ネットワークにすべてを発見させ、人間が干渉しないことが最善の方法であることが証明されました。

第二に、GPTは「自己組織化」の強い能力を示しています。これは、以前に話した「創作」と「思考の連鎖」です。それには、何かを組織するために人為的に配置する必要はなく、自ら様々な組織を形成します。

第三に、おそらく最も不思議なことは、GPTが同じ神経ネットワークアーキテクチャを使用して、表面上は全く異なるタスクを解決できることです!理論的には、絵を描くためには絵を描くための神経ネットワークが必要であり、記事を書くためには記事を書くための神経ネットワークが必要であり、プログラミングにはプログラミング用の神経ネットワークが必要であると思われますが、実際にはこれらのタスクは同じ神経ネットワークで行うことができます。

これはなぜでしょうか?はっきりしていません。ウォルフラムは、これらの見かけ上異なるタスクが、実際には「人間らしい」タスクであり、本質的には同じであると推測しています。GPTの神経ネットワークは、一般的な「人間らしいプロセス」を捉えているに過ぎないのです。

これはただの推測です。これらの驚異的な機能に対して現在合理的な説明がないため、それらは重大な科学的発見と見なされるべきです。

これらはGPTの秘密です。それは単なる言語モデルですが、同時に非常に不思議です。

結局AIは何が得意?

では、なぜGPTは数学を計算するのが苦手なのでしょうか?ウォルフラムは多くを語っていますが、以下に簡単に要約します。

世界中のさまざまな計算を表す3つの集合を使用して説明します。

大きな円はすべての計算を表します。自然界のすべての現象を計算として理解することができます。そのほとんどは非常に複雑であり、方程式をすべて書き出すことができず、大脳やコンピュータを使用しても処理することができませんが、それでも計算であることを知っています。

大きな円の中にある左側の小さな円は、神経計算を表し、神経ネットワークが処理するのに適しています。私たちの脳とGPTを含む現在のすべてのAIはここにあります。神経計算は物事のパターンを見つけるのが得意ですが、数学的な問題を処理する能力には限界があります。

大きな円の中にある右側の小さな円は「形式論理」を表し、数学はここにあります。特徴は精密な推論であり、複雑さを恐れず、常に正確です。方程式やアルゴリズムがあれば、ここで精密に計算することができます。これは伝統的なコンピュータに特に適している領域です。

人間の脳、GPT、コンピュータはすべての計算を処理することはできませんので、2つの小さな円は大きな円を完全に覆うことはできません。科学的な探求を行うことは、2つの小さな円の範囲をできるだけ拡大し、大きな円の未知の領域に進出することです。

人間の脳とGPTは形式論理の一部も処理できるので、2つの小さな円には交差部分があります。しかし、私たちは特に複雑な計算を処理することができないので、その交差部分はそれほど大きくありません。

将来的にGPTがさらに強力になり、左側の小さな円が右側の小さな円を完全に覆う可能性はあるのでしょうか?それは不可能です。ウォルフラムは、言語思考の本質はパターンを求めることにあると考えています。そして、パターンは客観的な世界の圧縮です。圧縮できるパターンがあるものもあれば、本質的にパターンがなく圧縮できないものもあります。

ウォルフラムが発明したゲームの中に「ルール30」という「削減不可能な複雑さ」があります。将来がどのようなものか知りたければ、一歩一歩正直に計算する以外に方法はありません。「一般化」することはできません。

これがGPTが複雑な数学問題をうまく解けない理由です。GPTは人間の脳と同様に、常にパターンを見つけて近道を探そうとしますが、一部の数学問題は正直に計算する以外に方法がありません。

さらに致命的なのは、現時点でGPTの神経ネットワークは純粋に「予測制御(feed-forward)」のネットワークであり、前方に進むだけで、後戻りやループがないため、一般的な数学アルゴリズムもうまく実行できないことです。

これがGPTの弱点です。それは考えるために使われるものであり、冷酷で無情な計算を実行するために使われるものではありません。

人間の脳も一緒

そう言えば、GPTは人間の脳よりも多くのことを知っており、反応も速いですが、神経ネットワークとして、本質的に人間の脳を超えているわけではありません。

この点について、ウォルフラムには洞察があります。

これほど単純なルールで構成された神経ネットワークが人間の脳を——少なくとも言語システムを——うまく模倣できるということは、何を意味するのでしょうか?一般の人々はこれがGPTの強さを示していると言うかもしれませんが、ウォルフラムは、これが人間の言語システムがそれほど強力ではないことを示していると言います。

GPTが記事を書くことができるということは、計算上、記事を書くことは私たちが想像するよりも「浅い」問題であることを示しています。人間の言語の本質とその背後にある思考は、神経ネットワークによって捉えられています。

ウォルフラムにとって、言語は各種のルールで構成されたシステムに過ぎません。その中には文法規則と意味論があります。文法規則は比較的単純ですが、意味論は「物体は動かせる」といったデフォルトのルールを含むなど、包括的です。アリストテレス以来、言語のすべての論理を列挙しようとする人がいますが、誰も成功していません。しかし、現在GPTはウォルフラムに自信を与えています。

ウォルフラムは、GPTができることは自分もできると言っています。彼は「ウォルフラム言語」という計算言語を使って、人間の言語を置き換えるつもりです。これには2つの利点があります。一つは精密性で、人間の言語には多くのあいまいな部分があり、精密な計算には適していません。もう一つは、もっと重要なことですが、ウォルフラム言語は事物の「究極の圧縮」を代表し、世界のすべての本質を代表しています...

私はゲーデルの不完全性定理を聞いたことがあるので、彼の野心的な計画にはあまり期待していませんが、考えられることはすでに考えられているので、私は反対意見はありません。私はただ、これらのことを伝えたいと思います。

最後に

要するに、GPTの秘密は、その構造原理が単純であるにもかかわらず、すでにかなりの程度で人間の脳の思考を持っていることです。なぜそれができるのかを完全に説明できる科学理論はまだありませんが、それができたのです。GPTの弱点も、それがあまりにも人間の脳に似ているためです。数学計算が得意でなく、伝統的なコンピュータではありません。

これは、なぜGPTがプログラミングが得意でありながら、プログラムを自ら実行できないかを説明しています。プログラミングは言語行為であり、プログラムの実行は冷酷な計算行為です。

これらを理解することで、GPTの調整について少し理論的な基盤ができました。しかし、今言いたいのは、GPTのいわゆる弱点は実際には簡単に補うことができるということです。

計算機を与えればいいのではないでしょうか?別のコンピュータを使ってプログラムを実行させればいいのではないでしょうか?OpenAIがChatGPTにプラグインをインストールすることをユーザーや第三者の企業に許可したことで、この問題がまさに解決されました...ですから、GPTはやはり強力です。

しかし、ウォルフラムはGPTの根本的な限界を私たちに認識させました。神経ネットワークの計算範囲は限られています。私たちは現在知っていますが、将来AGIが登場しても、神経計算と形式論理を超えて自然の真理を掴むことはできません。科学研究は結局のところ、自然と直接触れ合い、外部ツールや外部情報を活用する必要があります。

この話がGPTについての理解を深めるのに役立つことを願っています。それは確かに信じられないほど強力ですが、万能ではありません。


この記事が気に入ったらサポートをしてみませんか?