生きること、学ぶこと


(問い)ChatGPTについて考える ―AIと人間は非対象であるー


LLA言語モデルを2つの視点で考える。

まずは、言語の起源という視点がある。LLAのアーキテクチャーはベクトル化によるアプローチであり、これが人間の言語認識に近いのではあるが、言語起源について考えているのではない。自然言語処理は、RNNやLSTMなどの回帰型ニューラルネットワークに代わりTransformerモデルが主流になっている。

しかし、言語生成を理解してのアプローチではないので、非常に優秀な大規模言語モデルにおいても「フレーム問題」「接地記号問題」の課題解決の道は遠い。さらには、対話における非言語的伝達、空間と時間、態度や評価のシチュエーション、主観と客観、受動と能動、イントネーションを含む文体的諸体系、社会的交通などの意味づけへの遡及はさらに壁が高い。
 
これらを丁寧にプロンプトしても限界がある。
 今後、Transformationの進化で人間の言語の起源と生成にどこまで迫ることができるのか?人間の言語変生成は休むことがない。常に変化している。AIは変化をキャッチアップできるが、それを超えることはない。

もう一つの視点は、社会的な意味づけであろう。ここには3つの異なる言及をあげる。

最初は、「そもそも言語モデルの議論は破綻している」という主張である。知能とは何か?人間を超えるとはどういう尺度で?などを曖昧なままで無意味な問いである。すでにコンピューターはシンギュラリティを超えている。明らかに、「情報市場」は需給の関係はかわる。AIのコストがめちゃめちゃ安くなっている。

AIの浸透による生産性の向上と同時に違う場所でのボトルネックが生まれる。そこに新たなビジネスも生まれる。高収入の職業からAIは狙う。
正解を出すのが得意な分野は高給である。弁護士のリーガルチェック、医師の画像診断、投資トレーダー、コンサルタントは、全てお客様が問題をくれる。AIの得意な分野である。AIと人とは、そもそも非対称性であり、比較の意味がない。人はいつもAIを意識して生きているわけでもない。A Iにできることは任せれば良い。人には、人のすることがある。(リベラルアーツを標榜する山口周の考えである。)

次は、デジタルネーチャーにより人間の脳をベクトル化する方向は止まらない、という落合陽一の主張である。

急速なAIの進歩で、LLAが文系と理系の境を取り除いてしまった。テクノロジー(人間をベクトル化、微分を使って)で、社会的問題や人間を分析できるようになってしまった。これまでの量子コンピューティングやコンピューターシミュレーションではなく、微分可能物理学、微分可能レンダリングの進化により、ディープラーニングは微分により、ニューラルネットワークの最適化や微分可能オントロジーの設計ができる。

ImageBind(テキスト、画像および動画、音声、深度(3D)、熱(赤外線)、慣性測定単位(IMU)という6種類のモダリティの情報を単一の表現空間で学習)(公開2023年5月)、Code interpreter(公開2023年7月)は限りなく発展していく。デジタルネーチャー自身が自然と同化している。こういう人類の財産はIP化してはならない。人間の価値は、人として生まれたことである。

最後は、「人間ならでは」の仕事を失うことは人に何をもたらすのか?と問う、大沢真幸である。

AIの課題として「フレーム問題」「記号接地(シンボルグラウンディング)問題」がある。「人間ならでは」の仕事とは何か?一般的には創造力の必要なもの、社交性が求められるもの、マニュアル化できないものへの対処であるが、人間が創造性の高いと考えているものは、実はさほど独創的ではないのだ。大抵の人間の発想は過去に誰かの思いついたものである。これらのことをAIは得意としている。

さらには、AIが世界の格差をますます広げていることであるが、超富裕層が数十億人分の資産を所有していること、つまりインターネットの土地を囲い込んで企業が「私有地化」していることへ、人類の共有財産として民主的に管理されるシステムを、私たちは考えなければならない。つまり、生成AIは、国や私企業の所有物ではないので、私的所有を超える方向性を考えていく必要がある。これが、ECで規制であり、デジタル立憲主義への挑戦である。

この3つの言及について考えてみる。イデオロギーによる人間や社会の評価を数値化による評価で同じことができてしまうというテクノロジーと哲学の二項対立は意味がないという考えを理解しつつも、人間とAIの非対称性、リベラルアーツが人間学の原点であるという考えは極めて重要ではないだろうか? 

この記事が気に入ったらサポートをしてみませんか?