見出し画像

攻殻機動隊 ARISEとターミネーター2に学ぶ自然言語処理と意識の境界

デイヴィッド・チャーマーズの哲学的視点

 デイヴィッド・チャーマーズ『意識の哲学』『心の哲学』における研究で著名なオーストラリア出身の哲学者です。彼の功績は『意識のハード・プロブレム』を提唱したことで、広く知られています。以下に、彼の考え方や特徴的な主張について説明します。
 
意識の問題(Problem of Consciousness)
 チャーマーズは、意識の問題を『ハード・プロブレム』『イージー・プロブレム』に分けました。イージー・プロブレムは、意識の機能や役割、物理的なメカニズムなどを理解することを指し、ハード・プロブレムは、物理的な過程がどのようにして主観的な経験を生み出すのかを理解する問題を指します。彼の主張は、イージー・プロブレムがいずれ解決されるとしても、ハード・プロブレムは科学的方法論だけでは解決しきれないというものです。
 
 但し、チャーマーズ自身が『ハード・プロブレム』『イージー・プロブレム』の区分を研究していたわけではありません。彼が提唱したこの分類は、アリゾナ大学意識研究センター主催のツーソン会議(Toward a Science of Consciousness:TSC)の講演で、神経科学や認知科学の世界で認識されていた『イージー・プロブレム』とは異なり、『意識のハード・プロブレム』はそんなに簡単なものではないという意味で使われ、その後広く受け入れられました。

 このような何気ない発言が学術界で注目されることは、時折見られることです。政治家やタレントの発言の趣旨とは異なる文脈で注目される際などでも、似たようなメカニズムが働いています。筆者がnoteに書いた以下の文章も、引用されて注目を浴びることとなり、『松尾豊のAIに対する理解力問題』として、独立したテーマになりました。
 
『松尾豊は日本のAIが海外に後れていると主張していますが、実際には日本はAIの分野で先進国としての地位を確立しています。後れを取っているのは、日本のAI技術ではなく、松尾豊のAIに対する理解力です。』

 商用利用可能なLlama-2-7bがリリースされたのは、2023年7月19日なので、中国語化は二週間で作業が終わっているのに、日本語化に五週間以上かけているのは、どこかと思えば、松尾研究室発のAIスタートアップ…。

 以下の記事には『オープンソースの定義が理解できない』ところまでは想定外でしたという話が書いてあります。

 筆者は特に松尾豊に関する研究をしているわけではなく、研究課題はAIに関する誤解が引き起こすAI倫理問題全般にあります。
 
 デイヴィッド・チャーマーズの『意識の問題』の概念を用いて、自然言語処理(NLP)について説明すると以下のようになります。

意識のイージー・プロブレム(Easy Problem of Consciousness)

 イージー・プロブレムは意識に関する認知機能や物理的なメカニズムの問題です。具体的には、『外部刺激がどのように脳で処理されるか?』や、『情報がどのように伝達・整理されるか?』など、物理的・機能的な側面が中心となります。
 NLPの観点からは、テキストの解析、文の構造の把握、意味の特定、翻訳の実行など、具体的なアルゴリズムや手法に基づいて実行されるタスク全般がイージー・プロブレムに該当すると言えるでしょう。これらのタスクは、適切なデータとアルゴリズムを用いれば、解決が可能とされています。
 しかし、実際には、解決しなければならない問題は多数あり、以下のブラックボックス問題がその一例です。
 
ブラックボックス(AI・深層学習):AIや深層学習の文脈での『ブラックボックス』

『ブラックボックスの意味分かってますか?』と言いたい。

意識のハード・プロブレム(Hard Problem of Consciousness)

 ハード・プロブレムは『なぜ物理的な過程が主観的な経験や意識を引き起こすのか?』という問題です。物理的・生物学的なプロセスと主観的な経験との間のギャップ、つまり『なぜ存在感を持っているのか?』という問題を指します。
 NLPの文脈で考えると、コンピュータがテキストを解析・翻訳することは可能でも、そのテキストの『意味』や『感じること』を真に理解や体験することはできません。現代のNLP技術やAIは、テキストに対して人間のような主観的な経験を持つことはなく、純粋に算術的な処理を行っているに過ぎません。この意味で、NLPが『意識』を持つということは、ハード・プロブレムの観点から考えると非常に難しい課題となります。

 つまりNLPの技術は、言語の解析や処理に関するイージー・プロブレムの部分に関しては高度に発展していますが、ハード・プロブレムに関しては、ノイマン型のシリコン半導体コンピュータのアプローチでは、どれだけ計算能力を上げたり、パラメーターを増やしたり、アルゴリズムを改良しても、解決が難しいと言わざるを得ません。
 
 攻殻機動隊 ARISEの以下のビデオの18分25秒から草薙素子が『くだらない話をするな。人格のある振りをする機会は嫌いなの』という話です。

 ターミネーター2では『Hard Problem』『Easy Problem』を通り越して『No Problemo』になりますが、以下のビデオのように知らない単語を覚えて、単語を組み合わせて使えるようになるのが機械学習です。

 デイヴィッド・チャーマーズは、次に述べる『哲学的ゾンビ』の思考実験を考案したことでも有名ですが、この思考実験を通じて前述のハード・プロブレムとイージー・プロブレムの切り分けを考えると、シリコン半導体やプログラミングが苦手な人にも、ChatGPTやBardなどがどれだけ進化しても、シリコン半導体ベースで作られたノイマン型コンピュータには、意識や感情や魂が宿らないということが分かるかも知れません。

哲学的ゾンビ(Philosophical Zombie)

 哲学的ゾンビは、チャーマーズが『意識のハード・プロブレム』を議論する上で用いる仮想的な概念です。哲学的ゾンビは、外見や行動は完全に人間と同じでありながら、主観的な経験や感覚を持たない存在とされます。つまり、痛みや喜びなどの感覚を『体験』することはなく、ただ反応するだけの存在となります。

 この哲学的ゾンビの存在が可能であると仮定すると、物理的なプロセスや脳の構造だけでは意識や主観的な経験を説明することの困難性が明確になります。チャーマーズは、この過程から導かれる結論から、意識は単なる物理的現象だけでなく、何らかの基本的な性質を持つものであるとの結論を導いています。

 一方で、チャーマーズとは、まったく異なる立場を取っている哲学者も大勢いて、どの哲学的解釈が正解という統一見解は、存在していません。

 哲学や医学や科学的なアプローチでは、魂の存在を証明することも、否定することもできないのが現実です。医学や科学では、蘇生可能かどうかといった条件で、生死の判断条件を定義することは可能ですが、肉体と魂が分離していることで、生死を判断しているわけではありません。

 魂の問題を取り扱っているのは、神学や宗教などですが、全ての宗教が魂に対して同じ捉え方をしているわけではありません。キリスト教と仏教と原始宗教では、それぞれ魂について異なる考え方を持っていて、無神論者や魂の存在を信じない考え方もあります。
 
 このように多様な哲学的解釈があるにもかかわらず、チャーマーズの考え方は、現代の心の哲学や意識研究において重要な位置を占めています。彼の提起した問題や概念は、科学者や哲学者にとって大きな議論の対象となっており、意識の本質や起源についての探求を刺激し、哲学、計算機学、医療倫理、そしてAI倫理の世界にも大きな影響を与えています。

 以下の記事の後半の『次世代AI技術として有望視されている様々なアプローチ』と合わせてお読みになると、シリコン半導体の限界や、その他のAI素子を開発する必要があるのか、理解しやすくなるかもしれません。

 AIと哲学がなぜ関連しているのかは、以下の記事をお読みになると、理解しやすくなるかもしれません。





この記事が参加している募集

アニメ感想文

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?