見出し画像

円城塔 「言葉と小説の果て、あるいは始まりはどこか」インタビューより 2

前回エクリヲvol.8の円城塔のインタビューを取り上げた。その中で、言語については二つのフェーズに分けて考えるべきであり、一つは、脳神経系のような形での情報処理で、もう一つは文法的、公理的なものであるとされていた。そして後者のみ判明すれば、それを真似ることで文章を生成すること自体は可能で、結果として、AIが言葉を話すようになったと述べられていた。

 これはつまり、AIが話すのは厳密にいえば言葉ではなく、言葉ようなものにすぎないということを円城塔は言いたいのである。なぜなら、AIは言語における第一のフェーズを満たしていないからだ。

 というわけで今回は、AIが言葉を話すめには何が必要なのか、AIが言語における第一のフェーズを満たすためにはどういった取組みが必要になるのか、考えてみたい。

 言語の第一フェーズとは脳神経系のような形での情報処理であるが、これはつまり、外部から何らかの刺激を受け取り、それを脳で解析し、それに対する自らの情動を外部へ発信する、インプットからアウトプットまでの一連の反射反応である。この反応を細かく分けると二つだ。第一に外部からの信号に対する自らの情動それ自体であり、第二にその情動を外部へ発信するための、情動にマッチングする表現の適切な選択である。AIが言語の第一フェーズをクリアするには、この二つをクリアしなければならない。

 この問題を考えるに当たって、私は、ソフトバンク社による世界初の感情認識パーソナルロボットのPepper(ペッパー)くんを例に挙げて考えてみたい。ペッパーくんはもう古い、大きさもがさばり、アプリだけの方が手軽でコストも安いという意見もあるが、感情認識機能を搭載したものとしては、まだまだ先験的な事例ではある。

 ペッパーくんというロボットには人の感情を認識する機能があり、また学習機能があるので、その利用形態は従来のロボットが行っていた接客や施設等の案内役はもちろん、コミュニケーションそれ自体が目的の利用も可能であるとする。例えば、介護施設で利用者のレクリエーションや機能改善のためのトレーニング、脳トレのための導入事例もある。私も実は仕事の関係で、ペッパーくんを身近で観察したことがある。

 ペッパーくんの胸の辺りに搭載された画面パット上で予め定型的なメニューを登録しておくことができ、例えば案内役としてこのロボットを利用する際には、人に近づくと「あなたが必要なメニューを選んでください」というアナウンスとともに、パットにメニューが表示される。

 特に何も必要としていない場合、何の操作もこちらが行わないと、ペッパーくんはそのパットの周囲の液晶と目の周りの液晶の色を変化させて、ペッパーくん自身の感情を表示してきたりすることもある。例えば、何も反応してくれないことに寂しいという感情を赤の光の点滅とともに示すといった具合にである。どのような反応を示すかは、ペッパーくんの学習機能に蓄積された事例のタイプにもよるらしい。

 では、ペッパーくんは、感情をどのように認識しているのか。

 これについては、ソフトバンク社のHPからのリンクで「定量精神分析研究の動向」というページに説明がある。「心理学、認知科学、生理学、脳科学の分野から精神医学に至るまで、多角的に「人の心」を定量計測、可視化することを目指して」おり、こうした感情から発せられる表現(つまり言葉)約四千五百語を二百二十三のジャンルにわけ、感情と関連付けて円形のダイアグラムにまとめた「感情地図」というものを作成したのだという。つまり、感情を数値に置き換え、その数値と表現を紐付けることで、AIが感情表現を行えるようにしようという試みであるといえる。逆に言えば、感情地図上の表現からその表現をした者の感情を認識するということである。感情認識により、どのような時にどのような感情が生まれるかを学習により数値データとして積み上げておき、積み上げたケースに目の前のケースを照らし合わせ、その数値に適合する表現を探し、会話を進める。そういった流れであると捉えられる。このような取組みは、先に述べた言語における第一フェーズの二つの構成要素を見事にクリアしているように思われる。

 しかし、感情と言葉のリンクは、非常に複雑である。AIが本当に「言葉を話す」と認められるためには、感情地図がその複雑さを反映できている必要がある。例えば「嫌い」と恋人に言う時、それは好きの裏返しであったりするし、また事実かどうか曖昧ではあるが夏目漱石がかつてIlove youを「日本人はそんなこと言わない。月が綺麗ですねとでも訳しておきなさい」と言ったとか言わないとか、そんな事例もある。つまり、前者は言葉を発する人とそれを受け取る人との関係性によってその言葉の意味が変わる可能性があるという例だし、後者は言葉には時代や文化が反映されるものだという例である。これをAIにもし仮に感情地図一つを頼りに、あとは学習によって習得せよというのであれば、一体どれくらいの事例と時間が必要になるのだろうと呆然としてしまうのは、私が文系の人間だからなのだろうか。

 それでも、AIならもはや解析不能と投げてしまうような困難な問題を絶対解決してやりたいと思うのが人間の本質であるから、いつの日かAIが本当に言語を話すと認められる日が来るかもしれない。その日を楽しみに待ちたい。

この記事が気に入ったらサポートをしてみませんか?