見出し画像

常識が分からない人工知能



人工知能の研究が始まったとされる1950年代後半以降、人工知能はめざましく進歩しています。画像認識の精度は既に人間の精度を超えており、今後の更なる進歩が期待されていますが、人工知能にとってはどうしても解決できない難問があるようです。


今回はその“ある難問”について紹介したいと思います。


さて、まず初めに人間の思考方について考えたいと思います。僕たち人間は日常生活において大小様々な事柄について様々な場面で思考する機会を持ちますよね。思考の帰結として何かしらの行動をとるわけですが、その行動(意思決定)の中には無意識的なものも含まれます。


ここで、人間の思考方法を指す言葉としてヒューリスティックスを挙げます。

ヒューリスティックスとは必ず正解が得られるわけではないが、近似解が期待できる方法を指し、それを活用すれば、回答に至るまでの時間を短縮できる。

これは人が日常の判断や意思決定において経験的に用いる簡便な思考法のことを指し、常識的方法と言われたりもします。


人間は何かについて思考する際、認知資源(注意深く考える、記憶する、といった認知活動に要する力)が限られているので問題解決をするときにその問題を簡易化し扱いやすくする必要があります。


少し抽象的なのでヒューリスティックスの1つである利用可能性ヒューリスティックを用いて少し詳しく説明したいと思います。

『英語にはkで始まる単語と、kが3番目にくる単語ではどちらが多いか。』

この質問に対して大多数の人が“kで始まる単語”の方が多いと答えることが分かっているのですが、実際は“kが3番目にくる単語”が“kで始まる単語”の約2倍あります。

にも拘らずなぜこのような結果が出るのかと言うと、人間にとってはkで始まる単語を思い浮かべる方が簡単だからです。


人間はこのようにして思考にかける時間を短くする術をもっているのです。


しかし人工知能は人間と異なり、データのすべてを記憶することができるのでそのデータ範囲全てに思考を及ばせることができます。
つまり、人工知能にとって思い出しやすさというものが思考方に影響を与えることはないということです。


今説明したように人間と人工知能には決定的な思考法の違いがあります。

その思考法の違いが人工知能に難問を与えてしまいました。それがフレーム問題です。



フレーム問題とは?


フレーム問題というのは1969年にパトリック・ヘイズとジョン・マッカーシーという2人の学者が指摘した、人工知能に関する難問です。

約半世紀も前に提唱された問題が未だに未解決だということは相当の難問であるようです。


このフレーム問題に関して羽地亮(1998:14)は以下のような例を用いて示しています。

 R1と名付けられた一台のロボットがあった。ある日、R1の予備バッテリーをしまってある部屋に時限爆弾が仕掛けられ、それはまもなく爆発するようにセットされていた。部屋には一台のワゴンがあり、バッテリーはその上にある。R1はバッテリー救出作戦をたてた。すなわち、PULLOUT (WAGON, ROOM)という行動を行えば、バッテリーを部屋から持ち出すことができると考えた。R1はただちにこれを実行した。ところが不幸なことに爆弾もまたワゴンの上にあった。R1は爆弾がワゴンの上にあることを知っていたが、ワゴンを引っぱり出すことがバッテリーと一緒に爆弾も持ち出すことになるということに気が付かなかった。自分が計画したこの明白な帰結を見落としていたR1は、部屋の外で爆発してしまった。
 技術者たちは考えた。ロボットは自分の行動の帰結として、自分の意図したものだけではなく、副産物についての帰結も認識できなければならない、ロボットは周囲の状況の記述を用いて自分の行動を計画するから、そのような記述から副産物についての帰結を演繹させればよい、と。こうしたわけでR1D1(robot-deducer)がつくられた。R1D1はR1と同じ苦境にたたされた。R1D1もPULLOUT(WAGON, ROOM)を考えついた。それからR1D1は、計画されたとおり、この行動の帰結を考え始めた。R1D1は、ワゴンを部屋から引っぱり出しても部屋の壁の色は変わらないということを演繹し、ワゴンを引けば車輪が回転するだろうという帰結の証明にとりかかった。そのとき爆弾は爆発した。
 技術者たちは考えた。われわれはロボットに、関係のある(relevant)帰結と関係のない(inrelevant)帰結との区別を教えてやり、関係のないものは無視するようにさせなければならない、と。こうしたわけで、R2D1(robot-relevant-deducer:分別のある演繹ロボット)がつくられた。R2D1も例の苦境にたたされた。すると、驚いたことに、このロボットは、部屋に入ろうともせず、じっとうずくまって考えていた。設計者たちは「何かしろ」と叫んだ。R2D1は「してますよ」と答えた。「私は無関係な帰結を探し出してそれを無視するのに忙しいんです。そんな帰結が何千とあるんです。私は、関係のない帰結を見つけると、すぐそれを無視しなければならないもののリストにのせて、・・・・・・」また爆発してしまった(14)。


各段落を短くまとめると、

R1はバッテリーと爆弾がのったワゴンを部屋から持ち出すことで、バッテリーを部屋から出せると考えたが、爆弾も一緒に持ち出してしまい爆弾が爆発してしまった。

R1D1はバッテリーを持ち出すために演繹法を用いて、ワゴンを移動させても部屋の壁の色は変化しないのでワゴンを引けば車輪が回転すると考え、その証明に取り掛かる間に爆弾が爆発した。

R2D1は爆弾救出ミッションに関係のない事象の全てを考えようとしてしまい、その間に爆弾が爆発した。



R1D1とR2D1のケースに着目してみましょう。

R1D1はR1の失敗を繰り返さないように副産物についての帰結を考えましたが、壁の色について考えてしまいました。バッテリーの救出作業に壁の色なんて全く関係がないのにもかかわらずそれについて考えてしまった。
関係ないことに目をむけてしまったためにバッテリーを救出できませんでしたね。

R2D1はR1D1の失敗を繰り返さないように関係のない副産物を除外しようとしたが、それはほぼ無限に存在するので短時間で関係のない全ての事象を見つけることができなかった。

どちらのケースも考えなくてもいい余計なことを考えてしまっていますね。



人間と人工知能における思考範囲



ここでもう一度、人間と人工知能の思考回路について考えましょう。
普段僕たちは何かについて考えるとき、あるフレーム(枠組み)の中で物事を考えます。(認知資源に限度があるのでそうせざるを得ない場合がほとんど)

ここで言うフレームとは常識であると考えると分かりやすいかもしれません。僕たち人間は常識というものを持っているおかげで余計なことを考えずに思考や会話などをスムーズに進めることができます。



普通僕たちはある情報が必要か不要か判断するためにわざわざ検証することはまずないですよね。

ところが人工知能にはそのような思考法ができないのです。つまり人工知能は数的処理をすることなくその情報が不要であると判断できないということです。
なぜなら人工知能はプログラミングによって構築されたあるアルゴリズムに基づいてしか行動できないからです。

問題解決における思考を簡略化する術を持たない人工知能にとって、考える範囲を適度に調節するのはおそらく不可能でしょう。

考えさせる範囲(フレーム)を初めから限定していれば余計なことを考えさせなくて済むかもしれませんが、もし予想外(フレーム外)のことが起こってしまった場合、その人工知能は思考停止状態に陥ってしまいます。

ならフレームの範囲を少し広げよう!となりますが、一体どこまで広げたらいいの?となってしまうわけです。



つまりフレーム問題とは
人間でいうところの“常識”をどこまで人工知能に与えればいいのか、その線引きが非常に難しいということを指すと考えるのが良さそうです。

考えさせる範囲を広くしすぎると余計なことを考えすぎ、狭くしすぎると極端に限定的な場面でしか能力を発揮することができない人工知能になってしまうんですね。




まとめ

・人工知能はアルゴリズムに基づいて動く機械であるうえに、記憶に優先順位を付けることもできないため思考の簡易化をすることができない。

・人工知能に“常識”をあたえることは不可能であるように思える。





参考文献


箱田裕司・都築誉史・川畑秀明・萩原滋(2010)『認知心理学』

羽地亮.「フレーム問題」の解消 : 人工知能研究への一提言. 京都大学文学部哲学研究室紀要 : Prospectus (1998), 1: 13- 28


この記事が気に入ったらサポートをしてみませんか?