AIで用いられるベイジアンアプローチ

 明日雨が降るかどうかを予測することを考えて見よう。

 われわれは、日常的に、つぎのような判断をしている。
 いまの季節なら、平年だと降水確率は10%程度だということを知っているとしよう。ところが、空を見ると、西の空に黒い雲が見える。「それなら、確率は30%程度か」などと判断を修正する。「黒い雲が見える」という観測結果を用いて、雨が降る確率の判断を修正したのだ。

 日常生活でのこうした判断の修正は、過去の経験などに基づいて直感的に行なっている。「ベイズのアプローチ」は、それを数学的に定式化したものだ。

 ベイズのアプローチでは、つぎの4つの確率を考える。
(1)第1は、「 いまの時期に雨が降る平均的な確率」。これをP(雨)と表記しよう(これは、「事前確率」と呼ばれる)。これは、過去のデータから分かっているとする。例えば、 P(雨)= 0.1だとしよう。
(2)第2は、 「明日が雨の場合に、黒い雲が出る確率」。これを P(雲/雨)と表記しよう(これは、「尤度」と呼ばれる)。雨が原因で雲が結果だから、これは、原因ー>結果の確率を示すものだ。
 この値は、過去のデータから、P(雲/雨)= 0.8であることが分かっているとする。
(3)第3は、「黒い雲が出る平均的な確率」だ。これをP(雲)と表記しよう。「明日が雨にならなくとも黒い雲がでることはある」ことに注意しよう。過去のデータから、P(雲)=0.1だと分かっているとする。
(4)第4は、「黒い雲が出ているとき、明日雨になる確率」だ。これを P(雨/雲)と表記しよう(これは、「事後確率」と呼ばれる)。知りたいのは、これである

 ところで、これらの間には、つぎの関係が成立することが知られている。これを「ベイズの定理」という(この式の証明はごく簡単だ。注を参照)。

 P(雨/雲)=P(雲/雨)x P(雨)/ P(雲)

 右辺の値は、先に述べたように過去のデータからすべて知られているので、これらを代入して計算してみると、P(雨/雲)は、0.8となる

事前にある判断を持っているが、情報が得られれば、その判断を修正する」というアプローチだ。つまり、学習をしていくのである。
 この時期に雨が降る平均的な確率は、0.1でしかなかった。だから、雲を観察していなければ、数日間外出する人は傘を持たずに出かけるだろう。しかし、黒い雲が観測されれば、雨になる確率は8倍にも高まるので、傘を持って出かけるだろう。このように、情報は、人々の行動に影響を与える

 この場合、P(雲)の値が大きければ、判断はあまり変わらない。黒い雲が見えても、それは「よく起こることが起きている」に過ぎないので、人々の判断に影響する度合いは小さい。
 しかし、P(雲)の値が小さければ、判断に与える影響は大きい。「滅多に起こらないことが起きている」ので、人々の判断に影響する度合いが大きいのだ。

(注) P(雨/雲)x P(雲)は、「雲がある時に明日雨になる確率」に「雲がある確率」を掛けているのだから、「雲があり、かつ雨になる確率」だ。同様の理由で、P(雲/雨)x P(雨)も、「雲があり、かつ雨になる確率」だ。したがって、両者は等しい。この両辺を P(雲)で割れば、ベイズの定理が得られる。


 ベイジアン・アプローチは、迷惑メールのフィルターとして実際に使われている。
目的は、あるメールが迷惑メールかどうかAIによって自動判定することだ。これを、そのメールに含まれている言葉で判定することにする。もしこれが一定率以上なら、迷惑メールだと判断して削除することにする。

 例えば、「キャンペーン」という言葉がメール入っているかどうかで判定することとしよう。
 あるメールに「キャンペーン」という言葉が入っていた。これが迷惑メールである確率はどのくらいか?つまり、P(迷惑 / キャンペーン) はいくらか? 
 この場合も、知られているのは、「迷惑メールにキャンペーンという言葉が入っている確率」、つまり原因ー>結果の因果だ。知りたいことは、「キャンペーンという言葉が入っているメールが迷惑メールである確率だ」。つまり、結果ー>原因だ。

 あるいは、迷惑メールの事前確率が分かっているとき、「キャンペーン」という情報で、その判断がどのように変わるかを知ることだ。上記の雨の分析と同じように、 p(迷惑)、 p(キャンペーン)、 p(キャンペーン/ 迷惑)が分かれば、これを計算できる。

 以上では、きわめて単純化された状況を考えた。しかし、実際の現象はもっと複雑だ。そのような問題を扱う手法も開発されており、実際にAIで活用されている。

 ベイズの定理は、18世紀のイギリスの牧師で数学者のトーマス・ベイズによって見出された。そして、フランスのフランスの数学者ピエール=シモン・ラプラスによって広められた。
 1950年代から、ベイズ統計学を支持する人たちが増えてきた(私が最初にこの考えに触れたのは、1960年代の末である)。しかし、正統的な統計学者は、この考えに否定的だった。正統的統計学では、「分布のパラメータに関する仮説を立て、得られたデータで検証する」という方法をとっていたからだ。

 最近よく使われるようになったのは、機械学習やビッグデータとの関連で有効利用が出来るようになったからだ。

AI関連note記事 目次

メタ・ナビゲーション

この記事が気に入ったら、サポートをしてみませんか?気軽にクリエイターを支援できます。

15

野口悠紀雄

経済最前線

日本経済最前線、世界経済最前線、AI(人工知能)、ブロックチェーン、仮想通貨、フィンテック
コメントを投稿するには、 ログイン または 会員登録 をする必要があります。