G検定試験対策②人工知能の歴史

人工知能の歴史を振り返ってみたいと思います。

1936年チューリングマシーンというコンピュータの原型ともいえるのが考案される
1943年ニューラルネットワークの元となる形式ニューロンの考案、
1943年ノーバード・ウィーナーが人工知能の先駆けとなるサイバネティクスという言葉を用いた
1946年世界初の電子式コンピューターENIACが誕生
1947年チューリングが人工知能の概念を提唱
1950年アランチューリングがチューリングテストを示す
1950年アイザック・アシモフロボットの3原則を発表
1956年ダートマス会議開催 人工知能の本格的な研究が世界中で始まる。ニューウェル、サイモンによって最初の AIプログラム「ロジック・セオリスト」のデモが行われる

1965年人間と自然言語で対話するチャットボット「イライザ」が登場
1968年ミンスキーとパパートによって単層ニューラルネットであるパーセプトロンの限界を指摘
1968年 2001年宇宙の旅が映画化され、人工知能搭載したコンピューターHAL9000が登場する
1969年 フレーム問題マーカーシーとヘイズによって指摘される。
1969年 軍事用ネットワークのARPA-net稼働
1971年 ウイノグラードは積み木遊びで使われる英語を理解するSHRDLUのデモを行う
1970年インテルがマイクロプロセッサを開発
1974年実用レベルのエキスパートシステムマイシン」の誕生
1982年 日本で第5世代プロジェクトの開始
1984年 常識、知識をデータベース化するcycプロジェクトの開始
1986年 ニューラルネットワークの学習にバックプロバケーションを用いる(ディープラーニングの第一歩)
1991年World Wide Web(WWW)が実装され、インターネットの利用が加速
1997年チェスの世界チャンピオンであったカスパロフを人工知能「ディープブルー」が破る
2005年カーツ・ワイルシンギュラリティー仮説を発表
2011年IBMのワトソンがクイズ番組でチャンピオン2人を破る
2011年スマートフォンに音声認識アシストが搭載される
2012年Googleのセルフドライビングカーが公道で自立走行試験を開始
2012年ディープランニングを用いた人工知能がILSVRC(画像認識競技会)で圧倒的な成績を収める
2012年Googleの人工知能が猫の概念を学習することに成功
2015年人工知能が画像認識、で人間を超える性能を示す

Microsoftの研究チームが開発した音声認識システムが5.1%の誤認識率(人間同等)を達成
2016年Googleのが世界トップレベルの囲碁棋士を破る
2017年8月トヨタ、自動運転で脱・日本連合、エヌビディアとAIで提携
アウディ自動運転機能「レベル3」の詳細発表

2017年10月、日本でAIスピーカーの発売開始

将来予測
2020年自動運転車の実用開始
2029年プレシンギュラリティ(人工知能が1人の人間の知能を超える)
2045年シンギュラリティ(人工知能が人類全ての知能を超える)


人工知能歴史を簡単に振り返る

はじめに大雑把に人工知能の歴史を振り返りたいと思います。
人工知能研究はこれまで「ブーム」と「停滞」を繰り返してきました。
1956年にダートマス会議が開かれ、ここで「人工知能」という言葉が生まれます。その後、第一次人工知能ブームが起きます。第一次人工知能ブームでは推論・探索をすることで特定の問題を解く研究が進みました。しかし、いわゆるトイ・プロブレム(パズルなどおもちゃのような問題しか解けない)はできても、現実社会の問題は解けないことが明らかになり、第一次人工知能ブームは停滞します。


第二次人工知能ブームは1980年代に起こり、「エキスパートシステム」と呼ばれるコンピューターに知識を入れることで問題を解くというアプローチでブームが起きました。しかし、人間社会の複雑な問題を全て人間がプログラムを書くのは限界がありました。そして、第二次人工知能ブームは終焉し、人工知能研究はまたも停滞します。


その後、1990年代インターネットの普及、検索エンジンの誕生等により大量のデータを活用できるようになりました。そして徐々に機械学習が広がっていきます。
そして、「ディープラーニング」の隆盛により、第三次人工知能ブームが起こり、現在に至ります。



世界最初のコンピューターENIAC


ENIAC(エニアック)1946年、ペンシルバニア大学のムーア校で、モークリーとエッカートによって作られた電子計算機で世界最初のコンピューターとされています。
エニアックは、17468本もの真空管を使った巨大な計算機です。床面積は100平方メートル、重量30トン、消費電力は150キロワットにも達しています。
当時の真空管は故障率が高く、フィラメントが切れると交換しなければなりません。当時の真空管の平均寿命は約2,000時間でした。6分に1度、真空管のどれかが壊れて故障するという状態で、とても使い物になりませんでした。
しかし、エニアックの誕生はコンピュータはやがて、人間の能力を凌駕するだろうという可能性を見出すきっかけとなりました。


人工知能の本格的な研究が始まった「ダートマス会議」


1956年にダートマス会議が開催されました。アメリカのダートマス大学で開催されたのがこの名の由来です。この会議には世界の名だたるコンピューター界の権威が集まりました。その代表的なメンバーは、
マーヴィン・ミンスキー」「ジョン・マッカーシー」「アレン・ニューウェル」「ハーバード・サイモン」などです。マーヴィン・ミンスキー氏は人工知能最先端の研究をしている「人工知能研究所」のもとになる研究所を設立しました「人工知能の父」とも呼ばれています。ジョン・マッカーシー氏は人工知能のために、数学や理論学を知識で表そうとしました。コンピューターを動かすためのプログラム言語や、人工知能ソフト向けのプログラム言語の開発に深く関わりました。アレン・ニューエル氏は、ハーバード・サイモン氏などとともに「ロジック・セオリスト」というコンピュータープログラムを発表しました。これは「世界初の人工知能プログラム」と言われています。ハーバード・サイモンは1956年当時は、コンピューター科学と心理学を専門とする大学教授として、会社などの大きな組織での意思決定に関係する研究をしていました。
この4人は、後にコンピューター界のノーベル賞と呼ばれる「チューリング賞」を受賞しました。サイモン氏に至ってはノーベル経済学賞も受賞しています。
この会議では、当時のコンピューターに関する最新の研究成果が発表されました。
ダートマス会議は「人間の知能は機械で再現できる」という理念のもと、初期の人工知能プログラムや様々な理論を紹介し、約2カ月間話し合われました。

この会議の中で「人工知能(Artificial intelligence)」という言葉が生まれました
この頃のコンピューターまだ計算機程度の能力しかありませんでしたが、上記の4人を始め優れた研究者が人間の脳のように考えるコンピューターがつくれると盛んに議論を交わしました。その後、「知能の再現」が本格的に試みられるようになり、人工知能の研究が加速しました。
残念ながら、ニューウェル氏は1992年、サイモン氏は2001年、マッカーシー氏は2011年、そしてマーヴィン・ミンスキー氏は2016年1月に亡くなっています。


探索木


第一次人工知能ブームでは「推論」や「探索」の研究の時代でした。
まず探索ですが、探索は迷路を思い浮かべると分かりやすいと思います。
こっちに行った場合、あっちに行った場合で場所分けをしながら、どんどん進めていけば、いつか目的の場所にたどり着く、ということをします。
やり方がいくつかあって1つは「深さ優先探索」もう一つは「幅優先探索」です。
「深さ優先探索」はまず行けるところまで行ってみてダメなら次の枝に移るという方式で、メモリはそれほど必要ないが運が良ければ早く「答え」が見つかります。
「幅優先検索」はゴールまで最短距離でたどり着く「答え」が必ず見つかりますが、途中のノードを全部記憶しておかなければならないので、メモリがたくさん必要になります。


人間と自然言語に対応するチャットボット「ELIZA(イライザ)」が登場

1965年の第二次人工知能ブームの時に、ELIZA(イライザ)と呼ばれる人間と自然に会話ができる人工知能が開発されました。これは対話にあたって、あらかじめ設定されたルールを記述しておき、それをもとに患者と対話を行うシステムです。
イライザに何か言葉を入力すると、それに対して会話が成立するような言葉を返してきます。実際に機械が言葉をわかっているわけではないのですが、会話しているような感じになり、感情的に没頭する人も出た程でした。
現在はこのようなシステムは「人工無能」と呼ばれています。
このイライザの進化系が現在アップルがスマートフォン等でサービスを提供している「Siri 」です。


エキスパートシステム


1970年代に第二次人工知能ブームが起きます。エキスパートシステムはコンピューターに「知識」を与えて人工知能を賢くするという試みです。
エキスパートシステムとは、コンピューター技術の進歩により、データベース(知識)を利用することができるようになり、それによって、新しいソフトウェアが開発されるようになりました。その分野のエキスパート(専門家)のように振る舞うプログラムであることから、「エキスパートシステム」と呼ばれます。


エキスパートシステムで有名なものに「Mycin 」がありますが、その前に、その前身となるスタンフォード大学が開発したdendral(デンドラル)と呼ばれるエキスパートシステムがありました。未知の有機化合物を質量分析法で分析し、有機科学の「知識」を使って新たな有機化合物を特定するというものです。アメリカのエドワード・ファイゲンバウムという人が中心となって開発。
DENDRAL の後、エキスパートシステムで最も有名なMycin (マイシン)が、スタンフォード大学で開発されました。
「マイシン」は、1970年代にスタンフォード大学が開発した医療診断の中の血液疾患の診断システムとなります。500程度の知識をルールとして与えて、その知識に基づいて対話から診断を行うものになります。それ以外のことはできません。「マイシン」は、患者の様々な質問に答えていくと、その患者に合った薬を処方することができます。人間の医師に代わって診断することを目的として作られました。「if(もし)」〜なら「then(そのときは) 」〜というようなルールを記述しておき、マイシンと患者の会話を通じて、どのような薬が必要か特定していくという仕組みです。


この時、マイシンは69%の確率で正しい診断ができました。この数字は専門医などのベテランの医師にはかなわないものの、新人の医師や専門医以外の医師よりは、正しい判断ができることを示しました。
   このような結果にアメリカンをはじめ、日本や欧州など先進国各国で注目されるようになり、様々な分野でエキスパートシステムが作られました。

日本でも、当時の通産省が550億円を投じて「第5世代コンピュータープロジェクト」を発足させました。当時の通産省は、人の脳を超える人工知能をつくることを目標とし、医学の診断やその他の分野の高速な機械制御、正確な機械翻訳、自然言語処理など多大な期待を抱き、様々なプロジェクトを立ち上げました。


   この日本の「官民一体」で高度な人工知能を開発しようという状況に、DENDRALを開発したアメリカのエドワード・ファンゲンバウムは危機感を抱き、欧米で危機を煽りました。その後、エキスパートシステムによる人工知能の過熱ぶりは世界中でピークに達しました。この状況に日本のマスコミも大々的に取り上げました。


しかし、エキスパートシステムによる人工知能の開発は失敗に終わります。

実際に多額の資金が投じられて進められたにもかかわらず、出来上がったものは、期待されたものとは相反するものでした。
知識というのは、記号で書かれるような、言葉で書けるほど簡単なものではなく、常識のようなものがあって、初めてノウハウがわかります。コンピューターにはそれができないので、人間がすべてプログラムを書きコンピューターに指示をしなければなりません。     「マイシン」は確かに、「血液疾患の患者に見合った薬を処方する」という極めて限られたタスクの中では、有効だったわけですが、人間社会のような複雑な社会では、そのタスクは膨大です。「マイシン」は「血液疾患の患者に見合った薬を処方する」というタスクだけにもかかわらず、膨大な知識を教えなければならす、相当な時間や労力が必要になります。それをほかの病気全てで行うことは、現実的ではありませんでした。

このような理由により、エキスパートシステムによる第二次人工知能ブームは停滞していきます。


知識表現


意味ネットワーク

人間の記憶の一種である意味記憶の構造を表すためのモデル。
概念間のの関係をグラフ構造で表しています。
意味ネットワークは、「概念」をノードで表し、ノード同士をリンクの結び、、ネットワークして表現します。
人間は「哺乳類」に、哺乳類は「動物」に、動物は「生物」に属するとように、この世界に関する知識をグラフ構造で表し、概念をその関係性を使って記述していく方法です。
人間なら誰でも知っているような知識をどのように表現すれば、コンピューターが処理しやすい形になるのか。そのための基本的な研究として知識表現として進められましたが、その初期の研究の1つが意味ネットワークです。

CYCプロジェクト

・一般常識をデータベース化し、人間と同等の推論システムを構築することを目的とするプロジェクト
・世の中の全てを「概念(モノ、コト)」及びその「関係性」で記述

人工知能の新たなアプローチとしてCyc (サイク)プロジェクト呼ばれるプロジェクトが始まりました。
これは、人間の持つすべての一般常識をコンピューターに入力し、データベース化することによって、人間と同等の推論システムを構築することを目的としています。「Cyc」とはencyclopedia (百科事典)から由来しています。
1984年に米ベンチャー企業のダグラス・レナート氏によって始められましたが、人間の持つ常識はあまりにも膨大で、いくら書いても終わらず、30年以上たった現在も黙々と人手による入力作業が続けられています。


オントロジー

Cycプロジェクトの様な知識をコンピュータに記述することが、時間がかかって、いつ終わるかわからないということで、今度は、人工知能を研究する際に、「知識を記述すること自体」を研究するということが、行われる様になりました。それが、オントロジー研究につながりました。
オントロジーとは、哲学用語で「存在論」を意味します。
人工知能の用語としては、「概念化の明示的な仕様」と定義されます。
知識を書くということにしても、そこに「仕様書」があった方がいいという考え方のもと、始められました。著名な研究者としては、溝口理一郎氏が有名です。
オントロジーは、知識ベースを書くときに概念を用います。
概念間の関係には、is-a関係(上位・下位)、part-of関係(全体・部分)などがあります。そこで、推移律が成り立つかということを考えるのですが、しかし、part-of関係一つ取っても、なかなか難しい問題がありました。例えば、自転車と車輪の関係は、自転車は車輪を取られると自転車ではなくなりますが、車輪は自転車の部分である時もない時も車輪です。また、森と木の関係でいうと、森から木を一本除いても森であり続けるし、木も木のままです。人間はこの様な概念をうまく処理できますが、コンピュータには難しいということが次第に分かってきます。

このように、オントロジー研究による、知識を適切に記述することは難しいということになり、その後、オントロジーは、大きく分けて2つの流派ができました。「ヘビー・ウエイト・オントロジー」と「ライト・ウエイト・オントロジー」です。
「人間が厳密にしっかりと考えて知識を記述していくにはどうしたらよいか」を考えるのが、ヘビー・ウエイト・オントロジーで、「コンピューターにデータを読み込ませて自動で概念間の関係性を見つけようとのが、ライト・ウェイト・オントロジーの立場です。

ライト・ウエイト・オントロジーは、完全に正しいものでなくても使えるものであればよいという「ややゆるい」感じでした。
しかし、その考えが現実と相性がよかったのです。
その後、ウェブデータを解析して知識を取り出す「ウェブマイニング」や、ビックデータを分析して知識を取り出す「データマイニング」という手法へとつながっていきます。

こうしたオントロジー研究とウェブのLinked Open Data (LOD )も関係があります。
LOD とは、これまでのウェブは主に文書的情報を相互にリンクしてネットワークをつくっている、言ってみれば「文書のウェブ」であるのに対して、LOD は同様のネットワークをデータの間でつくります。
このためLOD は「データのウェブ」と呼ばれます。

その後、米IBMが開発する人工知能「ワトソン」が登場しますが、「ワトソン」はライト・ウエイト・オントロジーの研究がもとになっています。


この記事が気に入ったらサポートをしてみませんか?