見出し画像

AI

(AIってなんぞ?)

AIとは英語で(Artificial Inteligence)だが実際にこれが何かと定義づけることは難しい。(時代によってAIができることが違うから)実は現在AI第三次ブーム真っ只中。以前に二回ブームがあったけど衰退していった。


(第一次ブーム)

1950~60年代で。その頃できることは『推論と探索』。例えばチェスなどでゲームのルールを教えたらうてるようになりますよ程度。ゴールやルールのあるゲームができるようになりましたレベル。まだまだ人には勝てない。AI大したことないやん、ポンコツやんで終わる。


(第二次ブーム)

1980~90年代。この頃は『エキスパートシステム』と呼ばれ、専門家らがひたすらに知識を教え込む。知識を蓄えられるようになった。この場合はこれで対処、あの場合はあれで対処などといった感じ。しかし、何か一つでも不備があるともうダメ。教えられたことしかできず守備範囲外のことはポカーンといった感じ。やれることは限られてんじゃーんで終了。


(第三次ブーム)

2000年〜。今回は『ディープラーニング』。実は10年ほど前からプロの間では有名だったが僕のような庶民が耳にするようになったのはごく最近のことである。2012年AIの世界大会で画像認識の精度を競っていたところカナダのトロント大学のチームが爆発的な結果を残し注目を浴びた。それがディープラーニング。つまり機械が自分で学習する(機械学習)。機械学習にはたくさんのやり方が存在するが今回使われていたのはニューラルネットワーク(人間の脳の仕組みを真似たシステム(詳しく言えばニューロンとシナプスの形を真似したものを何層にもしたもの))である。実のところ、ディープラーニングの概念は第二次の頃に生まれていたが実現にかなりの時間がかかっていた。というのも、機械が『過学習』してしまったため。



『過学習とは、例えば犬の写真を大量に学習させて動物の写真を見せた時に犬かどうかを判別できるようにプログラムしたところ、大抵の犬の写真を判別することに成功はしたが、耳が極端に短いイレギュラーな犬の写真が出てきた時に、これは耳が短いから犬じゃない!とパーンッと弾き出してしまった。人間ならば多少耳が短くとも他の要素からこれはおそらく犬だろうと予想ができるはずだが。』


ではどーやってこの問題を解決したか?

→『ドロップアウト』を採用した。



これはいくつものニューロンとシナプスの集合体で成り立つニューラルネットワークの道の内ランダムに一本を塞ぐというもの。わかりやすくいうと、犬の例で写真の動物を犬かどうか判断する時に(耳の形)、(尻尾の長さ)、(顔の大きさ)、(毛並み)、etcといったいくつかの判断基準のうち一個をランダムになくすことで他の判断基準に重きを置くようになること。人間ならば学校までの通学路がある日工事で通行止めになっていた時、裏道や迂回したりして目的地に辿りつくでしょ。そーすることでいろんな方法で学校にたどり着けるようになるわけ。いつも通学路だけだったらある日道が塞がれていたら何もできずに立ち止まってポカーンとしてしまうだけ。つまりドロップアウトにより全体的な把握ができるようになったってこと。


*ディープラーニング実現の背景にはテクノロジーの発展がある。ネットの普及とPC、スマホなどの性能の向上によりビッグデータが集められるようになったため。


ちなみにAIと合わせて覚えておきたいのは、みんな知っているかもしれないが

IoT、ビッグデータ、ロボティクス。。。。。


IoTとはものがインターネットにつながっている状態のこと(internet of things)ex)冷蔵庫にネットがつながっていればスマホで中身や温度がチェックできる(スマート家電)

ビッグデータはそのままでインターネットの普及でとんでもない数の情報が集まるようになったこと。

ロボティクスとは機械による作業のこと。


これらがAIとどう繋がるかというと、、、


(IoTが目の役割をし情報を得る)

(ビッグデータが知識を蓄える)


(AIが考えて施行する)


(ロボティックスが手の役割をする)


『これを夏の猛暑日に家に車で帰るといった状況で例えると、いつもこの人は車で帰宅後に家のエアコンをつけるという情報をIoTがゲットしてビッグデータに蓄える。そしてAIがだったらこの人が車で家の車庫に入ろうとしている間にエアコンつけちゃった方がいいじゃん!って判断して実際にエアコン(ロボティクス)が帰宅前に作動する』



(AIで実際にできること)

大きく分けて三層ある。

識別

(音声、画像、動画、言語)

予測

(数値、マッチング、意図、ニーズ)

実行

(表現作成、デザイン、行動最適化、作業自動化)


(Examples)


・Siriが音声+言語を認識し人の意図を理解し返答する。『Hey, Siri。今日暑い?』って聞いたら『多分ね。』って答える代わりにSiriが意図を汲み取り天気予報のサイトを表示したりする。


・NETFLIXのキャスティング。今若者にどんな内容のストーリーが受けているのか、どの俳優女優が人気で支持されているのかなどの大量のデータをビッグデータで集めてそれを数値化しニーズを予測してこの物語にはこの人をキャスティングすればオッケーといった感じに行動を最適化し、作業自動化してくれる。


・UberとかUber eatsの配車、宅配サービス。どの時間帯のどこで使いたい人が多いかをAIで導き出してくれる。


・クレジットカードも普段の買い物と異なる場所や時間帯、量のものが購入されることで、もしかしたら誰かに悪用されているんじゃないっか?って判断してくれるかも。


・サッカーでも過去の動画から選手全ての行動パターンやチームの作戦が割り出されるようになり、チームの作戦がAIによって導き出されるように。。そしてその作戦さえも相手チームのAIは予測して作戦に組み込んでくるかも。


ちなみに、、、

AIによってなくなる仕事というものがTVなどでよく議論されているが、

AIがもたらすのは圧倒的な便利さ!


実際に起こりうるのは仕事そのものがなくなるんではなくて、この仕事のこのタスクが消えうるだろう。っといった感じ。


『例えば、コンビニの店員は将来なくなりAIにとって代わられるだろうといった感じに議論されることがしばしばだけど、実際にはAIがとって代わるだろうことはレジ作業やお金の勘定やバイトのシフト表作成などといったことで商品の補充やゴミ捨て、バイトのシフト連絡などは人が必要なんじゃないすか。』


❇︎つまりなくなるタスクがわかっていれば仕事のやり方を変えられる。

コンビニレジがなくなることがわかっていれば商品補充とゴミ捨てにこれから専念して日本一早く正確な商品補充とゴミ捨てのエキスパートになれば将来仕事を失うことはなくなるのでは。(例えがゴミで申し訳ないが)



(AIにできないこと)

1.導入の4つの壁



①AIへの理解:今まで説明してきたこと。


②AIへの適応:自分の仕事や会社にどのようにAIを落とし込むか。(AppleとGoogleでは使い方が異なる。(スマホの顔ロックやSiriとGoogle翻訳))


③スタッフの準備:AIをただ導入してもそれを使いこなせるスタッフや職員がいなければ正しく機能しない。


④コスト・ミス:多額の費用とAIは多くのデータを元に最適解を発見するがたまにミスをする可能性もある。(AIに任せるタスクの重要度(会社の今後に関わる判断をAIに丸投げなど))


2.汎用AI



めちゃくちゃ簡単に言えばドラえもん(AIの中のAI)は現在作れない。のび太がボコボコにされて『助けてドラえもん!』っていったら、『またジャイアンに殴られたんだろう。』と予想したり、一緒に遊べて会話もできてご飯も食べられるAIはなかなか作れない。個々のパーツはできているがそれを一つに凝縮するのはまだ第三次にはできない。

なぜか?

→二つの壁


フレーム問題



枠の中でした考えられない。

洞窟の中のバッテリーをロボットにとって来いと命令した面白い実験がある。実際にはバッテリーの上に時限爆弾がくっついているんだが。

ドラえもんならば洞窟から爆弾を取り除いてバッテリーのみをいとも簡単に持って帰ってくるだろう。


実験1)初号機にバッテリーをとってくるよう命じたとこ時限爆弾ごと持って帰ってきた。(人ならば爆弾があればそれを置いてくることは当たり前だがロボにはこれを察することができない。そのデータがないため。かといってそのデータを入れりゃいいじゃん!って話でもない。そもそも爆弾が何かにくっついている状況など滅多にない。爆弾の代わりに毒が塗られていたら、もしくはバッテリーに火がついていたら。そんな無限の可能性を全て入力は不可能。)


実験2)二号機に二次的な要素(爆弾が置いてあれば置いてくるなど)を考慮してねっと命じた。そしたら二号機はバッテリーの前で永遠に立ち止まっていた。というのも二次的要素を考慮しすぎてずっと考え込んでしまった。(バッテリーを持ち上げたら壁が崩れるかも、バッテリーの下にスイッチがあり持ち上げると爆発するかもなど)


実験3)三号機には二次的な要素を考慮した上でそれが命令に関することか命令に関しないことかの状況も把握しなさいと命じた(バッテリーをあげたら壁が崩れるは命令に関係ない)。すると三号機は洞窟の前で立ち止まってフリーズした。命令に関することは洞窟に入ってバッテリーを持ち帰ることだったが命令に関しないことが無数にありすぎてそれを永遠に考慮し検証してしまった。(雨が降ったらどうしよう、雪が降ったらどうしよう、お腹すいたなぁ、疲れたなぁ、このままどこか旅に出てみようかなど)


*つまり常識を教えるのは一番難しい。こういう環境で育ってきたからこれが当たり前であるといった周辺のデータを入力するのがとても難しい。


⑵シンボルグラウンディング問題



要するにAIはシマウマが理解できない。馬に縞模様がついているからシマウマっていう教え方だとAIは理解できない。人は縞模様の馬だよって言われれば通常の馬を見た経験と縞模様を知ることでおそらくあれがシマウマだろうなってわかるがAIは独立した知能であって経験の五感がない。見る、感じる、触れる、感動するといった感覚がないため『馬に縞模様がついているのがシマウマですね。🤖』で終わってしまう。シマウマ初めてみて、あれ多分シマウマだ!とはならない。


*人間は脳というものすごい複雑な物を持っていながら同時に見る、感じる、聞く、臭う、触れるといったようなセンサーも兼ね備えている。AIはまだセンサーから経験を蓄積できない


(AIの未来はどうなるんや)


1.GAFAと日本



近い未来には必ずいつかできると言われているものがいくつか存在する。一つの例が全自動運転。道路の混雑状況から目の前で起きるアクシデント全てに対応が可能な車を作ることはAIによってできると断言できるためGAFAはそこに大量投資している。この時に辛いのが日本でGAFAといったような世界規模のグローバル企業が存在しないため圧倒的なビッグデータが足りない。だから今勝っている大企業が次の未来も爆勝ちするといった未来が予測されている。だから国を挙げて投資している。


そこでどうするかだけど、その次を見越して狙うかGAFAの隙間を狙うか。日本には日本が特化した技術やサービスなどが存在するためそこにAIを導入してうまく利用してGAFAの大勝ちの流れについていくといった形になるのかも。もしくは差別化して新たなポジションを手にするか。ただ全体を取るのはなかなか難しいかなと思う。


2.スマホの次は何だろう?



ガラケー時代はスマホのような携帯で動画やゲームをできるようになり音楽も聞けて決済もできることは想像していなかった。スマホも当初は新バージョンが出るたびに新機能に驚かされてきたが最近では少し画質が良くなったとか画面がでっかくなった、顔認証がついたなど驚愕するほどの変化はなくなってきてガラケーの最後の方の時のようにあまりスマホに差がないんだったらできるだけ安いやつでいんじゃない?って感じな訳でファーウェイとかが人気な状態になっている。


ってことでスマホの伸び代はなくなり次なんじゃない?ってことで注目され始めているのがスマートグラスなどといったもの。手に物を持つことは少なくなるんじゃないだろうか。


3.シンギュラリティ(技術的特異点)



めちゃくちゃ意味不明の言葉だけど簡単に言えば人が作ったAIが人よりもすごいAIを作れるようになった時のこと。つまり人はAIさえも作る必要がなくなるため、『人類最後の発明』と言われている。人類は何もしなくてもAIが考えて作ってくれる世界。予想ではシンギュラリティーの到来は2045年。役25年後。だいたい僕が50手前に差し掛かるころかな。


しかし我々がイメージするAIが人間を不要と考え排除するといったようなターミネーター現象はまだまだ先のことで、その頃を予測した専門家が言うにはAIは人間の脳と一体化しているらしい。チップか何かを脳に埋め込んで脳の潜在的な力とAIのソフトの力で超えるといったSF世界。


その上で重要なのがルール作りなんだと。核と同じで大きすぎる力はあとあと、大変な目に会いますよね。例えば一企業が全ての人の情報を吸い出してもいいのかや軍事利用して武器作ってもいいのかなど。実際、軍事では今AIパイロットが一流パイロットの動きを分析し空中戦で制したらしい。

こんにちは!😁いつも記事を最後まで読んでいただきありがとうございます。日本人で交換留学する大学生が増えてきましたが、僕はまた正規留学といった違う立場からみなさんに留学の様子をお届けできたらと思います!! 皆さんの心優しいサポートが励みになりますのでお願いします!😊