見出し画像

GM(ゼネラルモーターズ )が事故を防止・回避するために実践しているPredictive Analyticsの中身とは?

一般社団法人ウェブ解析士協会の江尻会長に連れていってもらい、ラスベガスのMARKETING ANALYTICS SUMMITに参加しています。これは西海岸でも非常に大きなマーケティングのカンファレンスになります。今回の記事では、PREDICTIVE ANALYTICS SUMMITの中でのGMのMeltemさんの講演を書き起こしていきます。書き起こしだけではなく、日本語翻訳をするのにこの記事ではチャレンジしていきます。

--------以下、書き起こし--------

車の進化

車は1600年代から進化を続けてきました。1913年にマスプロダクションとして多くの人に使われるようになり、1940年には戦争用として、1980-1990年にモダンカーとして成立するようになりました。

1965年の未来の自動車に関する動画を見てみましょう。カーナビのようなものが登場したり、自動運転技術が登場していたりします。また、ダッシュボードがあり、車の中の様子がグラフで表示されています。アイスクリームを車の中で食べるシーンも。

そして、このほとんどが実現しつつあります。そうですね。アイスクリームを冷蔵する技術を除けば。

(会場爆笑)

こんな風に車はすでにインターネットとつながり、動くようになっています。2018年でセンサーがキャッチしているデータは25GB/時間になっております。これはNetFilxの4倍なんです。

こういた情報はエンジニアにより、安全に大切に使われています。

昔のデータのやりとりはこんな感じでした。

これがStandard CAN Packetsです。

今はさらに変わりました。左が今私たちが実際に受け取っている情報で、右が政府が欲しい位置情報です。では、こういった情報をどのようにして、AIや機械学習に活かしているんでしょうか?

GEでは、センサー情報、ストレージに関するクラウドテクノロジー、AI・機械学習の3つを元に(Re)Cognition Technologyを作っています。全てを人に返し、そのデータの全てを技術に返しています。

では、そもそもなぜ、私たちはコネクテッドデータを必要としていたのでしょうか。GEでは、以下の4つを実現したいと感が会えているからです。

・クラッシュなし
・混雑なし
・排出なし
・歩行者の体験

これらを実現するにはどうしたらいいでしょうか?

人は目的があり、認識をして、そのあと、知覚しています。

画像についてはどのように認識するでしょうか。どのくらい、明快に見えているか、解像度がそれぞれ違いますよね。

例えば、人間の場合、周りの音がするかしないか、によってやってくる車へのリアクションが変わってしまいます。うるさいと気づきづらいということです。ただ、COGNITIONの場合、ほぼそのあたりは変わりませんでした。

最初は、LIDAR、カメラやGDPです。そのあと、検出技術、最後はドライブのルートやスピード、ブレーキの作動になります。これをAIの場合、どうやるかというと・・・

こうなります。CNN(畳み込みニューラルネットワーク)でまず何がまわりにあるか認識し、Reinforcement learning(強化学習)でどのくらいのスピードで移動するか、調べ、どこにいくべきかをRNN(回帰型ニューラルネットワーク)で実装します。

現実にはRNN(回帰型ニューラルネットワーク)までには至っていません。

そこでコンピューターにもっと仕事をしてもらいましょう。これによって人間よりもよくしかも素早く最適化をしてくれます。(トレーニングなど)

”正しいモデルは何か”という質問から”正しいビルディングブロックは何か”という質問に変えるはずです。

ローゼンブラットのパーセプトロンを紹介します。視覚と脳の機能をモデル化したものであり、パターン認識を行います。シンプルなネットワークでありながら学習能力を持つのが特徴で、現在の機械学習アルゴリズムの基礎となっています。

こういったことを通じて、未来の車づくりを現実のものにしていきます。

サポートされた費用は、また別のカンファレンス参加費などに当てようと思います。