アスラーダ

なぜスマートスピーカーは流行ると断言できるかの話

前回スマートスピーカーの覇者はラジオかもしれないという話を書きました。

なぜこんなことを書いたかと言うと、私自身が現在仕事としてスマートスピーカー、というかその中身である音声入力によるアシスタントへの対応を全社的に進める&勧めることをしているからです。
今回は、なぜこの音声アシスタントがこれから来ると思ったか、会社として取り組むべきと考えたかを書いていきます。

■音声入力はなぜシェアを取れるのか

音声アシスタントは音声入力によってユーザーの課題(暇つぶし含め)を解決するもの。それがスピーカーにインストールされ家庭に置かれているのがGoogle Home、Amazon Echoといったスマートスピーカーです。スマートスピーカーはタッチスクリーンやキーボードでなく音声発話のみで入力し操作するものです。この音声入力というインターフェースが今後入力装置として一定のシェアを取っていくと考えています。

私たちはPCから始まりガラケー、スマホに至るまで、文字タイピングとカーソル(GUI)によって入力を行ってきました。ほとんどの人にとって文字を実際に書くよりも"打つ"時間が多くなっており自然になっています。しかしながら、当然文字を打つ行為はタイプライターが世の中に登場した後に作られ、人の方が時間をかけて適応していった入力方式です。
一方、声によるコミュニケーションは人が文字を生み出すより数万年も前から行われていたと言われています。現在においても赤ちゃんが初めに身につける出力は声です。言うまでもなく音声の方がコマンドとして文字タイプよりプリミティブであるため、入力形式として文字タイプから音声コマンドへ移行した場合その流れは不可逆となるでしょう。音声入力で最適化されたものは文字入力へは戻りません。音声の方が手間でないコマンドで既にこの置き換えは起こっており、例えばアラームやタイマーの設定はSiriへ音声入力で行っている人は多いのではないでしょうか。

■音声入出力の弱点

ここまで書きましたが、もちろんすべての入力形式が音声へ移行はしません。固有名詞や人名の入力は文字の方が適していますし、入力量が多いものも向かないでしょう。
スマートスピーカー等の音声のみの入出力限られるインターフェース弱点は下記と考えています。

・情報の効率が悪い
・結果を残せない、遡れない(コールセンターの煩わしさを思い出してください)ので比較検討などに不向き
・UIとして誘導できない

何よりも大きいのが効率の悪さです。発話スピード、再生スピードに縛られ1秒あたり5字程度しか伝えられません。文字で読めば1秒に10字ほど、内容によっては更に早くなり、速読というハック手法まであります。UIとして誘導できないのも困りものです。画面がありボタンを表示すれば人は押すでしょう。そこに説明を書けばどんな状況の場合に押すべきか指示・誘導することができます。しかし音声出力のみでは次に何をすべきかをユーザーに提示することは困難です。出来るとして「◯◯してみましょう」というスタートガイドレベルの提示だけであり、それを出し続けることも出来ません。結果、スマートスピーカーを買ってみた人の多くがそれを使わなくなり、文鎮化していくのです。

以上から、入力方法は音声のみになることはなく、スマートスピーカーはスマホを完全に代替しません。すべての人にパーソナルなディスプレイを提供できている現在の状況は素晴らしく、1つのゴールに到達していると言ってよいでしょう。その中で、一部の入力が音声になり、スマホの画面入力を介さない操作やサービスが一定シェアで登場、情報の伝達や価値として最高効率となる最適値になるでしょう。

■ビジネス面ではどう動くのがベストか

次にビジネス面。音声入力および音声アシスタント、スマートスピーカーはまだまだ未開拓領域です。特にこれだけ磨きこまれたPC・スマホUIUX分野と比較すれば誰も知見がなく手探りな状態です。

そもそも現在世の中に数多あるWebサービスは基本的にディスプレイを基にしたエコシステムやメディア環境から生まれているわけで、当然音声のみでの入出力環境でどうサービス提供するか、どう稼ぐかは答えが出ておらず(例えばラジオCM形式以外の広告手法がいくつあるでしょうか)、Webサービスをそのまま転用しても大きな利益は得られないでしょう。

このようにみんなが知見がない状態。そして不可逆変化であるならば、投資対象として十分な領域ではないでしょうか。実際、現在参加しているプレイヤーのプロダクト、アプリケーションを見るとユーザーベータ的なものが多く、この流れに遅れることは今後劣位につながってくる可能性は高いでしょう。

■未来に一歩でも早く。

声で機械を操作する。
機械との会話で家のことを制御したりサービスを利用する。
これらのライフスタイルはとても未来的です。そもそも「機械との会話」は僕達にとって小さい頃から身近でした。誰しもが21世紀、未来になったら猫型ロボットや便利な道具に囲まれる素敵な生活という夢みていたのです。
日本は古来から物事には神が宿るというアニミズムの思想の中を生きてきました。八百万(やおよろず)の神です。自然や身の回りの中には神や精霊がいて、それを畏れ祀ることで自然と上手く付き合ってきました。その考えは今でも日本人らしさの根底にあり、機械やコンピューターにも神を見出し、隣人として自然に会話することを自然と捉えることが出来るのです。
実際、映画やアニメを見てみると人工知能やロボットとの接し方が海外と大きく異なることがわかります。アメリカ映画では「A.I.」や「ターミネーター」等、テーマは人工知能が人間を超えるシンギュラリティを描き恐怖の対象、敵として描くものが多い(かつヒットしている)のに対し、日本では前述のドラえもんを始めとして人工知能やロボットがいかに人間性を獲得していくかが描かれることがほとんどです。「ベイマックス」が日本アニメ影響を受けているのは元より明白ですが、この意味でもとても日本的です。クレヨンしんちゃんの映画「ガチンコ!逆襲のロボとーちゃん」は名作なので是非観ましょう。
そんな日本ですから、機械と対話する未来は好意的に捉えられるでしょう。車の中にはアスラーダがいて、VR空間ではユイが飛び回り、機械はインプットすれば「ちぃ、覚えた」と回答し、EXAMやALICEはパイロットの代わりにニュータイプ並みの戦闘を…とこれは私の趣味ですが、実際2016年頭のCESではAlexa搭載の車が数多く出展されました。既にアスラーダの誕生は遠い絵空事の話ではないのです。
であれば、その未来に向かって歯車を動かしていきたい。それが私の想いです。


この記事が気に入ったらサポートをしてみませんか?