【技】AI時代には話す素養が必要になるってわかりますか?
聴いてみよう
この記事は、Podcast「にゃおのリテラシーを考えるラジオ」の2023年12月6日配信の書き起こしです。
読んでみよう
にゃおのリテラシーを考えるラジオ
読書と編集の千葉直樹です。
このチャンネルでは、読書と IT 時代の読み書きそろばんを中心に様々な話をしています。
今回のタイトルは 、
【技】AI時代には話す素養が必要になるってわかりますか?
というものです。
雪が降る
水曜日はITを中心とした技術的な話をしています。
寒くなりましたね。
札幌は先週雪が降りました。
例年、雪がしっかり積もるのは12月半ばくらいからです。
いつもホワイトクリスマスになるかならないかなんてことが話題になりますが、クリスマスにはしっかり雪が積もっているという感じです。
そろそろしっかり雪に備えなければという時期になってきたということになります。
僕は寒い時期に生まれたせいか、寒い方が得意です。
ただ、冬に入ったらきちんと雪を見ないと体調を崩してしまいます。
雪がなくて寒いという状況に慣れていないというか、雪を見ると体が冬モードになるという感じなんですね。
人の体というのは不思議だなぁとこの時期になると思うのです。
寒いときにふさわしいUIは?
雪は降らなくても寒くはなりました。
この時期になると困るのは、外でスマホを使うことです。
先々週の746回目の配信でも愚痴りましたが、手が冷たくてタッチパネルの操作が辛いし、気温が低いとバッテリー持ちも悪くなりますよね。
だから、真面目に手で操作しなくてもいいユーザーインターフェースが欲しくなります。
僕はそういうユーザーインターフェースの有望株として、音声に期待しています。
音声UIはまだまだハシリ
ただ、音声によるデバイスの操作と結果のフィードバックはまだイメージしにくい状況だと思います。
多分、有史以来人が話すことに適切に反応できるものが存在しなかったため、そういうユーザーインターフェースがこなれるのには時間がかかるのだろうと思います。
ただ、そこにちょっとした道筋が見えてきたのが、今流行の生成AIなのではないかと思います。
AIというと、なんでもできる、任せてしまえるというイメージがありますが、多分それは願望なのだと思います。
何十年というスパンで見たらそういうものが生まれてくる可能性はありますが、数年という短いスパンで見たら何でもできるというよりは、新しいユーザーインターフェースを構成する一部の機能と捉えるのが適切な気がします。
実際、マイクロソフトはCopilotという形でパソコンのユーザーインターフェースを変えようとしています。
実はこのようなアプローチは結構前から始まっていました。
まずはスマートスピーカーで実験され、その機能が実はスマホにも載っています。
でも、未熟すぎてあまり使いものになっていないわけですね。
その原因は、人の話し言葉を解釈することと、上手に回答を組み立てることの両方がまだまだ下手くそだったからでしょう。
この下手くそだった部分を、大規模言語モデルでかなり改善できるようになったのだと思うのです。
ただ、大規模言語モデルを運用するのには、今までとは桁違いの情報とコンピューティングパワーが必要になります。
クラウド化によって情報量の問題はある程度クリアできて、次はそれを処理するコンピューティングパワーをどうするかという段階に入っています。
現状はコンピューティングパワーの大部分をクラウドが担っていますが、遠からずこの部分がエッジと言われる我々の手元のデバイスに収まるようになると思われます。
もっと簡単に言うと、手元のデバイスが話を聞いてくれて、必要に応じて何かを実行し、その結果をうまく話してくれるようになるのです。
目や手を使うものがなくなるわけではありませんが、僕たちが日頃やっている大半のことは、話すことで解決できるようになるでしょう。
必要なリテラシーが変化する
実際、話すだけで完了することって結構あるでしょう?
今はそのために会社が人を雇ったりしているのですよね。
世の中の仕組みは複雑ですから、それをAIが簡単なもの変えてしまうのは随分先になるでしょう。
でも、パソコンやスマホの在り方は激変するかもしれません。
今、スマホを鬼のように使う若い人の中に、パソコンの操作を苦手としている人が結構いるのは、その操作が前世代の古いものであるということを示唆しているのではないかと思うのです。
小さいタッチパネルで結構たくさんのことができるように、次の世代は音声でかなりのことをこなすようになるに違いありません。
ただ話すだけだったら楽じゃないかと思うかもしれませんが、それは勘違いです。
あなたは人が理解できる話し方をできているとおもいますか?
そう言われると自信がないという人は多いのではないでしょうか。
キーボードやタッチパネルの操作が苦手というのと同じように、音声での操作もある程度訓練をしないとうまくいかないと思うのです。
人に対する時と同じように、AIが言うことをきちんと理解し、AIがわかるように伝える必要があります。
それがある程度できるようになったら、多分外で画面を見る場面は劇的に減るでしょう。
独り言をブツブツ言っているように見えるイメージは今は違和感がありますが、AIとのやりとりが自然に近くなったらさほど気にならなくなります。
多分、今やっているパソコンやスマホの操作の半分以上は音声に移り、デバイスの形も見た目も全く変わってしまうでしょうね。
これ、すごく未来の話のように感じるかもしれませんが、多分数年で起きる変化だと思います。
パソコンやスマホがいつの間にか誰もが触るものになったように、AIがユーザーインターフェースになる時代のリテラシーは、より高度な知識と経験が求められるものになるでしょう。
字がきれいであることが事務処理に必須ではなくなったように、今必須と思われていることの中にいらなくなるものがいろいろ出てきます。
だとしたらあなたはどんなふうに変わっていったらいいでしょう?
ぜひ考えてみてください。
今回は、AIを使うために話す素養が必要になるってわかりますか?という話をしました。
今日はここまで。
マガジンはこちら
コメントはこちらで
noteのコメントだけでなく、LISTEN などでコメントをいただけると嬉しいです。
今後配信の中でお返事をしていきたいと思います。
おわりに
読書と編集では IT を特別なものではなく、常識的なリテラシーとして広める活動をしています。
ITリテラシーの基礎を学べるオンライン講座をやっています。
詳しい内容については、概要欄のリンクから、または「読書と編集」と検索して、猫がトップページに出てくるホームページをご覧ください。
概要欄にリンクがありますので、フォローいただけると嬉しいです。
この配信の書き起こしをnoteで連載しています。
今日もワクワクする日でありますように。
千葉直樹でした。
ではまた。
YouTubeはこちら
Podcastの聴き方
Podcastの聴き方は以下のnoteをお読みください。
この記事が気に入ったらサポートをしてみませんか?