ピピピッ・・・ピピピッ
電子音がする。アラームだ。寝ぼけ眼を擦りながらメガネを見る。
メガネの表面には、現在時刻が表示されている。
「げ、もう七時半!?」
布団から飛び起きてパジャマを脱ぐ。メガネをかけると、今日の最初の会議まで残り28分と表示される。
歯磨きをして、朝風呂に入りながら今日のニュースをチェックする。
寝てる間に何があっただろう?
「アイナー、AI関連のニュースは?」
メガネに映る画面の片隅に女性の形をしたエージェントアプリを呼び出す。
アイナー・・・AINaAは、Augmented Intuisive Navigator and Automatorの頭字語だ。
自作のもので、24時間新しいAIニュースやReplicateで公開されたAIをチェックし、評価し、報告する価値があると判断したものだけを選別する。
<<一時間ほど前に、10テラトークン長のペンタモーダルモデルが公開されました。音声、画像、テキスト、動画に加えて、心拍数の情報も学習させ、人間が感動するような3時間の映画を自動生成できるという触れ込みで、現在動作確認中です>>
「三時間の動画生成を一時間でチェックしたのか?」
<<はい。私は人間の1000倍速以上で動画を視聴可能です。数百本試したところ、性能はStableMultiDiffusion-XL2に2.5ポイント差、GPT-9に1.3ポイント差まで迫っています。商用利用可能ですがオープンソースではなく制限ありです>>
とはいえ腹が減った。
風呂を出て服を着替え、マンションから外へ出る。
会議が始まった。
歩きながら会議に参加する。会議の参加者は4名。いつもの定期報告で、基本的には聞いているだけでいい。向こうの画面には僕のアバターが表示される。初代VisionProにも最初から搭載されていた機能だ。
歩きスマホは危険と言われていたが、それは昔話だ。今は誰もスマホなんか持ってはいない。
歩きながら自分の正面に資料が投影されている。
軽く警告音が鳴り、資料が透けて道が見える。
道の向こうから太ったスーツの男性が僕目掛けて真っ直ぐに突っ込んでくる。新宿駅によくいる、ぶつかりおじさんだ。
僕はメガネはぶつかりおじさんの輪郭を囲み、短く警告する。
<<警告 衝突コース>>
僕は十分な余裕を持っておじさんを待ち構え、ギリギリでおじさんをひょいと避ける。僕にわざとぶつかってメガネの一つも落としてやろうと思っていたおじさんはバランスを失って道に転んだ。
僕は立ち止まり、道に転がったおじさんをじっと見る。
おじさんは慌てて両手で顔を隠す
「と、撮ってんじゃねえよ!!!」
<<迷惑行為を撮影 データベースに送信します>>
メガネに内蔵されたAIは、おじさんの顔だけ見ているのではない。服装、腕や手の長さ、掌に浮かぶ血管から脈拍、「撮ってんじゃねえよ」という音声。それらのものは危険行為・迷惑行為だと認識されると自動的にデータベースに保存される。もしも次におじさんが他の人に同じようなことをしようとすれば、最新バージョンのメガネ・・・Apple Vision 10 ProMaxを装着しているユーザーであれば事前に警告される。
この機能のおかげで最新のメガネをかけているだけで疎まれることもあるが、やましいことがなければ自分たちの身を守ってくれる大切な道具になる。
会議が終わり、友人と昼飲みする約束があったのを思い出した。
移動しながらメガネでKeynoteを開く。
「空間コンピューティングEXPOのブース企画。A社向け」
<<承知しました。A社の業務内容を踏まえた上で空間コンピューティングEXPOのブース企画を考えます>>
Keynoteにさまざまな案が組み上がっていく。
フロアプランが一つ、二つ、三つ、四つと生成された。
「ちょっと待って、B案のバリエーションが見たいな」
フロアプランの一つが選択され、ミニチュアの立体物としてゆっくり回転する。
立ち止まり、辺りを見回して安全を確認する。公園の遊歩道。ひと気はない。本当はやらない方がいいが、この欲求に勝てない。
「VRで見せて」
フロアプランが一瞬にして実物大に変わる。
「これはなかなかいいな・・・ここのパネル、もっと文字を大きく、極太明朝体にして、メッセージは違うのがいいな」
パネルのメッセージの候補が四つ浮かび、パネルの状態で周囲を漂う。一つを見つめて空中をクリック。選ばれたパネルがあるべきところに収まる。
よし、これで今度のVRプレゼンはうまくいくだろう。
「ワンッ!!」
犬の鳴き声が聞こえて、空間の一部が現実世界に戻る。犬の周辺だけ現実空間が表示される。程なくして飼い主の姿も現れた。
周囲で近づいてくるものがあればこうして自動的にVRが解除される。安全装置だ。最近は歩きVRはやめましょうという張り紙があるらしい。でも張り紙なんて、今どき誰が見るんだ?
歌舞伎町を歩くと、いかがわしい広告を見つけアドブロッカーが起動し、「NSFW」と注釈をつけて見えなくしてくれる。見苦しいものは見なくていい。
歌舞伎町の店は入り組んでいて、一度行ったくらいではもう一度行くことさえ難しいが、メガネに詳細な道案内が矢印で表示されているからもう迷うことはない。VisionOS 15.6の新機能だ。
向こうから呼び込みが歩いてくる。
「お客さん、どこかお店をお探しですか?」
<<警告 このエリアでの客引き行為は法令で禁止されています>>
「鳥貴族に行こうとしてるんだけど」
目の前の人物は一見、優しそうな好青年で愛くるしい顔をしている。大学生のアルバイトだろうか。とても都条例に違反する行為をしているとは思えない。
「お客さん、鳥貴族ですか?あいにく今本店が満席で、系列店にご案内しますが・・・」
メガネが進化しても歌舞伎町は進化しない。
<<警告 このような誘いに乗るとは犯罪行為に巻き込まれる可能性があります>>
ウィンドウが表示され、近くの鳥貴族の混雑状況が表示される。平日の昼間なのに混雑してる。しかし、入れないというほどではない。その場で視線入力を使って予約を入れる。5分後に二名。
「予約があるんで」と、呼び込みをかわして先を行く。気がつくと矢印は三つ表示されていて、色が違う。赤の矢印は近いけど危険の多いルート。歌舞伎町にはそんな場所はいくらでもある。黄色の矢印はそこまで危険ではないけどできれば避けた方がいいルート。緑は遠回りだけど安全なルートだ。
緑の矢印に従って歩いていく。
メガネの普及によってテレワークの意味が変わった。通信可能範囲内ならどこにいてもいつでも会議できるし、仕事もできる。できないのは、気のおけない友人と酒を交わすことだけだ。こればっかりは、現地に行かないと話にならない。
目的のビルに来た。鳥族は五階だ。エレベーターに乗って五階のボタンを押す。
エレベーターを降りると、廊下にはスポーティなヘルメットを被ったUberEats配達員たちが並んでいる。結局こういうところはまだ自動化できてない。もしかしたらする必要もないのかもしれないが。
彼らの行列を掻き分け、奥にある目的の店にたどり着く。
店に入ると、店員姿のアバターがポップアップした。
<<いらっしゃいませ。奥のお席へどうぞ>>
席まで案内する矢印が表示される。
店内は客でごった返しているが店員の姿はない。猫型の配膳ロボットだけが右往左往している。
誘導された席に行くと、既に連れが座っていた。
「よ、元気してた?」
「ああ、もう頼んだ?」
「いや、まだだ」
空中にメニューが浮かぶ。
ハイボールがハイライト表示されていて、それを見つめ、クリック操作をする。
<<注文を承りました。しばらくお待ちください>>
程なくして配膳ロボットがハイボールを届けてくれた。
厨房には人が何人かいるのだろうが、今や店で人を見ることはほとんどない。
「最近気になるガジェットある?」
「あるある。今度Googleから出るらしいんだけど、これ見た?」
彼が空中で指を操作すると、こちらの画面に反応
<<空間シェアのリクエストが来ました。シェア開始しますか? YES/NO>>
YESを見つめて空中でクリック。
友人がシェアした空間アプリが空中に浮かぶ。
ごつい輪の形をしていて、ちょうどなかに頭が一つすっぽりと入りそうだ。
まるでそれは昔懐かしいヘッドマウントディスプレイのように見える。ただし、肝心のディスプレイ部分はない。VisionProから、ディスプレイを抜いてヘッドバンドだけにしたような状態。
「なにこれ?HMD?ヘッドマウントディスプレーじゃないよね?ディスプレーないし」
「これはHQD。ヘッドマウント量子デバイス。非接触型の量子センサーでなんだけど、脳のなかの量子状態をリアルタイムでスキャンできるんだ。もちろんメガネと一緒に使う。なに見ている時に脳にどんな変化が起きるのかをセンシングして、今みたいに選択肢を見つめて空中でクリックなんかしなくて良くなるのさ。考えるだけで全ての操作ができるようになる・・・らしいよ」
「へえ、バッテリーは持つのかね?」
「まだ最初の製品だからなあ。ただ、久々じゃん。こういう新しいガジェット」
「そうだね、VisionProが最初に出たのはもう10年前か・・・」
多分VisionProが開く世界、作ろうとしている世界はきっとこんな感じだろう。今は全然そこまで行ってないよ。でも10年後はたぶんこんな感じだと思う。
昨日、とある媒体から電話取材を受けて、「VisionProは危険性とかないんですか?大丈夫なんですか?」と聞かれて既視感を覚えた。ちょうど一年前、同じ媒体から「ChatGPTの安全性は?危険は?」と聞かれたからだ。今、ChatGPTについて真剣に心配してる人などいないだろう。考えるだけ無駄だ。
危険どころかむしろ便利になる。いかがわしい広告はブロックできて、ぶつかりおじさんや犯罪者は避けることができて、歩きスマホが危険じゃなくなるんだと(まあこれは本当かどうかはわからないが)。
VisionProの「現状」の機能やアプリだけを見てわかった気になるのは全くナンセンスだ。むしろこの新しい世界で、何が実現しそうか、何が自分にしかできない貢献なのか考えるきっかけになる。
この感覚は、iPhoneが登場した時に似ている。
いつも、本当に重要な変化が起きる時、ほとんどの人々が見逃すか、無視する。
何より素晴らしいのはVisionProは「非対称」のデバイスだ。つまり、「みんながVisionPro」を持っていなくても「俺だけがVisionProで無双」することができる可能性があるのだ。
昔の携帯電話の場合、相手も同じ会社の携帯電話である方が通話料が安かった。これは対称的なデバイスである。iPhoneは非対称なデバイスだった。相手が固定電話だろうがガラケーだろうがPCだろうがMacだろうが、誰とでもコミュニケーションすることができる。スティーブ・ジョブズが1995年に「インターパーソナルコンピューティング」と呼んだものの正体だ。
VisionProもまた非対称デバイスで、相手がMacでもiPhoneでもiPadでもFaceTimeで違和感なく(いや、多分違和感はあるがそのうち忘れる)コミュニケーションできるようになっているし、SMSやe-mailといった既存のデバイスも使える。VisionProの中でKeynoteやWordを使うことができ、その送付先は相手がPCでもMacでもiPadでもコンビニの印刷サービスでもいいようになっている。
iPhoneによって我々はパーソナルコンピュータを常に持ち歩けるようになったが、一つだけ大きな制約があった。それは空間的制約である。つまりiPhoneの画面はProMAXでも小さすぎる。iPadは大きいが、今度は重量的な制約がある。VisionPro初代は重たいしケーブルが不恰好だが、そこだけ除けば素晴らしいパーソナルコンピュータになる。Bluetoothキーボードを一つだけ持ち歩けばいい。これはHHKB Studioがもっと必要になる。何せ一台でキーボードとトラックポイントを搭載しているのだ。打鍵感覚はMacBookProよりいいし、何より全体の重量は減る。
VisionProをつけたまま歩くのは今のところ主に防犯上の心配がある。
何せ高級品だ。普通に強盗に迫られたら怖い。でもその不便を補うほどにVisionProには大きな可能性を感じずにはいられない。両手がフリーでコンピュータと一体化できる。コンピュータ、すなわちAIである。
スマートフォンはiPhoneが初めてではない。iPhoneは「最後発」のスマートフォンに過ぎなかった。最後発のスマートフォンが「新しいスマートフォン」の定義を作っただけだ。
VisionProは「最後発の空間コンピューティングデバイス」である。
そもそもHMDの歴史はパソコンの歴史と同じくらい古い。
アイヴァン・サザーランドが人類で初めて頭にディスプレイを装着したのは1966年のことだ。
動画を見ればわかるが、この頃からすでに「空間コンピューティング」への指向性が生まれていることは明らかだ。
ガラケービジネスで生計を立てていた僕がどうしてもiPhoneを無視できなかったのは、「それが世界を変えてしまう可能性」があったからだ。今となっては「iPhoneが世界を一変させた」のは既成事実だが、2007年にそうなるだろうと考えている人はほとんどいなかった。
その頃の僕のブログをログから回顧してみよう。
ちょうど日本ではiPhoneに先行してiPod touchが発売された頃のようだ。
ちなみに僕は北米のiPhoneは発売日にヤフオクで落札している。
以下、見づらい部分は編集してある
我ながら驚いた。なんと2007年の吾輩はiPhoneの将来を憂いていた。
まだ日本では発売もされてないし、それまでの携帯電話とは根本的に異なるものだからだ。
発売されたアメリカでさえトラブルが頻出していた。
その翌年、ついに日本でもiPhoneが発売される。
吾輩がどれくらいiPhoneの成功を願っていたのかはこの記事を読めばわかる。
しかしCNetすごいな。いつまでこの記事を保存しておいてくれるんだろうか。ちなみにこの時の行列こそがビッグウェーブさん誕生の場である。
近くにホテルと交代要員を携え、準備万端整え、日本で最初に発売されるSoftbankショップ表参道店に4日前から並んだ。
その発売当日の様子を3日後にこう振り返っている。長いので読み飛ばして良し