安心して散歩させてくれそうなEyeNaviアプリ 視覚障害者歩行支援アプリ

EyeNaviアプリを体験してきたので、そのレポートです。

視覚障がい者歩行支援アプリ Eye Navi アイナビ
https://www.computer-science.co.jp/website/eyenavi/

このアプリはiOS向けに開発されており、年内にリリースされる予定になっています。
現在ベータ版は配布されておらず、各地で開催されている展示会で体験できます。
次回は10月に開催予定の
日本ライトハウス展 ~全国ロービジョンフェア2022~ - 日本ライトハウス情報文化センター
http://www.lighthouse.or.jp/iccb/informations/nlt2022/
こちらに出展されるそうです。

9月は伊勢市のイベントに出展されておられましたが、会場は宇治山田駅のすぐ近く、便利な場所が展示会場だとありがたいですね。
和製スティーヴィー・ワンダーとも称される木下航志さんがゲスト出演されておられ、
ひなたのカムカムエブリバディを熱唱されておられました。

【コラボ!】木下航志さんと歌います! - YouTube
チャンネル名:Katsura Sunshine ・ 桂三輝
https://www.youtube.com/watch?v=Mq7uTgQwPxs


EyeNaviアプリを一言でまとめると、
周囲の状況を画像認識させながら安心して歩ける、
そんな印象を持ちました。
道案内とお散歩、二つの機能があります。

お散歩モードでは、点字ブロック、三角コーン、自動販売機、縁石などを検出して教えてくれます。
道案内モードでは、設定した目的地に向かってガイドしてくれますが、お散歩モードと同じく、検出した物の名前を教えてくれます。
どちらのモードでも施設情報を通知してくれますが、Google マップのデータを利用しているそうです。

EyeNaviパンフレット - YouTube
チャンネル名:CSI Computer Science Institute
https://www.youtube.com/watch?app=desktop&v=UPuNQQM0JWQ

徒歩ナビを利用できるアプリはいくつもありますが、そこに画像認識の機能が加わったことで、歩いている途中の障害物やランドマークに気付かせてくれる、安心感を与えてくれます。

信号の色も検出できますが、これはAYES OKOアプリのコンセプトとはやや異なります。
OKOアプリでは、検出した歩行者用信号があると、音と振動で持続的にフィードバックしてくれます。つまり、カメラが信号を捕らえている間、フィードバックし続けてくれます。それにより向こう側の信号の場所を確認できるというメリットがあります。
EyeNaviでは、「信号青」、「信号赤」と教えてくれますが、それは検出したタイミングでのみ、つまり1回のみの通知です。信号待ちの間、赤から青に変わるまで信号の色や、信号の存在の通知はありません。

この点については、改良中ということもあり、ユーザからのフィードバックで変更されるのかもしれません。
VoiceOverの音と重なってEyeNaviアプリの音声が聞こえにくくなったり、
施設の名前を通知するタイミングはその建物の前に通りかかった時点ではなかったり、
いろいろ改良してほしいことはありそうですが、かなり伸びしろのあるアプリではないかと思います。


ところで、iOS 16ではLiDARスキャナ搭載のiPhoneでドア検出できるようになりましたが、何よりもドア付近に書かれているテキストを認識してくれるので、店探しは楽になりそうです。
ロック画面でもジェスチャですぐに検出モードを呼び出せるというのはApple自前の機能だけあって、アドバンテージが高いです。

画像検出はまだまだ誤認識されてしまうことも多いですが、その癖を把握して、ユーザの歩行スキルも上げていけば、これまでよりストレスフリーな散歩ができそうです。
これからが楽しみな技術です。

やや変わり種になるのかもしれませんが、LiDARスキャナと画像検出、さらにトリガーを利用できるアプリとして、Dot Go Assistantがリリースされています。
たとえば、動物を検出したらカメラを起動して、すぐに写真撮影できますよ、だれかに送り付けるのに便利ですよみたいな使い方ができます。

Dot Go Assistant on the App?Store
https://apps.apple.com/app/id1596703329

三浦さんのブログで詳しく紹介されています。

Drafts about A11Y: 韓国Dot Incなど、画像認識AIによる物体識別プラットホーム「Dot Go」発表。認識結果からアクションをトリガーし視覚障害者の行動を支援。
https://accessibility-tech.blogspot.com/2022/03/dot-incaidot-go.html


いろんな画像を検出して、安心した歩行をしようとすれば1台のiPhoneでは賄えない時代がくるかもしれませんね。

右肩のiPhoneでEyeNaviアプリ
左肩のiPhoneでNaviLensアプリ
胸にはAra
腰にはNaviBelt
靴には、あしらせ
口の中にはBrainPort
おでこにオーデコ

これだけ装備していれば事故に遭遇するリスクは下がるかも。
まあエンビジョングラスのビデオ通話で人の目を頼る方が手っ取り早そうではありますが。