品川です。 屋内ナビゲーションを手軽に体感させてくれるアプリの紹介です。 iOSのARKitを利用しており、GPSの電波、ビーコン、QRコードは必要ありません。 ルートを事前に作成する必要がありますが、手順としては、iPhoneの背面カメラを進行方向に向けてスタート地点からゴールまで歩く、それで一つのルートを作成できます。 そのルートを歩くときに効果音、音声、振動でナビゲーションしてくれます。 メニュー言語やアナウンスは英語です。 作成したルートのデータはシェアできます。 特定のルートを安心して歩く、これはナビレコのコンセプトに近いと思います。 利用シーンとしては、 たとえば施設内で部屋のドアからエレベーターまでのルート、トイレまでのルートを作成しておけば、見えない人でも自由に行き来できるでしょう。 病院や劇場など、よく利用する施設内のルート、 豪邸に住んでいる人であれば、玄関からプールの入り口までとか。 VoiceOverがオフの環境でも利用できるので、ロービジョンの人にも有用なのではないでしょうか。 ナビゲーション機能を利用して歩くときには、安全面に十分配慮してください。 また、アプリの指示に頼りすぎず、自分の感覚を大切にすることも必要ですね。 ____________________ ルートの作成とナビゲーションの方法について、紹介してみます。 Clewアプリのホームスクリーンで、 「Save a route」ボタンを実行します。 まずは出発地点をアンカーポイントとして登録します。 このアンカーポイントにはテキストか音声メモで名前を付けておくことができますが、必須ではありません。 では、実際にルートを記録してみましょう。 アンカーポイントに名前を付ける場合は、記録を開始する前に済ませておいてください。 1. 出発地点をアンカーポイントとして登録するには、iPhone本体を水平に、画面を上に向けて持ちます。 壁などの目印があれば、iPhoneの上側面を壁に押し付けて、記録するとより確実なようです。 「Start alignment countdown ボタン」を実行します。 5, 4, 3, 2, 1, 0とカウントダウンされて、アンカーポイントが記録されたことがアナウンスされます。 「Anchor point saved. You are now recording a route.」 2. iPhone本体を縦に持ち、画面は自分の側に向けます。 背面カメラは進行方向に向いています。 そして、記録したいルートを歩いていきます。 3. 週着地点に到達したら、 「Stop recording」ボタンを実行します。 アンカーポイントにはテキストか音声メモで名前を付けることができますが、必須ではありません。 4. 終着地点をアンカーポイントとして登録するには、iPhone本体を水平に、画面を上に向けて持ちます。 壁などの目印があれば、iPhoneの上側面を壁に押し付けて、記録するとより確実なようです。 「Start alignment countdown ボタン」を実行します。 5, 4, 3, 2, 1, 0とカウントダウンされて、アンカーポイントが記録されたことがアナウンスされます。 「Anchor point saved. You may now name your route.」 5. テキストフィールドにルートの名前をタイプします。 日本語でタイプすると保存できないので、半角英語でタイプする必要があります。 「Save a route」ボタンを実行すると保存完了です。 6. 次の画面では、 「Clew Home Screen」ボタンを実行して、ホームスクリーンに戻りましょう。 もし今記録したルートを終着地点から出発地点にバックしてみたい場合は、 「Start navigation」ボタンを実行することで、ナビゲーションが始まります。 ____________________ 保存したルートを選んでナビゲーションを始めるには、 Clewアプリのホームスクリーンの画面で、 「Saved routes list」ボタンを実行します。 保存したルートが一覧表示されます。 それぞれのルートは新しい順に、名前と作成日時が表示されています。 1. 利用したいルートの名前の箇所を実行します。 2. 利用するルートによるナビゲーションは、出発地点から週着地点の方向か、あるいはその逆の向きかを選びます。 「Start to End」ボタン 「End to Start」ボタン 3. 登録したアンカーポイントで位置の調整をします。 登録したときと同じように、iPhone本体を水平に、画面を上に向けて持ちます。 壁などの目印があれば、iPhoneの上側面を壁に押し付けて調整すると、より確実なようです。 「Start alignment countdown ボタン」を実行します。 5, 4, 3, 2, 1, 0とカウントダウンされて、アンカーポイントが確認されたことがアナウンスされて、ナビゲーションが始まります。 4. 効果音や音声によるアナウンスを聞きながら終着地点に向かって歩きます。 iPhone本体を縦に持ち、画面は自分の側に向けます。 進むべき方向にiPhoneの背面カメラが向いていると、「チッ チッ チッ」というヤモリの鳴き声のような効果音が聞こえます。 「Turn around」 くるりと回って 「Turn left」 左へ曲がって 「Slight right」 少し右へ 「Proceed downstairs」 下り会談へ などのアナウンスをヒントに歩きます。 5. アナウンスを手動で確認するには、 「Get Directions」ボタンを実行します。 また、途中で終了するには、 「Stop navigation」ボタンを実行します。 6. 終着地点に到達すると、 「Good」ボタンと「Bad」ボタンが表示されます。 これはナビゲーションの制度を評価するもので、どちらかのボタンを実行します。 画面はホームスクリーンに戻ります。 ____________________ ところで、先日次のような記事が紹介されていましたね。 あくまでも特許の話なので実用化されるかどうかは分かりませんが、このような発想が生まれてくるというのはうれしいです。 アップル、視覚障害者などへ周囲の状況を触覚や音声で伝えるデバイス--特許取得 - CNET Japan https://japan.cnet.com/article/35154494/ また、Clewアプリでナビゲーションを利用しているときにはヒントとして距離も教えてくれますが、あくまでも目安です。 将来的にiPhoneの背面カメラが3Dセンサー、深度センサー対応になれば、物体までの距離測定の制度が上がるでしょうから、屋内ナビゲーションの利用にも活用されることになると期待しています。 ARKitを利用して屋内ナビゲーションを体感させてくれる「Clew Version 1.3.9」 with iOS 13.5 Voiceover: Voice of i -- 見えなくても使えるiPhone(ゲートウェイ) http://voicei.seesaa.net/article/475456553.html?1591314695