現代を生きる障がい者をスマートにサポートする「アクセシビリティ」
スマートフォンに「アクセシビリティ」という機能を設定できるものが増えているのをご存じでしょうか。音声入力や、音声のテキスト化ができます。この機能が普及したことで、身体に障害を抱える人の情報アクセスや、コミュニケーションの利便性は、格段に向上しました。
視認情報から判断する場面の多い現代生活。目の不自由をサポートするテクノロジー
現代生活では、目で情報を獲得し、判断する場面が沢山あります。
たとえば、日用品のパッケージや、街中の案内看板に車の往来、電車やカフェの空席などです。特に、人や車の往来が激しい都市圏は、それらの情報を知り得ないことで、道に迷ったり、事故に巻き込まれたりする確率が高まります。目の不自由な人をサポートするテクノロジーを見ていきましょう。
視覚障がい者の「1人で外出」をサポートする「あしらせ」
目の不自由な人が安全に外出するためには、視覚以外で情報を得ることが重要です。移動中は信号や車などの音、手にしている白杖(はくじょう、白い杖を指す)を主な頼りにします。
つまり、聴覚と触覚から次々にやってくる情報をキャッチし、処理しつづけなければならず、その負担は甚大です。結果、1人での外出を諦めてしまう場合も多いのが課題でした。
「あしらせ」は靴に取り付けたデバイスが振動で歩行者に合図を送り、目的地までナビゲーションしてくれるシステムです。スマホの専用アプリから目的地を音声入力すると、連動しているデバイスが足元を振動させて道順を知らせてくれます。
たとえば、両足の振動は直進の合図です。右折する角まできたら右足、左折する角まで来たら左足の、振動スパンが短くなります。音声案内よりも自分がどちらに進むべきか直感的に分かる仕組みになっているため、デバイスツールを利用しているというより、身体を拡張したような感覚をもてるのが特徴です。
これまで「安全面」「道順」の両方に留意しなければならなかった歩行者の聴覚を道案内で塞がないため、ユーザーが「安全面」への配慮に専念できるのが最大の利点です。