INDEX
突然だが、もしあなたに視力も聴力もなかったら、今この瞬間なにをしていただろうか?
今しているように「目で記事を読んでいる」という可能性は間違いなく真っ先に除外されるだろう。しかし、だとしたらどんな風に隙間時間を過ごしているだろうか?いかにして友人たちの近況や最新ニュースを入手するだろうか?お恥ずかしい話、スマホ依存気味で四六時中Facebookやニュースサイトにへばりついている私には、正直想像もつかない。
しかし私が高齢になって、もしかして目も耳も不自由になる頃には、それでもスマホを片手にSNSで孫の近況を楽しみ、人気の動画をチェックしてゲラゲラ笑っていることが可能になるかもしれない。
というのも、この一カ月の間に、GAFAのうちの二本柱であるGoogleとFacebookがそろって「アダプティブ・エンジニアリング」の波を感じさせるプロジェクトをリリースしたのだ。
アダプティブ・エンジニアリングとは、この文脈では「障がい者のためのIT技術」といったところだろうか。「アダプティブ」は直訳すれば「適応性のある」。英語圏では「アダプティブ・スポーツ(障がい者スポーツ)」に代表されるように、障がいを持つ人も健常者と同様に楽しめるよう応用を利かせた製品や分野に使われる用語である。
Facebookからは肌でメールを「読む」装置
先述の私の老後の青写真はなにも冗談ではない。この4月、Facebookは音韻を振動に「翻訳」するガジェットのプロトタイプを発表した。
音韻を振動に変換する装置のプロトタイプ(写真:MIT Technology Review)
手首にはめるギプス型の装置で、任意のタイミングでそれぞれの文字(音)に対応する振動を起こすアクチュエータが埋め込まれている。
点字やタドマ法(話者の唇・顔・喉に触れることで発話を読み取る技法)といった視聴覚二重障がい者のためのコミュニケーションツールに発想を得てはいるが、この技術を応用することでゆくゆくはスマートウォッチにこの機能を搭載し、「その場でしている会話や行動を一切遮ることなく、振動で着信したメッセージの内容を知る」などといったことが可能になるかもしれないとのこと。
こういった未来型のガジェットを開発するために、一昨年Facebook社内に発足したチーム「Building8」のリーダー・Regina Duganは、昨年の開発者カンファレンスでこのガジェットの基本となる彼らのグランドデザイン、「(文章を)脳で打ち、肌で聴く」システムへの熱意を語っている。
彼らが思い描く「帽子型のガジェットにより脳から直接発信される信号」は、文字ではなく意味を直接置き換えたものであり、相手が英語話者であろうがスペイン語・中国語話者であろうが関係ないという。
こうなってくると、例えば違う言語の話者と会話する場合、通訳を介して言葉でコミュニケーションをとる健常者と、この「信号」で直接会話する利用者、どちらがより言語的なハンデを背負っているかも怪しくなってくるだろう。
Regina Duganによるプレゼン
(動画:Facebook for developpers)
Googleからは周囲の情報を音声化するアプリ
一方Googleは、今月のI/Oディベロッパー・カンファレンスで、新アプリ「Lookout」のリリースを発表した。
こちらは主に視覚のみに障がいのある利用者向けのアプリで、「look out(見張り番)」の名の通り、利用者の周囲にあるものを「見張り」、その情報を音声にしてフィードバックしてくれるというもの。
「Lookout」アプリイメージ
(画像:designboom)
カメラを前方に向けて首からかけるか胸ポケットに入れ、「home」「work & play」「scan and experimental」の3つからモードを選択すると、そのシーンに見合ったナビが始まる。例えば「3時の方向にカウチ」といったように、知っておくべき情報を音声で知らせてくれる。レシピ本の中の文、トイレの位置、出口の表示、椅子。モードを選択次第こういった情報を処理して、邪魔にならぬよう最低限のコンタクトで知らせてくれる。
しかもGoogleのサーチエンジンと同様に利用者が増えるに従い、アウトプットの精度も上がっていくそうだ。
(動画:Youtube)
以前街なかで見かけた、視覚障がい者に付き添い、絶妙のタイミングで必要な情報だけを優しい声でひたすら言語化していたベテランガイドヘルパーさんを連想させるディテールである。未来のヘルパーさんは、ポケットに入るらしい。
そしてこの技術も言うまでもなく、将来私たちに全く新しい検索体験をもたらす可能性がある。
Fordからは景色を「指で観る」ウィンドウ
アダプティブ・エンジニアリングの潮流はIT業界に留まらない。
アメリカ自動車メーカービッグスリーの一つ、Ford Motorは今月、視覚障がい者が景色を楽しむことをサポートするウィンドウ「Feel the View smart window」を発表した。
任意のポイントでボタンを押すと、ウィンドウに内蔵されたカメラが車外の景色の写真を撮影。
このボタンが、普通のカメラでいうシャッターの機能をする(画像:de zeen)
写真の画像情報は、まず強コントラストのグレイスケール画像になり、次に窓に埋め込まれたLEDによって再現される。そのLEDが色の濃さに応じて225段階の周波数の振動を起こし、指で触れて読み取ることのできる「写真」に変換するのだ。
(画像)LEDが起こす振動に置き換えられた画像情報を指で読み取る(画像:de zeen)
更にこのウィンドウが搭載された車種のオーディオシステムには音声アシスト機能があり、周辺の景色に関する情報を状況に応じてアナウンスしてくれるという。
スタートアップ時のブレインストームでこのアイディアを得たFord of Italyのスポークスマン・Marco Alù Saffi氏はこう原点を回顧する。
「私たちは人々の人生をより良いものにしたいのです。(中略)テクノロジーは最新鋭ですが、思いはシンプルです。そしてその思いがありふれた旅路を本当に思い出に残るものへと変えたのです」(de zeenより)
一方プロジェクトに携わったイタリアのクリエイティブ・エージェンシーGTB RomeのFederico Russo氏はこのように展望を描いている。
「この技術の開発の途中で私たちは、まったく新しい言語を産み出していると気づきました」としたうえで、「このイノベーションは現時点では車で利用するためのものですが、将来は学校などの機関で視覚障がい者が様々な用途に使えるツールになるかもしれません」(de zeenより)
だれの生活をも豊かにし得るアダプティブ・エンジニアリング
「障がい者向けの技術」と聞いて、自分と関係のないものという印象を持つ人も多いだろう。実際内閣府の調査によると、日本国内でなんらかの障がいを有する人口は全国民の6%程度だといわれている。
しかしここまでの例でも明らかなように、アダプティブ・エンジニアリングは一般の利用にもインスピレーションを与え、私たちみんなのIT機器の利用をより便利に、より豊かにしてくれる可能性に満ちている。ましてや近い将来、超高齢化社会が到来すると言われる日本おいて、そのニーズが特定の障がい者だけに留まるとは考え難い。
例えばPCやスマホのない生活を知らないデジタルネイティブが、障がい者や高齢者となりアクセシビリティが下がった時には?
全員がIT機器から離れていくという予想は、かなり非現実的に思える。
早いもので、物理学界の巨星・スティーヴン・ホーキング博士の訃報からもう2カ月以上になる。彼は60年代にはALSを発症し、余命2年を宣告されていた。私たちが現在簡単に、かつ詳細に彼の膨大な宇宙論に触れることができるのも、意思伝達装置が彼の脳とこの世界をつないでくれたおかげである。
アダプティブ・エンジニアリングはそれを必要とする利用者のインプットをサポートし、業界全体に新しいインスピレーションをもたらす。そして時に、量子宇宙論を後世に残すツールにもなってくれるらしい。
ここまで書いてもなんだかまだSFのように感じるこれらの新技術が、今後どんな展開を見せるのか、楽しみに見守りたい。
文:ウルセム幸子
企画・編集:岡徳之(Livit)
eye catch img: busitry-photo