筆者は強度の近視だが、眼鏡やコンタクトレンズのおかげで普段そのようなハンデを意識せず生活できている。技術が進歩すれば、IBMとカーネギーメロン大学（CMU）が共同開発している視覚障がい者の行動を支援する「NavCog」が実用化され、目の見えない人も外出しやすくなるかもしれない。

今回紹介する「LTCCS」は、音声会話をテキスト情報にリアルタイム変換して小型ヘッドマウントディスプレイ（HMD）に表示する、聴覚障がい者向けの支援デバイス。現在クラウドファンディングサービス「Indiegogo」で支援募集中だ。



会話を字幕化してHMDに表示（出典：Indiegogo） 会話を字幕化してHMDに表示（出典：Indiegogo）

LTCCSは「Live-Time Closed Captioning System」の頭文字で、会話をリアルタイムに字幕化するクローズド・キャプション・システム。ウェアラブルディスプレイに会話文が字幕のように表示され、耳の不自由な人でも会話に参加できる。



会話へ自然に入っていける（出典：Indiegogo） 会話へ自然に入っていける（出典：Indiegogo）

ディスプレイは、眼鏡やサングラスに装着して使う。字幕表示部分は景色が透けて見えるので、視界が妨げられない。



ウェアラブルディスプレイは眼鏡に装着（出典：Indiegogo） ウェアラブルディスプレイは眼鏡に装着（出典：Indiegogo）

付属マイクから取り込まれた会話は、スマートフォン程度の大きさをした「Raspberry Pi」ベースの処理モジュールで音声からテキストに変換される。テキスト情報は、無線でディスプレイに送られる。



処理モジュールはRaspberry Piベース（出典：Indiegogo） 処理モジュールはRaspberry Piベース（出典：Indiegogo）

Indiegogoでの目標金額は40万ドル。記事執筆時点（日本時間11月18日15時）で集まった資金はまだ2000ドル強。