機械学習は、耳の不自由な数多くの人々が、周囲の人々の話している内容を理解するうえで大きな助けとなる可能性がある。



提供：オックスフォード大学／Google DeepMind 提供：オックスフォード大学／Google DeepMind

オックスフォード大学とGoogle DeepMindの研究者らは、BBCが放映した数千時間にもおよぶコンテンツを用いた訓練によって、人の唇の動きを読み取る人工知能（AI）を開発した。このAIは人間の読唇術専門家よりもはるかに優れた成績を残したという。

BBCが所蔵するコンテンツから無作為に抽出された200本の動画を対象とするテストにおいて、人間の専門家（法廷で読唇術のスキルを提供したこともある人物）が正しく読み取れた単語の数は4分の1にも満たなかった。一方、研究者らが新たに公開したレポートによると、このAIシステムは同じ動画を対象とするテストで半数の単語を読み取ることができたという。

また、人間の専門家が誤りなく書き出すことができた単語の割合はわずか12.4％だったのに対し、AIは46％を誤りなく書き出せたとNew Scientistは報じている。

この技術は、「Siri」のような音声アシスタントに指示をする新しい手段としてスマートフォンに搭載される日が来るかもしれない。あるいは音声をベースとする音声認識システムの強化に利用される可能性がある。

同レポートには「機械が唇の動きを読み取れるようになることで、さまざまな応用事例が考えられる。例えば、周囲の音がうるさい状況で電話に指示やメッセージを『書き取らせ』たり、昔の無声映画のせりふを書き起こして音声を吹き替えたり、複数の人間が同時に話している内容の理解に役立てたり、自動音声認識機能の性能を全体的に向上させたりできる」と記されている。

AIを訓練して唇の動きを学ばせるうえで、大量のデータセットが必要だった。研究者らはBBCの6つの番組から、話す人の顔が映っている5000時間近くの動画を用いて訓練したという。

BBCのデータは合計すると11万8000の文章で構成され、登場する単語は1万7500種類強という、GRIDのような他の一般的な大規模読唇データセットをしのぐ規模だった。なおGRIDは、オックスフォード大学が最近発表した「LipNet」という、もう1つの自動読唇システムの学習に用いられている。

LipNetも人間の読心術専門家を超える成績を残したものの、訓練データに起因する制約に縛られていた。

オックスフォード大学とDeepMindの研究者らは、話している内容を唇の動きから識別するために用いたさまざまなモジュールの名称を集め、このニューラルネットワークを「Watch, Listen, Attend and Spell」（WLAS：見て、聴いて、関心を払って、つづる）と呼んでいる。これらのモジュールを協調させ、話し手の顔が映った動画から話している文章を予測する方法を学習させることで、AIは話し言葉を文字に書き起こせるようになるわけだ。

BBCのデータを使うもう1つのメリットは、さまざまな人間の声が含まれているという点にある。このデータにはおよそ1000人の話し手が登場しているため、読唇対象がどのような人であっても柔軟に対応できるようになる。その一方でGRIDは、34人の話し手が、定められた1000種類のフレーズを発話しているに過ぎない。

研究者らによると、過去の研究は限定された単語やフレーズに基づいた認識への取り組みであった一方、今回の研究は「制約のない自然言語の文章」と「ちまたにある動画」に力点を置いたものになっているという。

DeepMindとOxfordは、この分野の研究者らの取り組みに役立てるため、このデータを一般利用できるようにする計画だ。