カリフォルニア大学ロサンゼルス校（UCLA）のコンピューター神経心理学者アリアナ・アンダーソンは、第1子を出産したときに新米ママのご多分に漏れず、赤ちゃんの泣き声をどう解釈していいのかさっぱりわからなかった。どんな泣き声、どんなわめき声も、出産後の脳には緊急警報のように響いたのである。

だが第3子が生まれるころには、いつのまにか赤ちゃんの「言語」を難なく解せるようになっていた。アンダーソンの耳は、赤ちゃんの泣き声のうち、どれが「おなかがすいた！」を意味し、どれが「おむつを替えて！」にあたり、どれがもっと深刻な状況、すなわち痛みを伝えるものなのかを学習していたのだ。

それと同じことができるように、アルゴリズムをトレーニングできないだろうか。アンダーソンはそう考えた。

5年後、1,700人を超える赤ちゃんと無数の泣き声の分析を経て、アンダーソンの人工知能（AI）翻訳機が完成した。「Chatterbaby」と呼ばれるこの無料アプリは、周波数の変化や「無音と音」の比率のパターンを解析し、赤ちゃんが泣いている理由を親たちに教えてくれるというものだ。

現時点ではアプリのヴォキャブラリーはごく限られており、空腹と不機嫌と痛みとを区別できる程度である。だが、このアプリを使う人が増えれば増えるほど、赤ちゃんの脳で起きていることを正確に解釈できるようになるはずだ。

自閉症発覚までの知られざる「格差」

このChatterbabyアプリは、新米の親や耳の聞こえない親、あるいは単に途方に暮れて睡眠不足になっている親たちを助けるためだけのものではない。膨大なデータを収集することで、泣き声のパターンの不規則性が自閉症のシグナルになりうるのか、そしていつの日か、泣き声をもとに自閉症を診断できるようになるのか、その可能性を探るためのツールでもある。

「脳の多様性」は、子どもの脳の発達が始まった瞬間から存在する。だが、自閉症スペクトラムのどこかに当てはまりそうな子どもが、そのうちのどれに分類されるかを特定するまでには、何年もかかることも珍しくない。

特に、歴史的に医学研究施設が対象にしてこなかった貧困層などのコミュニティでは、その傾向が強い。人は一人ひとり違うが、早い時期に独自のニーズに応じて励まされて世話をされた子ほど「定型発達」の世界でうまくやっていける点では、医師も教育者も意見が一致している。

アンダーソンは、ほとんどの自閉症研究が社会経済的に恵まれた白人層で実施されている点を指摘したうえで、「わたしたちは研究室を実際の子どもたちがいる場所に持ち出そうとしています」と語る。有色人種の子どもが自閉症と診断される時期は、一般に白人の子どもと比べて1～2年遅い。「こうした医療格差に対応するための手始めは、より良質なデータを集めることです」とアンダーソンは言う。

泣き声だけで機械学習モデルを構築

そこで登場するのが、Chatterbabyだ。このアプリの使用にあたっては、赤ちゃんの親は研究同意書に署名する必要がある。これにより、アプリを通じて記録された音声ファイルをUCLAが収集し、個人を特定できないようにしたうえで、HIPAA（Health and Insurance Portability and Accountability Act：医療保険の携行性と責任に関する法律）に準拠したサーヴァーで保存することが可能になる。

ユーザーにはアンケートへの記入も求められている。このアンケートは、発達状況が標準とは異なる可能性が高い乳幼児の特定に役立つものだ。例えば、視線回避や頭を打ち付けるなどの行動は、手がかりになる可能性がある。また、自閉症スペクトラムと診断された第1度近親者（親子、兄弟姉妹）がいる場合も、遺伝的要因から自閉症の可能性は高くなる。

このアンケート調査は、子どもが6歳になるまで毎年実施される。また、Chatterbabyアプリを通じて、2歳を超えた幼児用のオンライン・スクリーニング・ツールも利用できる。このため不安をもつ親が、かかりつけの小児科医とともに追跡調査をすることも可能だ。

Chatterbabyのすべてのコンテンツは、英語とスペイン語の両方で提供される。アンダーソンのチームは、そうしたすべてのデータと音声ファイルを組み合わせて、泣き声だけをもとに各種の自閉症を予測できる機械学習モデルを構築する計画だ。

あらゆる生理学的データを統合して読み解けるか

これは野心的な目標である。ブラウン大学の「危険因子をもつ子どもに関する研究センター（Center for the Study of Children at Risk）」の心理学者、スティーヴン・シャインコフなどの自閉症研究者は、泣き声のなかに神経学上の強力な手がかりがあることを実証している。とりわけ、泣き声のピッチ、勢い、響きといった音響的特徴に潜む手がかりは有力だ。そうした特徴は、専用のソフトウェアを使って視覚化し、定量化することができる。

だがそうした手がかりだけでは、おそらく診断を下すには不十分である、とシャインコフは指摘する。それよりも、声、行動、そのほかの生理学的データの組み合わせをすべて、ひとつのモデルにまとめるほうが有望だろう。「これらの異質な情報を統合することは、まさにAIと機械学習が真価を発揮できる分野です。ほかの方法では意味を読み解くことが難しいでしょう」と、シャインコフは語る。

そして技術的な可能性はあるかもしれないが、自閉症診断を幼い時期に下すことの有効性には疑問があるとシャインコフは釘を刺す。そうした時期の能力や課題の詳細は、解明されたとはとうてい言えない状態だからだ。

「偽陽性の誤診に危険がないわけではありません」と、シャインコフは言う。「（偽陽性の診断により）親の子どもに対する考え方や触れあい方が変わりますが、それ自体が子どもの発達に影響を与える可能性があるのです」

AIベースによる自閉症診断の分野はある程度進んでいるが、それに比べて脳の発達が通常とは異なる子どもの支援方法を巡る研究は大きく後れをとっている。また、利用可能な支援リソースの社会分布には偏りがある。

こうした現状では、アルゴリズムだけでよい結果を社会全体に行きわたらせることはできない。だがアルゴリズムが、その手始めになる可能性はあるだろう。