ここ数年のフェイスブックは、機械学習やディープ・ニューラルネットワークのような人工知能（AI）分野に投資することで、中核事業のさらなる構築を進めてきた。そして世界中のどこよりも売上を伸ばしてきた。

そんななか、同社は2016年3月、これらのAIツールの一部を人々が自ら命を絶つことを防止するという、より崇高な目的のために使うことを決めた。確かにこれは完全に利他的な判断というわけではない。ユーザーが「Facebook Live」を使って自殺を中継するのは、ブランドにとっていいことではない。

自傷行為に着目した研究開発に力を注いでいるのは、フェイスブック、インスタグラム、中国の有望なヴィデオプラットフォーム「Live.me」のようなテクノロジーの巨人だけではない。研究病院の医師や米国退役軍人省でさえも、かつてないほど多くのデータを収集することで、AIドリヴンな新しい自殺予防プラットフォームをつくろうとしている。彼らの目標は、自殺防止につながる予測モデルの構築である。予防医学は最高の“薬”になるからだ。特にメンタルヘルスの場合には。

自殺防止のためのアルゴリズム

最近、もし自殺に関する話題を聞く機会が増えたのであれば、それはソーシャルメディアだけが理由ではない。疾病管理予防センターのデータによると、2014年の自殺率は過去30年で最高だったという。

予防措置は歴史的に、銃や錠剤へのアクセスを減らすこと、あるいはリスクをもっとよく認識するよう医師を教育することに重点が置かれてきた。問題は医師たちが50年以上にわたって、うつ病や薬物乱用の患者が自殺のリスクにつながると診断することによって、稼いできたことである。そして研究によれば、そうした治療が効く確率は、コイントスよりわずかに高いだけだという。

しかしAIは、自殺予備群をより正確に特定することで、彼らが行動に踏み切るはるか前に介入する機会をつくり出せるかもしれない。ある研究では機械学習を使うことで、人が2年以内に自殺を試みるかどうかを80〜90パーセントの精度で予測している。フロリダ州立大学の研究者たちは、テネシー州の200万人の患者の匿名化された電子健康記録を使用することで、鎮痛剤処方から年間のER（救急専門外来）訪問回数に至るまで、どの要因の組み合わせによって患者が命を絶つ可能性を最も正確に予測できるかをアルゴリズムに学ばせている。

彼らのテクニックは、フェイスブックが使っているテキストマイニングと似ている。フェイスブックはすでに、自傷行為を示唆する投稿を見つけたユーザーが報告できるシステムをもっている。これらの報告を利用することで、フェイスブックは類似の投稿を認識するためのアルゴリズムをつくり、現在は米国でテストが行われている。マーク・ザッカーバーグは個人の投稿で、ライヴヴィデオストリーム中に誰かに助けを求めることができる仕組みなど、フェイスブックが自殺予防のために手がけているパイロット版のサーヴィスについて説明している。

次のステップは、AIを使用してヴィデオ、オーディオ、およびテキストコメントを同時に分析することだろう。しかし、それにははるかに厄介な仕組みが必要だ。研究者は、人々が自分の痛みや感情状態について話す際に使うであろう言葉を、かなり上手く扱うことができる。しかしライヴストリームでは、テキストはコメント投稿者からのものしかない。ヴィデオそのものに関しては、エンジニアたちは裸の人を特定して知らせる方法をすでに見つけている。同じように銃やナイフの特定も始めているが、錠剤については相当に難しくなるだろう。

関連記事：「機微を読む人工知能」が人命を守る──FRONTEOとLITALICOが挑む「障害のない社会」（2016.12.12）

スナップショットからストリームへ

理想的には、さらに早い段階で介入できたほうがいい。ある企業はまったく異なる種類のデータを収集することによって、これを実現させようとしている。

MITからスピンオフした企業でDARPAが資金提供を行うCogitoは、人の音声を聞くだけでメンタルヘルス状態を把握するアプリを現在試作している。「Companion」（コンパニオン）と呼ばれるソフトウェアは、ユーザーが1日に発するすべての言葉を“聞き取る”ことで、うつ病やそのほかの気分の変化を示す口調を見つけ出す。言葉の内容を分析するのではなく、コンパニオンは声のトーンや力強さ、よどみなく話すかどうか、そして会話への関わり具合を分析する。またユーザーの携帯電話の加速度計を利用して、ユーザーがどのくらいアクティヴに動いているかどうかも測る。これらは、うつ病を察知するための重要な指標だ。

米国退役軍人省は現在、自殺リスクが高いと診断された数百人の元軍人のグループとともに、あるプラットフォームサーヴィスを試作している。同省が今年中に何らかの結果を出すことはなさそうだが、アプリはすでに、ホームレスになるといった自傷行為のリスクに結びつく大きな変化を特定できるようになっているという。本人自らが報告しない限り、診察者が気づきにくい変化である。

デヴィッド・K・アハーンは、マサチューセッツ州ボストンのブリガム・アンド・ウィメンズ病院で、コンパニオンを用いて既知の行動障害をもつ患者を監視するという別の試みを行っている。いまのところ、医師やソーシャルワーカーに患者のチェックを求めるような警告をアプリが通知することはほとんどないという。しかしアプリの真の恩恵は、患者の気分や行動の変化に関する情報が流れてくることにある。

診療所への訪問とは異なり、この種のモニタリングは、単に患者の精神状態をスナップショットのように切り取るものではない。「このような豊富なデータは、メンタルヘルスの本質を理解するうえで非常に役に立ちます」と、ブリガム・アンド・ウィメンズ病院で行動情報学およびeHealthプログラムを統括するアハーンは言う。「こうしたプログラムが、将来大きな価値をもつことになるとわたしたちは信じています」

コンパニオンに加え、アハーンはウェアラブル端末から得られる生理的指標、電話やテキストメッセージのタイミングや量といった、さまざまな種類のデータの動きが示す意味を調べている。予測モデルを構築し、適切な介入を行うためだ。

考えてみよう。あなたの携帯電話がもつすべてのセンサー、カメラ、マイク、メッセージを通して得られたデータは、あなたについての多くの情報を伝えることができるのだ。さらにいずれは、そうしたデータを使ってあなたは自分自身についても知ることができるようになるかもしれない。

ジムに行くのを何度か逃す、母親からの電話にかけ直すのを何度か怠る、ベッドに留まってしまうことが何度かある──そうしたあなたにとっては些細な習慣を機械は読み取り、警告してくれる。それは、使えば使うほど賢くなっていく。

これはまだ、少し先の話である。しかしいまでも、画面をスクロールしながらニュースフィードを見る際にアルゴリズムがあなたに何を伝えようとしているか、意識してみてもいいかもしれない。