2000年代初頭にわたしが高校生だったころ、地方の病院でひとりの病理学者につきまとって夏休みの1週間を過ごしていた。地下にあるオフィスは基本的に毎日同じ様子だった。彼は体の組織を載せたスライドに顕微鏡で焦点を合わせながら、数分間にわたって覗きこみ、細胞の形、大きさ、周囲の状態について几帳面にノートに書きこんだ。十分なデータが得られると、電話をかけたものだった。「扁平上皮がんです」「鋸歯状腺がんです」「良性です」

ここ数十年のあいだ、医師たちは患者にがんの診断を下す際、十分に訓練された人間の病理学者の目に頼ってきた。いまでは、この非常に時間のかかる診断をわずか数秒で行うために、研究者たちは機械に学習をさせている。

『Nature Medicine』に9月17日付で発表された新たな研究によると、ニューヨーク大学（NYU）の研究者らがグーグルの既存のディープラーニングアルゴリズムを再訓練したところ、主要な2種類の肺がんを97パーセントの精度で判別できるようになったという。この種の人工知能（AI）は、画像中の顔、動物、物体などグーグルのオンラインサーヴィスにアップロードされたものを識別するのと同じ技術を用いており、以前から糖尿病性の失明や心臓病などを含む疾患の診断に優れていることが示されていた。

だが、NYUのニューラルネットワークは、これまで病理学者が為し得なかった方法を学習した。たった1枚の画像から、各腫瘍内に遺伝子変異が大量発生しているか否かを識別するのだ。

「本当の新規性は、AIが人間と同じくらい優れていることを示したことではなく、人間の専門家ができない識別が可能であることを示唆した点でしょう」。NYU医学部の病理学者で、本研究を主導したアリストテレス・シリゴスはこう話す。

グーグルのアルゴリズムを応用

これを実現させるためにシリゴスの研究チームは、まずグーグルが1,000種類の物体を識別するために訓練した「Inception v3」というオープンソースアルゴリズムを用いた。がん組織と健康な組織の画像を判別できるよう訓練するために、がんゲノムアトラス（TCGA）が公開する患者の組織サンプルから、何十万枚ものがん組織の画像をアルゴリズムに見せた。

Inceptionががん細胞を99パーセントの精度で識別できるようになったら、次のステップは腺がんと扁平上皮がんの2種類の肺がんの区別を学習させることだった。この2種類はともに最も多い肺がんのひとつで、毎年15万人以上がこのがんで亡くなっている。顕微鏡で見るといらだつほど似ているが、まったく治療法が異なる。正しく治療できるか否かが、患者の生死にかかわるのだ。

NYU病院のがん患者から採取した独自のサンプルでInceptionをテストすると、精度は若干下がった。しかし大幅に下がるわけではなく、88～97パーセントの正確性を維持した。

シリゴスに言わせれば、これは驚くことではない。NYU病院のサンプルは、より多くのノイズ（炎症、壊死組織、白血球など）を含んでおり、TCGAの凍結サンプルとは別の手順で作成されることもしばしばあったからだ。精度を向上させるには、病理学者がこのようなノイズの多い、別の手順でつくったサンプルに注釈をつければいい。そうすれば、アルゴリズムにこれらの要素を選択することも学習させられる。

しかし、これらの組織スライドに遺伝子変異が起きているか「見る」ようInceptionに学習させた方法は、人間の手助けにはならなかった。トリックを使ったように、アルゴリズムが自己完結的に学習してしまうからだ。

ディープラーニングのブラックボックス問題

シリゴスの研究チームは再びTCGAのデータを用いて、Inceptionにスライドの画像とともに、それぞれの腫瘍の遺伝子プロファイルを与えた。新たな画像で実験を行ったところ、どの画像にがん組織が現れているかを識別できただけではなく、特定の組織サンプルでの遺伝子変異も識別できた。

このニューラルネットワークは、病理学者は見ることができない腫瘍サンプル上のごくわずかな違いも認知できるように学習していたのだ。「これらのがんをもたらす変異には微細な違いがあるようだとわかりました。このアルゴリズムはそれを見つけることができるのです」とシリゴスは言う。

それらのわずかな違いは何であったのか。「わたしたちにはわかりません。微細な違いは（アルゴリズム中に）埋もれており、抽出方法は誰にも本当にわからないのです」

これは、ディープラーニングのブラックボックス問題と呼ばれるものだが、これは医学において特に重要だ。批評家たちは、このようなアルゴリズムを広範囲で使用する前に、まずアルゴリズムの作成者にとって内容が明快でなければならないと主張している。そうでなければ、いったい誰が患者の生死を分けるような不可避の間違いを捉えることができるだろうか。

しかし、コーネル大学にあるカリル・アンド・イズラエル・イングランダー精密医療研究所ディレクターのオリヴィア・エレメントのような人々は、どのように機能しているかわからなかったとしても、99パーセント正しい答えを得られる臨床試験を用いないのはばかげていると話している。

「正直に言って、この種のアルゴリズムを臨床試験に用いる場合、完全に解釈可能である必要はありません。ただ信頼できる必要があります」と、エレメントは話す。だが、完全に近い信頼性を得るのは簡単なことではない。病院が異なれば、腫瘍サンプルも異なる機器とプロトコルをもって扱われる。ひとつのアルゴリズムに学習させてこれらすべての多様な環境で正しい結果を導き出すのは、実に難しいタスクとなるだろう。

機械と病理学者が協働する未来

しかしそれこそが、シリゴスと研究チームが計画していることなのだ。今後数カ月、研究者らはより多様な情報源からのデータでAIプログラムの訓練を続ける。その後、米食品医薬品局（FDA）の認可を得られるよう、会社の立ち上げを検討しはじめるだろう。

コストと時間の問題から、腫瘍サンプルのシークエンシングは常に標準的な医療行為として行われるわけではない。腫瘍サンプルのデジタル写真を送るだけで、生存可能な治療の選択肢が即座に得られることを想像してみてほしい。これがこの研究が向かっている先なのだ。

「大きな疑問は、これは現行の手段を置き換えるのに十分に信頼できる手法なのか、ということです」と、スタンフォード大学がん研究所で生物医学情報科学ディレクターを務めるダニエル・ルビンは話す。これから実証作業を大量に行わずして信頼はできないのだと、彼は言う。

だがこれは、病理学者がコンピューターとともに働く未来を指し示している。「この論文が本当に示唆しているのは、画像中には人間が引き出せるよりもずっと大量の情報があるということなのです」

これは単なるデジタル病理学を超えたテーマだ。グーグルをはじめとする各社は、オープンソースコードとして入手可能な最先端のアルゴリズムを作成しており、研究者たちは独自に、比較的容易にAIプロジェクトを始めることができる。少しカスタマイズするだけで、これらのニューラルネットは腫瘍の画像にとどまらず、山のような生物医学の画像データを自由に活用する準備が整うのだ。

シリゴスに、「がん分類器」を訓練するためにボランティアをしてくれる仲間の病理学者を見つけるのに苦労していないかと尋ねた。シリゴスは笑った。シリゴスは、最初NYUの誰に対しても、このプロジェクトへの参加を依頼するのにはためらいがあったという。何といっても、将来の競争相手をつくる手助けをすることになるわけだからだ。

しかし結局、協力者を探すのは簡単であることが判明した。みなInceptionが何をできるか興味津々だったのだ。肺がんだけではなく、病理学者たちが抱えているプロジェクトについてもだ。

彼らは機械に取って代わられることを恐れてはいないとシリゴスは言う。機械は単純な問題に対応するため、病理学者らはより深い問題に取り組めることにわくわくしている。物体認識を機械に任せたとしても、人間にしかできない医療は十分に残されているのだ。

RELATED ARTICLES AIは医師のよき相棒になれるのか？ DeepMindが開発した画像診断システムの潜在力 グーグルの画像認識システムは、まだ「ゴリラ問題」を解決できていない──見えてきた「機械学習の課題」 グーグルの人工知能、今度は「モザイク画像の被写体を特定」する

[ 人工知能／AIに関する記事一覧 ]

[ グーグル／Googleに関する記事一覧 ]