GoogleとOpenAIによる研究チームは、画像が提供されたときに、ニューラルネットワークがどのように画像分類するかを可視化するアプローチ「Activation Atlases」を発表しました。

論文：Exploring Neural Networks with Activation Atlases

著者：Shan Carter, Zan Armstrong, Ludwig Schubert,Ian Johnson, Chris Olah

所属：Google Brain Team, Google Accelerated Science, OpenAI, Google Cloud



本論文は、画像分類ニューラルネットワークの意思決定プロセスを視覚化するアプローチを提案します。

本提案を実証するために、画像データセット「ImageNet」で訓練された画像分類ネットワークInceptionV1（GoogLeNet）を用いて構築します。ネットワークは、約10層を通して画像データを段階的に評価します。下図のように、分類途中の画像の集合体がWebページ上に表示され、それが層の数だけビジュアライズされます。



Inception V1内の中間層に対するビジュアライゼーション

拡大や縮小も自由にでき、個々の画像にカーソルを合わせると、3つの特徴の比率も表示されます。人が見ても理解できるように作られています。

これらのことにより、ニューラルネットワーク内で何が起こっているのかをより理解できるのと同時に、ネットワークが誤った相関に頼って画像を分類したりなど、誤った分類をする要因を局所的に発見し修正することも可能です。例えば、以下の画像のように、サメっぽい画像の中に1枚だけ野球ボールっぽい画像が紛れているなど、明らかに違うことを発見することができるといった具合です。

オープンソース

Demo