NVIDIAは2015年5月26日、東京・秋葉原のベルサール秋葉原にて「ディープラーニングフォーラム2015」を開催した。既報のように、3月に米国で行われたGTC2015はディープラーニング一色で、それを受けて、4月に国内でディープラーニングセミナーを開催したが、定員120名に対して800人以上の申し込みがあり、大部分の希望者が参加できなかったという。

そのため、今回はベルサールのホールAに会場を移したのであるが、それでも540人しか収容できないところに1100名から応募があり、半分の人があぶれるという結果となったという。ということで、ディープラーニングに対する関心は、NVIDIAの予想を上回る熱気である。

ベルサール秋葉原で開催された「NVIDIA Deep Learning Forum2015」は満席の盛況

フォーラムでは、東京大学の松尾豊 准教授の「人工知能の未来-- ディープラーニングの先にあるもの--」と題する講演、NVIDIAの杉本チャーリー事業部長のディープラーニング関係のNVIDIAの製品やアクティビティーの紹介と、それに続いて、Preferred Networks、モルフォ、システム計画研究所、クロスコンパスの国内の各社からディープラーニングに関する取組についての発表が行われた。

通常のフォーラムであると、聞きたい発表だけを聞いて途中で帰る人もかなり見られるのであるが、このフォーラムでは殆どの人が最後まで残っており、この点でもディープラーニングに対する関心の高さがうかがわれる。

杉本事業部長は、昨年のGTC2014と今年のGTC2015でのDeep Leaning、Machine Learning関係の論文発表数が昨年は40件であったが、今年は85件と倍増した。また、昨年には論文が無かった創薬やセキュリティー分野でも論文が出てきたように、適用分野が広がっていることを示した。

2014年と2015年のGTCにおけるDeep Learning、Machine Learning関係の論文数。件数、分野ともに広がっている

上図は手書きの郵便番号読み取りシステムに用いられたニューラルネットであるが、始めの方のコンボリューションやサブサンプリングの計算はNVIDIAのディープニューラルネットワーク用のcuDNNライブラリを使って高速化し、後のフルコネクションの計算は汎用の線形代数パッケージであるcuBLASを使うとGPUを有効利用して高速化できるという。

ディープラーニングでは非常に大きな数の入力サンプルを使って学習することが性能向上には欠かせないが、次の図は1日当たりで学習できる画像の数を比較したもので、16コアのXeon E5-2689 v3では1日2.5M画像であるが、GTX Titan GPUを使うと18Mに向上し、Titan BlackとcuDNN v1では23M、Titan XとcuDNN v2を使うと43M画像まで性能が向上するという。GPUが異なり、ハードウェアの性能に違いがあるが、それでもcuDNN v2はかなり大きな性能向上を実現している。学習速度は開発のターンアラウンドに直接効くので、開発者にとっては重要なパラメタである。

16コアXeon CPUと3種のGPUシステムの学習速度の比較

NVIDIAはTitan Xを4台搭載し、ディープラーニングの開発環境もプレインストールした「DIGITS DEVBOX」というシステムを発売している。DIGITS DEVBOXは、データ入力からニューラルネットの記述、ラーニングのモニタリング、各層の出力の可視化までサポートしており、ディープラーニングの初心者でもすぐに使えるようになっているという。NVIDIAは日本ではDIGITS DEVBOXを発売していないのであるが、G-DEPが販売しているという。

また、日本では最大のGPUスパコンである東京工業大学(東工大)の「TSUBAME」は約20%の計算能力を産業界に開放しており、これを利用してディープラーニングの開発を行うこともできる。なお、NVIDIAの開発システムであるDIGITS DEVBOXのソフトのソースコードは共有WebサービスであるGitHub上に公開されており、これをダウンロードして自由に使用することができる。