いや、信じたいよ？ 信じたい気持ちはあるのよ？

人工知能すごいすごい！ もう人間の出る幕じゃない！と思う反面、やっぱりあいつら（人工知能）信用できねーなってことはまだまだあります。特に画像認識。ニューラルネットワークを騙すのなんて簡単かんたん、朝飯前ですよ。

カリフォルニア大学バークレー校、ワシントン大学、シカゴ大学の共同研究チームが先日発表した論文は、ニューラルネットワークによる画像認識ははまだ欠点がたくさんというもの。とくに、判断が難しいとされるアドバーサリアル画像（adversarial image）に注目して研究されました。

実験で使用されたのは、IMAGENET-Aというデータベースにインプットされた7,500の画像。この画像は、iNaturalistというウェブサイトでユーザーがタグつけした何百万という動物画像、Flickrで同じくユーザーがタグ付けしたモノ画像からまず選択されました。

ここから画像認識技術で識別できない画像をあぶり出します。データベースのクラス別に画像をダウンロードし、画像認識用マシンラーニングで正確に識別できた画像を除外。残った中から高画質なものだけを選択しました。

論文では、一例としてトンボの画像をあげて解説されています。iNaturalistにあった8万1413枚のトンボ画像から、上記の方法でフィルタリングし8925枚までしぼり、さらにここからアルゴリズムで1452枚、マニュアルで選択して80枚にまで絞り込みました。

これらの画像がトンボとして認識されなかった理由は、例えば撮影時の天候だったり、写真の構成だったり、またトンボの一部が隠れていたり、写真全体を占める色やテクスチャによるもの。

その結果、上の画像の1つではトンボがバナナと認識されています。理由は明白、黄色いシャベルが写り込んでおり、こっちに注目してしまったため。同じような理由で、例えば以下の画像のキャンドルはかぼちゃランタン、泳ぐワニは神殿やハチドリと誤認識されてしまっています。

べつに、これは画像認識ぜんぜんダメだ！と悲観するための研究じゃないですよ。どんなシステムのどんなところで画像認識を苦手としているのかを割り出すのに必要な研究なんですから。画像認識は自動運転車にも倉庫で働く自動ロボにも搭載されているシステム。弱点を探すのは、ひいては自動運転車の安全性を高めるお仕事です。

今年初めには、ディープニューラルネットワークは3Dオブジェクトの向きを変えるだけで、対象物を誤認識してしまうという弱点を指摘する研究も発表されていました。

米Gizmodo編集部が画像認識に詳しいオーバーン大学のコンピューター科学のAnh Nguyen助教授に話を聞いたところ、｢倉庫で働くロボット、お家でアシスタントになるロボットを考えると、たとえば置いてあった鍵の向きでそれを鍵だと認識できたりできなかったりするのでは困りますね｣と日常でイメージしやすい例をだして、その弱点の重大性を教えてくれました。｢画像のアングルなどを少し調整してやるだけで、たとえば空港のセキュリティなどにも影響を与えるかもしれません｣と指摘しています。