人工知能（AI）を使った顔認識技術の精度が高まるにつれ、アプリ・ウェブからの個人情報流出や、またプライバシー侵害問題が深刻になりつつある。そんななか、カナダ・トロント大学コンピュータ工学科に所属するParham Aarabi准教授らが、「顔認識システムを妨害するAIアルゴリズム」を開発した。

同AIソリューションには、敵対性学習（adversarial training）というディープラーニングの手法が採用されている。「顔を識別するAI」と「顔認識処理を妨害するAI」が、互いに対立・競争し、学習が深化する仕組みだ。

研究者らは、プライバシーを保護を目的とした顔の画像にのせることができる「インスタグラム型フィルタ」を開発。同フィルタを使えば、アルゴリズムが画像の特定ピクセルを変更し、人間の目にはほとんど検出できない変化をつくりだしてくれる。例えば、画像認識AIが目のコーナーの特徴を抽出しようとしたら、妨害するAIが目のコーナーを調整して認識力を無力化してしまうという具合だ。

Aarabi氏ら研究チームは、同技術を開発するため、人種や照明など条件が異なるさまざまな画像データを使用した。結果、それまでほぼ100％の精度で顔認識を行えたシステムの認識率を、0.5％まで下げることに成功したという。なお単純な画像判断だけではなく、画像検索システム、感情判定AIなど、あらゆる顔認識技術の精度を下げることができるのが利点だという。

研究チームは、きたる8月にカナダ・バンクーバーで開催されるIEEEのワークショップ「MMSP 2018」で、今回の研究結果を発表する予定だ。Aarabi氏は、アプリもしくはWeb上における「個人情報の保護フィルター」として、自分たちが開発した人工知能を使用してもらえることを望むと話している。