いつも空港で止められる悲劇も…。

AppleがiPhone Xを発売して以来、Face IDによる顔認証がスタンダードになろうとしています。いまや保安対策のため、空港や劇場などでも、本人確認に顔をスキャンしてはセキュリティチェックを進めるところも増えてきました。でも、どうやら、認識ミスで足止めを食らう人が、常に一定の特徴をもっているというケースが少なくないんだとか！

このほど、米マサチューセッツ工科大学のMIT Media Labの研究者たちが中心となって、顔認証システムで基礎になっている、人種や性別のデータベースごとの認識精度などを分析調査。その結果、女性よりも男性、浅黒い人よりも色白な人のほうが、明らかにシステムの認識精度が高まることが判明しています。数年前にも、似たような指摘がなされてはいたものの、あまり状況は改善していないという残念な現実が存在してもいるようですね。

顔認証システムのベースとして、何千万という顔写真を読み込んでは、認識精度を高めるトレーニングが実施されています。でも、そのベースとして有名な｢Adience｣は、86％のトレーニングデータを白人の顔から採用。同じく業界では大手の｢IJB-A｣も、やはり79％のトレーニングデータを白人の顔写真に絞っていることが明らかになっています。逆に黒人女性のデータは、Adienceでは7.4％、IJB-Aでは4.4％しか用いられていませんでした。

こうして、断トツで認識トレーニングの量が異なっているわけですから、やはり、実際の顔認識率でも差が出てきてしまいます。Lenovoが採用している｢Face++｣のAPIでテストを進めると、浅黒い肌の女性の誤認識率は34.5％だったのに対して、色白の男性の誤認識率は1％未満に！ 同じく、IBMが採用している｢Watson Visual Recognition｣のAPIでも、浅黒い肌の女性の誤認識率が34.7％と高かったのとは対照的に、色白の男性の誤認識率は1％未満でした。Microsoftが用いている｢Cognitive Services Face｣のAPIは、浅黒い女性の誤認識率が20.8％と、先の2社のAPIよりは精度が高いものの、こちらも色白の男性になると、ほぼゼロの誤認識率という違いが出てしまっていますよ。

今回の調査チームを率いた、MIT Media Lab研究者のJoy Buolamwini氏は、こうして女性や少数民族の人種ほど、認証エラーではじかれ、さらなる念入りなセキュリティチェックへと進まざるを得ない事態が続くならば、差別が差別を生みかねないと警告。単にトレーニングデータへの採用数が少ないことが原因なのであれば、やはり問題を認識して改善に努める必要があると語っています。顔認証方式が一般化すればするほど、特定の人種性別層だけ、うまく認識されない欠陥は、今後やはり着実に正されていかねばならないでしょうね～。





Image: Apple

Source: NYT

Sidney Fussell - Gizmodo US［原文］

（湯木進悟）