【12月20日 AFP】米国立標準技術研究所（NIST）は19日、顔認識システムが特に非白人について、ひどく不正確な結果を出すとの研究結果を公表した。人工知能（AI）技術の導入が幅広く推進される中、新たな問題を投げ掛けることになりそうだ。

NISTによると、顔認識アルゴリズムには、異なる2人を同一人物と認識する「フォールスポジティブ（False positive、誤検知）」と、同一人物を認識できない「フォールスネガティブ（False negative、見逃し）」の双方がみられた。

多数のアルゴリズムで、アジア系とアフリカ系が「フォールスポジティブ」となる割合は白人の100倍超だった。

米国で開発されたアルゴリズムでは、アジア系、アフリカ系、先住民系で正しい結果が出ない割合が高いことが分かった。中でも「フォールスポジティブ」となる割合は、先住民系で最も高かった。

さらに、2つのアルゴリズムは、35%ほどの割合でアフリカ系の女性を男性と認識した。

空港や国境検問、金融機関、小売業界、学校向けの認証サービスからスマートフォンのロック解除といった個人使用まで、顔認識技術が幅広く導入される中、活動家や研究者らは、エラー発生のリスクが大きすぎると警告。誤検知により無実の人間が刑務所に送られる恐れがあるほか、技術を悪用してデータベースが作られ、ハッキングや不正使用につながりかねないと指摘している。(c)AFP