La technologie de reconnaissance faciale d’Amazon, Rekognition, a confondu une trentaine de politiciens américains avec des criminels, selon l’ACLU. Une preuve que l’intelligence artificielle n’est pas encore suffisamment fiable pour être utilisée par les autorités ou les gouvernements.

En pleine affaire Benalla, cette erreur commise par l’intelligence artificielle d’Amazon a de quoi faire sourire. Un rapport publié par l’ACLU (American Civil Liberties Union) révèle que le logiciel de reconnaissance faciale d’Amazon, Rekognition, a confondu 28 des 435 membres du Congrès américain avec des criminels.

Pire encore, une fois de plus, l’intelligence artificielle semble avoir fait preuve de discrimination raciale. 39% des personnes de couleur ont été identifiées comme des criminels, contre seulement 5% de blancs.

Amazon défend son logiciel Rekognition en affirmant que l’ACLU l’a mal utilisé

Suite à la publication de ce rapport, Amazon s’est déjà exprimé pour prendre la défense de son logiciel. Selon la firme de Seattle, l’ACLU n’a pas utilisé Rekognition correctement puisqu’elle a modifié les paramètres recommandés. Alors qu’Amazon recommande une marge d’erreur de 95%, l’ACLU l’a abaissé à 80%. Par ailleurs, Amazon recommande fortement que les résultats obtenus par l’IA soient confirmés par les yeux d’un humain avant d’être exploités.

Quoi qu’il en soit, cette fâcheuse erreur de l’IA d’Amazon nous rappelle que la technologie de reconnaissance faciale n’est pas encore suffisamment fiable pour être utilisée par les autorités. Si un algorithme confond une personne innocente avec un criminel, cela pourrait mener à une condamnation ou même à un assassinat. Malheureusement, certains pays comme la Chine et le Royaume-Uni n’ont pas attendu pour déployer cette technologie afin d’assister la police.