アマゾンの「アレクサ」やアップルの「Ｓｉｒｉ」といった女性の声のＡＩアシスタントが性差別の偏見を助長するとの報告書が発表された/Amazon

（ＣＮＮ Ｂｕｓｉｎｅｓｓ） 国連教育科学文化機関（ユネスコ）がこのほど発表した報告書で、アップルの「Ｓｉｒｉ」やアマゾンの「アレクサ」など初期設定で女性の声が使われているＡＩパーソナルアシスタントについて、性別に関する固定観念を定着させ、性差別的な発言や乱暴な発言を助長すると指摘した。

報告書では、そうした女性の声のパーソナルアシスタントについて、「女性は愛想が良く従順で、いつも人を助けて喜ばせたいと思っており、ボタン１つ、あるいは音声で命令するだけで利用できる」という概念を固定させると警鐘を鳴らした。

ユーザーが性虐待的な言葉を浴びせた場合でも、ＡＩアシスタントからは受動的で丁寧な反応が返ってくるとも指摘。「女性は従順で、不当な扱いも我慢するという偏見を助長させる」などと述べ、「感情も意識もない非人間のコンピューターコードであるＳｉｒｉが、女性という異性で、男性の性的な誘いや嫌がらせに耐え、時には誘いもするという幻想を抱かせる」とした。

音声アシスタントはＳｉｒｉやアレクサに加え、マイクロソフトの「コルタナ」、グーグルの「Ｇｏｏｇｌｅアシスタント」の主要４製品すべてで、女性の声が初期設定として使われている。

ユネスコのサニエ・ギルセル・コラット男女共同参画局長は「ＡＩ技術の性別がどのように決められるのか。そして誰がそれを決めているのか」にもっと注目すべきだと訴えた。

今回の報告書に先立ち慈善事業家のメリンダ・ゲイツ氏は、ＡＩ業界の多様性の欠如に警鐘を鳴らし、この業界は「信じられないほど女性が少ない」と指摘した。影響力が強まるＡＩ業界において、この問題は重大な影響を及ぼしていると同氏は述べ、「女性や非白人を参加させないことによって、システムに偏見を焼き付けている」と話している。