＜人工知能が下した判断の根拠を明らかにする動きを加速させる必要がある＞

わが家は今、アマゾン・ドットコムのスマートスピーカー「アマゾン・エコー」にはまっている。なかでもお気に入りは音楽。エコーに搭載されたAIアシスタント「アレクサ」に一声掛ければ、家族の好みに合った曲を流してくれる――大抵の場合は。

ところが先日、思わぬことが起きた。アレクサが選んだのは90年代の一発屋ラッパー、サー・ミックス・ア・ロット。大笑いした後、私は真面目に尋ねた。「アレクサ、どうして？」。優秀なAIが、子供向けの音楽やビートルズを好むわが家にこの曲を薦めた理由を知りたかったのだ。

残念ながら、アレクサはその問いに答えられない。判断の根拠を明らかにする仕様になっていないからだ。

アレクサのようなAIアシスタントや自動運転車、自動会話プログラムなど、AIが自ら学習を重ね、独自の判断を下す自律デバイスが続々と登場している。だがその「思考回路」はブラックボックスで、AIの意外な選択に戸惑わされることもある。

【参考記事】AIを使えば、かなりの精度で自殺を予測できる

しかも、こうしたテクノロジーは司法や健康、さらには生死を左右する判断にまで関与し始めており、場違いな選曲といった笑い話とは比べものにならないほど深刻な影響をもたらしかねない。

そこで注目が高まっているのが「説明を求める権利」だ。AIがなぜこの曲を選んだのか、なぜここで高速道路を降りることにしたのかといった疑問に答えるよう要求する権利のことで、AIの判断プロセスがブラックボックス化している流れを食い止めようとする動きだ。

説明を求める権利は、アルゴリズムの透明性を高める取り組みの一環でもある。透明性が高まれば、AIが差別を助長する選択をしたり、特定の企業を不当に利するような事態を防ぎやすくなる。

この権利を重視する流れが特に顕著なのはEUだ。EUはプライバシー保護の新たな枠組みである「一般データ保護規則（GDPR）」を来年5月に施行予定。ユーザーの個人情報を入手した企業は、その情報をAIが処理するか否かを本人に通知し、AIの判断の背後にあるロジックについて情報提供することが義務付けられる。つまり、AIが個人情報に基づき特定の音楽や通行ルートを推薦するたびに、その根拠を説明する責任が生じる。