＜AIアシスタントが何かたくらんでいるのか？ 勝手に笑い出したり殺人指令を出したりしてアマゾン・エコーのユーザーを震え上がらせている＞



アマゾンのスマートスピーカー「アマゾン・エコー」に搭載されているAIアシスタント「アレクサ（Alexa）」が、あるユーザーに「里親を殺せ」と告げたことが明らかになり、物議をかもしている。

ユーザーの詳しい身元は明らかにされていないが、2017年にアレクサがこのように話すのを聞いたという。ユーザーはアマゾンのウェブサイト上のレビューでこの件に触れ、「これまでとはレベルの違う不気味さだ」と製品を酷評したと、12月21日（米国時間）付のロイターの記事は伝えている。

アマゾン社内の匿名の情報源によると、この「里親を殺せ」という発言は、インターネット掲示板レディットの書き込みを、文脈に関係なく読み上げたものらしい。レディットは幅広いトピックを扱うオンラインフォーラムとして知られるが、その中には知り合いには見せられないようなものもある。

アレクサの奇妙な言動はほかにも報告されている。同じロイターの記事では、詳細は不明だが「性行為」に関する話や、犬の排便について語り始めるケースもあったという。

エコーを封印したくなる不気味さ

オンライン小売大手のアマゾンは、アレクサが本物の人間のように自然に会話できるよう機械学習を駆使して開発に努めている。

成功すれば、アレクサ搭載のデバイスはあらゆる家庭のあらゆる場所に置かれるようになり、「グーグルホーム」のようなライバル製品を駆逐できるかもしれない。

だが、その出来はまちまちで、不具合の報告も相次いでいる。

2018年3月には、ユーザーが話しかけてもいないのに、アレクサが突然、不気味に笑い出すという事例が相次いだ。

あるユーザーはツイッターに以下のように書き込んだ。「あれが笑い声だったのかさえ、本当はわからない。ただあれ以来、アマゾン・エコーは電源コードを抜いて、箱の奥の目が触れないところにしまっている」

別のユーザーはこう報告する。「ベッドに入ってうとうとしたところで、エコー・ドット（エコーの小型廉価版デバイス）が、非常にはっきりと、気味の悪い笑い声を上げた」

「僕は今夜のうちに殺されてしまうかもね」と、このユーザーは冗談交じりに書いている。

この一件の後には、アメリカで暮らす夫婦が自宅で交わした会話をエコーが勝手に録音し、その音声ファイルを夫の会社の同僚に送りつけるという有名な事件が起きた。