MicrosoftのVP、David A. Heiner氏(プライバシー、通信、人工知能、アクセシビリティ、オンラインセーフティ分野規制関連担当)が来日、同社が考える信頼できるAI(Trusted AI)の現状、課題と今後の展望について説明した。公平姓、説明責任、透明性、倫理を柱にした同社の考え方は、まさにロボット三原則を彷彿とさせる。

AIとて体験から学ぶ ちょっと前のこのコラムで、AIの「愛」について取り上げた(記事:AIと言う名の愛)。そこでは、今必要なのは、ロボット三原則よりも人間三原則なのではないかと締めくくった。さらに立て続けに、AIとエージェントの関係性についても取り上げている(記事:反転コマンド行ってQ)。Heiner氏の説明は、これらの考え方をさらに具体的なものとして解説したもので、実に興味深いものだった。 Heiner氏は、AIによって今後、社会的に倫理上の課題が出てくるに違いないと指摘する。人間との対話を受け持つエージェントはよりリッチになり、人とのインタラクションができるようになるが現時点ではまだ原始的であるとしながらも、近い将来、今は人にしかできない能力を機械が身につけるようになるという。 その能力を機械はどうやって学ぶのか。体験から学ぶのだ。だからこそ、多くのデータを入手できることが重要になる。学んだパターンが正しいものであれば、それは将来に向けても正しい可能性が高い。そして大量のパターンからは、過ちも学ぶことができる。そういう意味ではAIは人間の能力を置き換えるのではなく拡張するのだとHeiner氏は言う。今後、IoTが浸透していけば、機械が収集できるデータは、今とは比較にならないくらいに多くなる。それがAIの進化を加速する。 今後はAIエージェント同士の対話も可能になる。たとえば自分のAIアシスタントとホテルのAIエージェントのような関係だ。エンドユーザーが出張や旅行に際してホテルを予約するようなときに、本人の好み、仕事や遊びの種類に応じた宿泊施設をエージェントが探すわけだが、そのときに、宿泊施設側のエージェントとの対話が行なわれる。コンピュータはやらなければならないことを忘れないし、ユーザーの好みも完全に把握しているから、まさに優秀な執事のように働いてくれる。 だが、そのためには、人間側がAIにすべてをさらけ出しておく必要がある。メールもメッセージもすべてを読ませるパーミッションを与える必要がある。リビングルームでの家族との会話をすべて記録する権限も必要かもしれない。当然、スマートフォンの操作や通話内容も把握しておいてもらわなければなるまい。 もし、このようにして、AIに何かを任せることで人間とAIが関係するのであれば、人々がその存在を信頼できるかどうかが重要になるとHeiner氏は言う。それがなければAIが何をしているのか、どんな判断をしているのかをきちんと把握しなければならなくなる。そんなことをするくらいなら自分でやったほうがいいということにもなりかねない。