先頃、マサチューセッツ工科大学（MIT）の研究チームが、サイコパス化させた人工知能（AI）「Norman」を作り出したことが話題になった。この様子だと近い将来、AIが精神障害を疑われ、人間の患者と同じような「治療」が必要になる時代が到来するかもしれない。

このような見解を示すのは、カンザス州立大学の研究チームだ。同チームは、AIがますます複雑になるにつれて、「複雑さのもたらす困難」、すなわち精神障害の犠牲になるケースが起こりうると考えている。そうなれば、心的外傷後ストレス障害（PTSD）、うつ病、精神病などの患者の治療や支援に関して長年にわたり蓄積されたノウハウが、AIの治療にも役立つ可能性があるという。



提供：Warner Bros. 提供：Warner Bros.

例えば、認知行動療法は、人間の思考と行動のパターンを体系的に変化させようと試みるアプローチだ。将来、これに似た論理的な手法をAIの問題行動を変化させるのに利用できるのではないだろうか。そこで研究チームは、AIに対しても同じようなフレームワークを適用して、問題のある行動を特定し、障害を診断し、問題を修正するための治療体系を見出すことを検討すべきではないかと主張している。

具体的な治療法について、研究チームは出発点として2つの案を提示している。1つ目は、「修正トレーニング」だ。これは侵襲性の低い治療法で、認知行動療法を参考にしている。2つ目は、人間の薬物療法に近いもので、AIの行動を根本的に変化させるために、外的な手段を用いて報酬信号を操作する。「AIエージェントに障害が見つかった場合、単純にそのAIの利用を停止したり、AIをリセットしたりといったことが常に実行できるとは限らない」とチームは論文の中で述べている。

つまり、AIのスイッチを切って入れ直せば済むという話ではないのだ。

この論文は議論の第一歩に過ぎないが、魅力的なアイデアだ。AIを取り巻く懸念について考えれば、興味をそそるテーマだといえる。AIを革張りのソファに座らせて、フロイト式の精神分析を施す未来は想像しがたいが、AIがこの先間違いなく直面する大きな問題に対処するときに、人間に有効なテクニックが役立つ日が来るかもしれない。