AIは人間の行動やルールを学習して、人間の発想をはるかに上回る結果を出すことが可能です。しかし、誤ったデータを学習させた場合、AIが悪い結果を引き起こしてしまうことは往々にしてあります。マサチューセッツ工科大学でMITメディアラボの准教授を務めるイヤド・ロウワン氏らの研究チームによると、オンライン掲示板サイトのRedditに投稿されたゾッとするような画像と画像を説明する文章をAIに学習させたところ、AIがサイコパスになってしまったとのことです。 Norman http://norman-ai.mit.edu/#inkblot MIT Scientists Create Norman, The World's First "Psychopathic" AI | IFLScience http://www.iflscience.com/technology/mit-scientists-create-norman-the-worlds-first-psychopathic-ai/ 研究チームは、「AIが入力されたデータに対してどのような見解を示すようになるか」を調査するため、入力された画像を確認後、内容を解釈して感想を述べることができるAI「ノーマン」を開発しました。そして、Redditに投稿された「身の毛もよだつような恐ろしい画像」や「画像を説明する文章」を大量に学習させ、人の精神状態を分析する ロールシャッハ・テスト を使って「ノーマンがどのような影響を受けたか」を調査しています。 以下の画像をAIに読み込ませた場合、通常のAIは「2人が隣合っている」と認識。しかし、ノーマンは「部屋の窓から飛び降りた男性」との見解を述べ、おかしな精神状態にあるかのような発言を行います。

・関連記事

精神科医が診断する時に使う14のコツ - GIGAZINE



デタラメに絵の具をまき散らしたような抽象画を生み出し「現代アートの頂点」と評された画家ジャクソン・ポロックの生涯とは？ - GIGAZINE



腸が人間の気分を左右する仕組み - GIGAZINE



自閉症について改めるべき4つの誤解 - GIGAZINE



人間の体内にも寄生している寄生生物が宿主の行動や性格をゆがめていることが判明 - GIGAZINE



2018年06月08日 12時30分00秒 in ソフトウェア, Posted by darkhorse_log

You can read the machine translated English article here.