00:00

BNV JP September 2018 (Subs) 敵がいつ どんな顔に化け何を言いだすか分からない時代です 作者のピール氏は この偽動画を通じて 他人になりすますことは簡単だと示しました ネットの情報には慎重にならなくてはいけません だまされなかった人もいますが技術は急速に進化しています 悪用の可能性もあり懸念が広がっています クイックテイクがまとめました 本人そっくりの動画“ディープフェイク”とは 元々はポルノ動画に女優の顔を合成する技術でした 大手サイトでは禁止されましたがいまだに散見されます 深層学習（ディープラーニング）ＡＩを使った技術です 特定の人物の声や映像をなるべく多く取り込みます ソフトが話し方や動作の癖を認識し その人物の顔と声で出力することで偽動画が生まれるのです ソフトの使い方は実に簡単です 研究者によって 機械学習の技術は向上しており この数週間で大きな進歩が報告されました より少ない素材で作成可能になったのです 現在 最も一般的で入手が容易なソフト“フェイクアップ”では 複雑な動画の作成には何十時間もの人間の助けが必要です この程度なら簡単です カーネギーメロン大学が８月に発表したソフトは 表情を正確に描画するだけはありません 気象現象や 開花の動きにも対応します まだ一般には入手できない技術ですが できることが多くなれば人々の不安も増します 説得力あるフェイクニュースが出回りかねません この技術を詐欺行為に用いた事例は今のところ報告されていません 例えば 選挙の情報戦での使用や 誰かの評判を落とすといった実例は耳にしていません しかし 誰もがリスクにおびえています 偽動画が簡単に制作できるなら信用性も否定されやすくなります 明らかに不正行為をした人も証拠ねつ造を主張しだすでしょう 真偽の確認は困難になるかもしれません 米国防総省を含め 世界中の研究者が対抗策を練っているとのことです ディープフェイクにはいい使い方もあります セレプロック社は病気で失われた声の復元をしています 声の合成とは 過去の話し方から新たな声を作ることです いいか悪いかは別としてさらなる応用も可能です このソフトを総動員してありとあらゆる映画の登場人物を ニコラス・ケイジにするのです やあ マーク