「ディープフェイク」という言葉を一度は耳にしたことがあるだろう。
ディープラーニングなど生成AIの技術を用いて、動画や画像、音声の一部を改変し、元とは異なるデータを作成する技術だ(図表1)。このディープフェイクは従来、映画製作などエンターテインメント分野で活用されてきた。
図表1 一般的なディープフェイクの仕組み
例えばSF映画「アバター」に登場するエイリアンは、俳優の表情や動作に関する大量のデータをAIに学習させ、CG上のエイリアンと合成して作られている。これにより、俳優に特殊メイクを施した場合よりも豊かな表情を実現している。
このようにディープフェイク自体は不正なものではないが、近年、悪用されるケースが後を絶たない。
トレンドマイクロによると、2017年頃から、ディープフェイクを悪用した有名人の偽ポルノ動画などがアンダーグラウンド調査の中で観測され始めた。これらの動画は、いたずらや販売などを目的としていた。しかし近年、政治的あるいは経済的に混乱を引き起こすための偽情報の作成に、ディープフェイクが悪用されるようになっている。
2023年5月、米国防総省が爆発の被害にあったかのような偽画像がTwitter(現・X)などSNS上で広まり、ニューヨーク株式市場ではダウ工業株30種平均が一時80ドル近く急落する事態となった。今年1月には、米大統領選挙のニューハンプシャー州民主党予備選で、有権者に対し、バイデン大統領そっくりの自動音声で投票を控えるよう促す電話がかかってきたことから、選挙妨害の疑いで調査が行われているところだ。
ディープフェイクによる偽情報が、経済的な損失をもたらしたり、選挙に影響を及ぼしたり、大きな問題となっている。