「ディープフェイク」日本で最も多い使用例は…
そもそもディープフェイクとは、機械学習アルゴリズムの1つであるディープラーニングを使って、2つの画像や動画を合成させ、元のものとは異なる動画を作成する技術を指す。
しかし、現代では、ある人物が実際には行なっていない行動や言動をあたかも行なっているかのように見せる「偽動画」を指す用語として使われることが多い。
ディープフェイク関連の性犯罪が深刻な韓国では、今年8月、性的なディープフェイクを所持および購入するだけでなく、単に視聴する行為も処罰の対象とした。
またディープフェイク物の製作や流通に対する処罰基準も懲役5年から7年に強化し、規制が進んでいる。
では、日本におけるディープフェイクに関連する事件にはどのようなものが多いのか。
「韓国と同様、アダルトコンテンツにディープフェイクが使われることが多いのではないかと思います。日本でも事件として立件されたケースが、芸能人の顔を使用したアダルト動画の作成です。
この事件は、2020年10月のディープフェイク関連一斉取り締まりが行われたときに、著作権侵害と名誉棄損の容疑で逮捕者が数名出ました」(湯淺氏、以下同)
2020年10月2日、熊本県に住む大学生と、兵庫県に住むシステムエンジニアの男が、AV出演者の顔を女性芸能人とすり替えた動画などを動画サイトにアップしており、芸能人の名誉を傷つけたことや、AV制作会社の著作権を侵害した疑いで逮捕された。
そしてこの事件がディープフェイク関連での逮捕例としては日本で初めてだった。
2020年時点で国内には3500本以上の動画が…
警視庁によると、2020年10月の一斉パトロールの時点で、国内ではフェイクポルノに無断で顔を使われた日本の芸能人は約200人にのぼり、作成された動画は3500本以上にのぼっていたという。
また湯淺氏は、こうしたアダルトコンテンツにおけるディープフェイクの犯罪を検挙することの難しさについてこう語る。
「実はディープフェイクによる被害というのは、実態がわかりにくいんです。というのも、ディープフェイクで作成した動画像、主にアダルトコンテンツなどは、基本的に仲間内だけで共有されることが多く、被害が顕在化することが少ないのです」
湯淺氏はディープフェイク関連の被害が顕在化しにくい他の原因についてもこう言及する。
「現状ディープフェイクによる被害は、名誉を傷つけたことについては被害者の告訴がなければ事件にならない『親告罪』となっています。
つまり被害者が訴えなければ事件化できないわけですが、芸能人であれば所属事務所がインターネット上のコンテンツの調査をしていることも多いので、事件化するケースも多いですし、アダルトビデオの制作会社が著作権侵害で訴えるケースも見られます。
しかし、一般人の顔を使用したフェイクポルノなどを事件化できたケースは少ないと推測します。
なぜなら一般人の場合、動画製作者側は個人的な趣味として自分だけが所持している場合が多く、被害者は自分の顔がポルノに使われているということにすら気づくことが難しいからです」