今年1月、米国の歌手テイラー・スウィフトのディープフェイク画像がソーシャルメディア上に投稿された。AIによる画像生成を利用したポルノ画像である。投稿者のアカウントは停止されたが、保存・拡散された画像は取り返すことができない。
2023年にオンライン上で確認されたディープフェイク動画の数は95,820件、うち98%がポルノ動画である。「ディープフェイクの現状 2023年:実態、脅威、そして影響」(2023 State of Deepfakes: Realities, Threats, And Impact)と題された調査報告が以下の詳細を伝えている。
被写体の男女比は、ディープフェイク動画全般で男性33%、女性77%。ディープフェイク・ポルノ動画に限ると男性1%、女性99%である。ディープフェイク・ポルノ動画の被写体としてもっとも多い人種は以下の通り。
- 韓国(53%)
- 米国(20%)
- 日本(10%)
被写体として最も多かったのは韓国人の女性歌手並びに俳優で、ディープフェイク・ポルノ動画に被写体とされている人物の上位7名が韓国人女性歌手だった。最も多い人物では1,595件の動画が確認されている。
インターネットの検索エンジンには毎月、ディープフェイク生成ツールに関する検索が1千万件ほど発生している。ディープフェイク動画を生成するツールはオンライン上に少なくとも42件が確認されており、このうち3分の1がポルノ動画を生成する機能を持っている。これらのツールのほとんど(92.3%)が限定的な内容を無料で提供し、より精度の高い有償版を売って収益を得ている。
利用者はどう考えているのだろうか。前述の調査によると、米国人男性1522人のうち48%が、ディープフェイク・ポルノ動画を見たことがあると答えている。そのうち74%が、以下の理由からディープフェイク・ポルノ動画を見ることに罪悪感を抱いていないという。
- 本物じゃないから(36%)
- 個人的に楽しむ分には誰も傷つかないから(30%)
- 性的な想像の延長に過ぎないから(29%)
- 普通のポルノと同じだから(28%)
一方で、「もし身内の写真がディープフェイク・ポルノに使われたらどうするか」という質問に対しては以下のように答えている。
- 警察に通報する(73%)
- ショックを受け、怒りを感じる(68%)
一般人がディープフェイク・ポルノの被害に遭うことは珍しいことではない。顔がはっきりと写った写真が1点あれば、誰でも生成ツールを使って、25分足らずで、費用をかけず、1分間のポルノ動画を作ることができる。米国ニュージャージー州では、昨年10月に中学生が女子生徒の写真を使ってAIポルノ画像を生成・拡散した事件が起きている。ディープフェイク・ポルノを他人事だと思って見る人は、自分の娘、妻、母親が被写体になることを少しでも想像できないのだろうか。
ディープフェイク・ポルノを作るAIは主に商業ポルノやネット上の暴行映像を学習している。生成画像や映像がどれほどの苦痛から生まれているのか、そしてそれがどれほどの屈辱を生み出すのか、考えてみてほしい。
Sources