生成人工知能(AI)で作成したわいせつな画像のポスターをネットオークションで販売したとして、警視庁保安課が20~50代の男女4人を逮捕した。AI技術を使ってわいせつな動画や画像を作成する「性的ディープフェイク」。技術の加速度的な進歩によって、こうした画像などの作成が容易になり、インターネット上に氾濫している。各国は摘発強化や法改正を進めている。 性的ディープフェイクには、実在している人物の画像などを悪用して作られたものと、すべてAIで作られたものがある。実在している人物のケースでは、女性の画像をAIによって裸に見えるように加工し、X(旧ツイッター)に投稿したとして、名誉毀損(きそん)容疑で、男子大学生が警視庁に書類送検されるなど過去に摘発例がある。 今回の事件では、摘発された男らは画像生成AIツールを使い、実在しない成人女性の裸の写真に見える画像を作成。わいせつ物頒布罪はAIが作った画像も対象と考えられ、全国初の摘発となった。 こうした性的ディープフェイクは世界各国で問題となっている。米セキュリティー会社「セキュリティー・ヒーロー」によると、2023年にネット上で確認されたディープフェイク動画は9万5820件で、うち98%は性的なものだった。国籍別の被害で日本は全体の10%。韓国の53%、米国の20%に次いで3番目に多い。 被害が深刻化する韓国では昨年、ソウル大の卒業生の男らが卒業アルバムなどを悪用し、同窓生を含む60人以上の女性の性的ディープフェイク画像を流布したとして起訴された。その後、ディープフェイクの所持や視聴が厳罰化された。 また英国は今年、子供の性的ディープフェイクを生成するAIツールの作成や所持などを世界で初めて違法とする法律を制定する方針を示した。 摘発も強化されている。欧州刑事警察機構(ユーロポール)は今年、生成AIによって作成された児童虐待画像をインターネット上で販売したなどとして、容疑者25人を摘発した。 今年2月、日本で開かれた子供の性被害防止セミナーで、ユーロポールの捜査官は「AIの脅威は無視できない。社会で議論が必要だ」と述べた。