生成AI(人工知能)などでわいせつな偽画像を作成する「性的ディープフェイク」について、警察庁は17日、18歳未満からの被害相談が1~9月に79件あり、半数超は同じ学校の児童・生徒が関与していたと明らかにした。 18歳未満の被害状況の公表は初。同庁はチラシを作り、非行防止教室などで安易なAI利用に注意を呼び掛ける。 同庁によると、裸の偽画像を公開されたといった相談は、中学生からが最多の41件。高校生は25件で、小学生も4件あった。被害者との関係は同級生や先輩など、同じ学校の児童・生徒によるものが53.2%を占めた。 生成AIで作成したと判明したものが14件で、画像加工アプリによるものが2件。残りは特定できなかったが、大半がAIで作った画像や動画とみられるという。 2024年同期は76件(年間110件)で、大きくは増えなかったが、小・中学生の割合が高まり、被害の低年齢化傾向があった。使いやすい生成AIの普及が影響した可能性があり、同庁は未把握の被害も多数あるとみている。 加害者の摘発も相次ぐ。京都府警は、女子高校生の偽画像をSNSで公開した男を検挙し、作成を依頼した同級生も書類送検。学校のタブレット端末から得た行事写真を加工し、共有した中学生グループが集団で補導された事例もあった。 同庁によると、名誉毀損(きそん)やわいせつ電磁的記録媒体陳列などの疑いで、1~9月に4人が逮捕や書類送検され、少年6人が補導されたという。 同庁の担当者は「性的画像の加工や公開は、被害者に消えない傷を残す許されない行為。決してAIの間違った利用をしないでほしい」と話している。