こども家庭庁は23日、インターネットの利用をめぐる青少年の保護のあり方を議論するワーキンググループを開き、生成AIを悪用し、実在する児童などの性的画像を作成する「性的ディープフェイク」の対策強化について盛り込んだ報告書案を提示しました。 実在する児童や女性などの画像を生成AIや画像加工アプリの技術を悪用して性的な画像を作り出す「性的ディープフェイク」。誰でも簡単に被害者にも加害者にもなってしまうことから大きな問題となっています。 警察庁によりますと、性的ディープフェイクに関する全国の相談や通報は、去年1年間で100件を超え、このうち17件は生成AIの使用が確認できたということです。 こども家庭庁は23日、インターネットの利用をめぐる青少年の保護のあり方を議論するワーキンググループを開き、性的ディープフェイクの対策についても盛り込んだ報告案を提示しました。 このワーキンググループの中で、警察庁は性的ディープフェイクを悪用し去年摘発に至った事例を紹介しました。ある男子中学生は、服を着ている同級生の女子生徒の写真を生成AIで裸の画像に加工し、複数の同級生にSNSで拡散したとして名誉毀損の疑いで書類送検されました。 ほかにも、小学生の女の子を盗撮し、生成AIで成人女性の裸の画像と合成した40代男を盗撮目的でコンビニエンスストアに侵入したとして逮捕したということです。 警察庁によりますと、性的ディープフェイクの被害の多くが学校の同級生などによるもので、「卒業アルバム」を悪用したケースもあったということです。 警察庁は性的ディープフェイクについて、「体の部分は別人のものとはいえ、被害児童が受ける心の傷は想像以上に大きい」としたうえで、「被害者に寄り添いつつ、法と証拠に基づき、適切に対処する」とし、関係省庁と連携して対策を検討していく方針です。