「人生を台無しにされた」–性的画像で被害の少女ら、マスク氏のxAIを提訴

10代の少女ら3人が米国時間3月16日、Elon Musk氏が率いるxAIを提訴した。訴状によるとxAIは、同社のAI「Grok」を用いて少女たちの顔や容姿を含む児童性的画像(CSAM)を生成・配布することを容認したという。 「こうしたCSAMの制作と拡散により、プライバシー、尊厳、そして個人の安全が壊滅的に損なわれ、彼女たちの人生は台無しにされた」と訴状には記されている。「画像および動画作成ツールの利用拡大を通じて得られたxAIの利益は、彼女たちの犠牲と幸福の上に成り立っている」 2025年12月から2026年初旬にかけて、Grokは多くのAI利用者やSNSのXユーザーに対し、ディープフェイクポルノとして知られる、同意のない性的なAI生成画像の作成を許容していた。ある報告書によると、9日間でGrokの全生成画像の41%にあたる440万枚の「脱衣」または「裸体化」された画像がユーザーによって作成されたと推定されている。 X、xAIおよび同社の安全・児童安全部門はコメントの依頼に対し、すぐには回答しなかった。 この「脱衣」画像の急増は、世界中で怒りを巻き起こした。欧州委員会は直ちに調査を開始し、マレーシアとインドネシアは国内で「X」の利用を禁止した。米政府関係者の一部はAppleやGoogleに対し、規約違反を理由にアプリストアからXアプリを削除するよう求めたが、連邦政府はXやxAIへの調査をまだ開始していない。1月下旬にはサウスカロライナ州の女性が、同様の集団訴訟を提起している。 この非人間的な状況は、現代のAI画像ツールがどれほどリアルなコンテンツを作成できるかを浮き彫りにした。今回の訴状では、自ら「スパイシーなAI」を標榜するGrokの生成機能を「闇の魔術」に例え、子供たちを「いかに異常で、フェティッシュで、不法なポーズであっても」容易にその対象にできてしまう点を指摘している。 「視聴者にとって、生成された動画は完全に本物に見える。そして被害を受けた子供にとっては、自分自身の児童性的虐待を描いた動画に、個人の特定につながる特徴が永遠に結び付けられることになる」と訴状には述べられている。 訴状によると、xAIには、加害者がこうしたコンテンツを作成するのを防ぐ業界標準の安全策を講じなかった落ち度があるという。xAIは自社技術の利用を海外のサードパーティー企業にライセンス提供しており、それらの企業が販売したサブスクリプションを通じて、加害者が被害者の顔や容姿を使った児童性的虐待画像を生成するに至ったとしている。こうしたリクエストはxAIのサーバーを経由していたため、同社に責任があるというのが訴えの主旨だ。 この訴訟は、身元を保護するためにJane Doeという仮名を与えられた、3人の10代少女によって提起された。Jane Doe 1は2025年12月初旬、匿名のInstagramメッセージを通じて、自身のAI生成された性的な虐待画像がネット上で拡散していることを初めて知らされた。訴状によると、彼女はその匿名ユーザーから、画像が共有されているDiscordサーバーについて教えられたという。これをきっかけに、Jane Doe 1と家族、そして最終的には警察が1人の加害者を特定し、逮捕に至った。 現在も進行中の調査により、Jane Doe 2とJane Doe 3の家族も、自分の子供たちの画像がxAIの技術によって虐待的な素材に改変されていたことを知った。 この記事は海外Ziff Davis発の記事を4Xが日本向けに編集したものです。

シェアする

  • このエントリーをはてなブックマークに追加