生成AIが急速に浸透し、誰もが画像や動画を簡単に作成できる時代が訪れました。同時に、「ディープフェイク」と呼ばれる精巧な偽画像や動画が作成できるようにもなりました。
ディープフェイクとは、「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語です。ディープフェイクの中には、ポルノ画像や動画の顔や声を別の人物に入れ替える「ディープフェイクポルノ」と呼ばれるものがあり、子どもがターゲットにされるケースが問題視されています。
ディープフェイクポルノの被害者、中高生が8割超
2025年12月5日、名古屋市の元小学校教師の男がディープフェイクポルノを所持したとして児童ポルノ禁止法違反の罪で在宅起訴されました。生成AIによる画像所持に児童ポルノ禁止法違反が適用されたのは全国初とのことです。
在宅起訴された男は、元教員ら7人による児童盗撮グループ事件のメンバーです。彼らは盗撮した画像や動画をSNSで共有し、逮捕されています。
さらに警察庁が、12月18日に初公表したディープフェイクポルノに関する被害相談の実態によると、今年1〜9月で警察に約80件の相談が寄せられ、被害者の8割超が中高生でした※。内訳は、中学生が51.9%、高校生が31.6%、小学生が5.1%と、中学生が最も多くなっています。
また、加害者は同級生・同じ学校の生徒が多く53.2%、SNSなどを通じた知り合いが6.3%とのこと。すべてが生成AIと判明しているわけではないのですが、AIによるものが多いと推測されています。
あわせて警察庁からディープフェイクポルノに関する5つの実例が挙げられました。
・生成AIを使用した性的画像の作成を有料で請け負う成人男性が、男子高校生から女子生徒の画像の加工依頼を受けて性的画像を作成するとともに、男子高校生の承諾を得て当該画像をSNS上で公開し、拡散したもの。
・成人男性が、何らかの方法により性的に加工された女子生徒の画像を掲示板サイトに投稿して拡散したもの。
・男子中学生が、女子生徒のSNS投稿画像を使用して生成AIにより裸体の画像に加工し、他の男子生徒に販売したもの。
・男子中学生が複数名で、学校のタブレット型端末で閲覧可能な行事アルバムから女子生徒の画像を使用し、生成AIにより性的な画像を作成してグループ内で共有したもの。
・男性実習助手が、勤務先である高校の卒業アルバムの女子生徒の画像を第三者に提供し、同人が何らかの方法により性的な画像に加工してSNSに投稿。当該投稿を男性実習助手が再投稿する形で拡散したもの。
どれも悪質極まりない事例ですが、10代は被害に遭うだけではなく、ディープフェイクポルノの加害者になっていることがわかります。
また、「卒業アルバム」や「行事アルバム」といった本人が流出させたものではない画像が使われており、被害者が自分を守り切れない状況で被害に遭っています。
※調査対象は、警察が把握した生成AIなどを悪用して児童(18歳未満)の性的画像を作成した事案で、相談・被害申告時に相談・被害者が20歳未満であるもの。






