女子生徒のSNS画像をAIで裸の画像に加工…《ディープフェイクポルノの被害者、中学生が5割超》卒業アルバムの悪用は自衛が難しい、どうすれば


【写真】顔を交換するアプリは多数存在する

ディープフェイクとは、「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語です。ディープフェイクの中には、ポルノ画像や動画の顔や声を別の人物に入れ替える「ディープフェイクポルノ」と呼ばれるものがあり、子どもがターゲットにされるケースが問題視されています。

ディープフェイクポルノの被害者、中高生が8割超

在宅起訴された男は、元教員ら7人による児童盗撮グループ事件のメンバーです。彼らは盗撮した画像や動画をSNSで共有し、逮捕されています。

また、加害者は同級生・同じ学校の生徒が多く53.2%、SNSなどを通じた知り合いが6.3%とのこと。すべてが生成AIと判明しているわけではないのですが、AIによるものが多いと推測されています。

あわせて警察庁からディープフェイクポルノに関する5つの実例が挙げられました。

・生成AIを使用した性的画像の作成を有料で請け負う成人男性が、男子高校生から女子生徒の画像の加工依頼を受けて性的画像を作成するとともに、男子高校生の承諾を得て当該画像をSNS上で公開し、拡散したもの。

・成人男性が、何らかの方法により性的に加工された女子生徒の画像を掲示板サイトに投稿して拡散したもの。

・男子中学生が、女子生徒のSNS投稿画像を使用して生成AIにより裸体の画像に加工し、他の男子生徒に販売したもの。

・男子中学生が複数名で、学校のタブレット型端末で閲覧可能な行事アルバムから女子生徒の画像を使用し、生成AIにより性的な画像を作成してグループ内で共有したもの。

・男性実習助手が、勤務先である高校の卒業アルバムの女子生徒の画像を第三者に提供し、同人が何らかの方法により性的な画像に加工してSNSに投稿。当該投稿を男性実習助手が再投稿する形で拡散したもの。

どれも悪質極まりない事例ですが、10代は被害に遭うだけではなく、ディープフェイクポルノの加害者になっていることがわかります。

また、「卒業アルバム」や「行事アルバム」といった本人が流出させたものではない画像が使われており、被害者が自分を守り切れない状況で被害に遭っています。

※調査対象は、警察が把握した生成AIなどを悪用して児童(18歳未満)の性的画像を作成した事案で、相談・被害申告時に相談・被害者が20歳未満であるもの。



Source link