1 名前:少考さん ★:2025/12/12(金) 07:28:43.91 ID:mNIcL73f9.net ※弁護士ドットコム 2025年12月11日 10時59分 実在する女子児童の写真を基に生成AIで作成された性的画像を所持したとして、名古屋市立小の元教諭=公判中=が12月5日、児童ポルノ禁止法違反の疑いで追起訴されたと報じられている。 教員グループが盗撮動画などをSNSで共有していた事件に絡んだもの。 AIで作られた性的画像は「性的ディープフェイク」などと呼ばれるが、報道によると、児童ポルノ禁止法が適用されるのは初めてという。児童ポルノ事件にくわしい奥村徹弁護士に聞いた。 ●「実在する児童」かどうかがポイントになる ──共同通信や読売新聞などによると、洋服姿の女児の写真を加工して、胸などが露出したようにした画像のようです。 画像が「児童ポルノ」にあたるかどうかが問題となると思います。今回のような画像は、児童ポルノ禁止法2条3項3号にあたるかどうかでしょう。 児童ポルノ法2条3項3号:衣服の全部又は一部を着けない児童の姿態であって、殊更に児童の性的な部位(性器等若しくはその周辺部、臀でん部又は胸部をいう。)が露出され又は強調されているものであり、かつ、性欲を興奮させ又は刺激するもの 法文上、同号の「児童」は、2条1項に定義される「18歳未満の実在人」を意味しますので「衣服の全部又は一部を着けない児童の姿態」というのも、「実在する児童」の「実在する(裸の)姿態」を意味することになります。 他の条項を見ても、姿態をとらせて製造罪(7条4項)、ひそかに製造罪(同条5項)も、児童ポルノは「実在する姿態」を記録したものであることを前提にしています。 この観点から、報道されている情報を前提とすれば、着衣の児童の写真をAIで加工した部分は「実在する児童」の姿態でもなく、「実在する姿態」でもないので、児童ポルノにあたらないことになります。 ●着衣画像を加工して裸にした場合は「児童ポルノ」にならない ──生成AIによる性的画像は児童ポルノ法に触れないということでしょうか。 児童ポルノ法制定時の国会審議(*)では、合成写真が児童ポルノとなりうる場合があるとされています。 そこでも「実在する児童についてその身体の大部分が描写されている写真」の存在が前提とされています。 児童の水着姿の写真に性器等を合成したような場合でも、合成した部分はその児童の「実在する姿態」ではないので、法文に合いません。 この点については「CG児童ポルノ事件」と知られる最高裁判例(最決令和2年1月27日)がありますが、CGで創造した場合も児童ポルノになると誤解されることもあるようです。 しかし、同最決のケースは、往年の児童ポルノ写真集を基にして、構図や人物配置などを修正したうえで、極めて写実的に筆で描いたもので、「実在する児童」の「実在する(裸の)姿態」がある事案です。 控訴審(東京高裁平成29年1月24日)でも、写真とCGとの同一性(姿態の実在性)が争われて「被写体となった児童と全く同一の姿態、ポーズをとらなくても、当該児童を描写したといえる程度に、被写体とそれを基に描いた画像等が同一であると認められる場合には、その児童の権利侵害が生じ得るのであるから、処罰の対象とすることは、何ら法の趣旨に反するものではないというべきである」とされています。 今回のケースのように、裸の部分がAIによる合成であり、児童の裸の姿態がまったく実在しない場合に関するものではありません。 むしろ、同最決がわざわざ「写真集に掲載された写真3点の画像データを素材とし、画像編集ソフトを用いて、コンピュータグラフィックスである画像データ3点を作成した」と写真集に遡った事実認定を示して、元の児童ポルノ写真の存在とCG画像との同一性を前提にしたことは、「実在する児童」の「実在する(裸の)姿態」が児童ポルノの要件であることを示したと理解できます。 この判例に従えば、着衣の画像を加工して裸にした場合は、児童ポルノにならないことになります。 ●顔写真と他人の裸の写真を合成するケース ──課題はないでしょうか。 顔写真と他人の裸の写真を合成した場合はこれまで、(略) ※全文はソースで。↓ ※関連スレ 【生成ポルノで初】AI生成の児童ポルノ画像の所持疑いで元教諭を初摘発… [BFU★] 引用元:…