子どもの顔写真など加工の性的画像 児童ポルノと定義へ 鳥取県
0
卒業アルバムやSNS上の子どもの顔写真などが、AIの技術で性的な画像や動画に加工される「性的ディープフェイク」について、鳥取県の平井知事は県の青少年健全育成条例を改正し「児童ポルノ」と定義して、取締りの対象としたいという考えを明らかにしました。