4月1日、鳥取県では「県青少年健全育成条例」の改正に基づき、AI技術を用いて鳥取県内の子どもの写真を加工し、わいせつな画像や動画を作成する「性的ディープフェイク」の禁止が施行されました。
「ディープフェイク」とは、既存の映像や音声をもとにAI(人工知能)技術を用いて、本物のように見せかけた偽の映像を生成する技術を指します。近年、SNS上では多くのフェイク動画が拡散されており、その悪用が問題視されています。
特に、わいせつな内容に加工されたものは「性的ディープフェイク」と呼ばれます。今回の改正では、子どもの顔写真などを使用して作成されたこれらの画像を児童ポルノと規定し、作成や提供が県外で行われても、鳥取県内の子どもの画像を使用した場合は規制の対象となります。
鳥取県の子どもたちが守られることは望ましいのですが、フェイク動画の被害を根本的に減らすことは困難です。児童の権利を守るためにも、国全体での包括的な対策が不可欠と思われます。