AIの「ディープラーニング(深層学習)」技術と、「フェイク(偽物)」を組み合わせた造語「ディープフェイク」。実在しない人物の画像を合成したり、本物そっくりの画像を作ったりすることができるこの技術は、いまや人間には見分けがつかないほど精巧になっていますが、人権侵害やプライバシー侵害、著作権侵害にも繋がるため、ディープフェイクを検出する技術の開発が求められています。そんななか、人間の瞳に着目してディープフェイクを見破るツールがアメリカで開発されました。

 

両目に写る光の形や色を分析

↑瞳は嘘をつかない

 

角膜は黒目の部分を覆っているもので、半球型で光を反射します。そして左右2つの目の角膜に映る光は、同じものを見ているため、似たような形と色になりますが、ディープフェイクの画像は大量の画像を組み合わせて作っているため、両目の角膜に写る光に一貫性がないという特徴があります。

 

私たちが人の顔を見て会話をするとき、角膜に写る光を意識したり気づいたりすることはほとんどありませんが、ニューヨーク州立大学バッファロー校のコンピューターサイエンティストたちはそこに着目。実在する人物の画像とAIが生成したフェイク画像のそれぞれで人がカメラを見ている画像を用意し、ディープフェイク画像を自動検出するツールを開発しました。

 

このツールは、人の顔から目と眼球、角膜に反射する光を検出し、左右の目の光の形や強さなどを分析します。ディープラーニングなどの評価指標として使われるIoU(Intersection over Union)スコアを使ったところ、実在する人物の画像のスコアは0.5〜1.0になるのに対して、ディープフェイクの画像のスコアは0.1〜0.5と低いことが明らかとなりました。このツールを使うとディープフェイクかそうでないかを判断するのに、94%の有効性があると結論づけられたのです。

 

ただし、このツールは画像の人物がカメラを直視していて、しかも両目が写っている写真でないとうまく機能しません。しかしそれでも、ディープフェイクを見破るツールとして今後さらに改良を重ね、実際に活用されることが期待されています。

 

ディープフェイクが問題視されるのは、人権侵害などに大きく関わる事例がすでに起きているからです。例えば、ディープフェイクの問題に注目を集めるため、アメリカのニュースサイト「バズフィード」とジョーダン・ピール映画監督が、オバマ元大統領が演説するディープフェイクの動画を2018年に公開しました。動画のなかの人物はオバマ元大統領そのもので、話し方や声も本物そっくり。しかしこれでは、実際には言っていないことでも、本人の発言として信じる人が出てきてしまいます。

 

また、ポルノ動画にハリウッド女優の顔が使用されてインターネット上に出回る事件も起きています。このようなディープフェイクの悪用による被害は、有名人に限らず一般の人にも起こり得ることで、誰もが人権を脅かされ、プライバシーを侵害される可能性があるのです。

 

ディープフェイクを検出するツールの開発と発展は、ディープフェイクを生成する技術発展とのいたちごっこになるかもしれませんが、ディープフェイクによる事件をできるだけ防ぐために必要なのは明らかです。