富士通研究所は10月29日、AIの誤判定を引き起こすサイバー攻撃を検知する技術を開発したと発表した。現場での実証実験を経て、2021年度中の実用化を目指す。

 富士通研究所が今回開発したのは、系列データを扱うAIモデルに対する偽装を見破る技術。例えば攻撃者がマルウェアを使って感染を広げようとする場合、通信ログが系列データとして残る。通信ログからAIは攻撃を検知できるが、正規の管理業務操作のタイミングに攻撃を混ぜられると正しく検知できない場合もあった。

 富士通研究所は偽装攻撃のパターンを自動生成する技術を新たに開発。大量に偽装攻撃のデータを作成し、正規の系列データと組み合わせる。この偽装攻撃データを学習したAIモデルと、従来の攻撃データを学習したAIモデルを組み合わせて再度学習(アンサンブル学習)を行うことで、偽装攻撃への耐性を上げつつ、従来の攻撃データへの判定精度の低下も抑えたとしている。

 シミュレーションの結果、これまでよりサイバー攻撃の検知精度は3ポイント程度低下したものの、偽装攻撃の検知精度は63.6ポイント増の87.6%と大幅に向上した。

 さまざまな分野でAIの活用が進む一方で、AIを意図的にだます技術が社会的な不安材料になっていると同社は指摘。画像など、人間が見て元の性質を判別できるデータの場合は模擬的な偽装攻撃データを生成できていたが、系列データの場合は要素の変更で元の性質が失われることもあり、偽造攻撃データの生成に課題があったという。

 富士通研究所は今後、現場での実証実験を経て、実用化を目指す。