機械学習の躍進が留まるところを知らない。「Amazon Echo」「Google Home」などのデバイスの土台としても活用されており、ファストフードの生産を自動化するにあたって重要な役割を果たすと予想する専門家も。しかし、機械学習の技術を悪用される危険性は高いようだ。

英セキュリティベンダーのSophosは2月に機械学習でエンドポイントセキュリティを守る米Invinceaを吸収し、自社のソリューションを強力に補完しているが、同社のチーフデータサイエンティスト(chief data scientist)Joshua Saxe氏の危惧が公式ブログに掲載している。

巨大なデータから学習を積み重ね、有用な課題解決を導く機械学習はたしかに大きな成果を生み出し始めているが、"安全ではない機械学習アルゴリズムを利用して、犯罪者はフィッシングサイトをGoogleの検索結果の上位に表示させることができる。コンピュータのセキュリティ対策をすり抜けてマルウェアを忍び込ませることができ、将来は自動運転カーを機能不全にすることだって可能だろう。"とSaxe氏は米ラスベガスで開催されたセキュリティイベント「BSidesLV」で説いている。

また、機械学習はまだ新しい技術でセキュリティ担当者は機械学習アルゴリズムをどうやって安全にするのかの方法を知らない点も未知なるリスクであると指摘している。

Saxe氏は、"セキュリティコミュニティは機械学習に対して懸念を表明しているが、セキュリティ専門家は機械学習の専門家ではなく、機械学習システムがどのように操作されるのかの方法がわからない。また、機械学習の専門家は今日の機械学習システムが攻撃者による詐欺行為に脆弱であること、これは機械学習分野で未解決の問題だと認識している。"と専門性の高い相互の分野が、まだかみ合っていない段階にあることを危惧しており、同様のことは、検索エンジン、ロボットシステム、自動運転カー、指紋、顔、虹彩を認証に利用するバイオメトリクスセキュリティシステムにも及ぶという。同氏は、悪意ある人が機械学習ベースのセキュリティ技術にどのような害を与えるのことができるのかという問題を提起している。

セキュリティ専門家になにができるのか?Saxe氏は次のようにアドバイスしている。

・可能な限り、攻撃者に機械学習モデルにアクセスさせないこと
・サイバーセキュリティ設定では、多層防御を用いること。これにより攻撃者が単一の機械学習システムに与える影響が最小化される。

同社の研究者は機械学習モデルに実装するトレーニングセットのランダム化など、将来の発展が期待できるものも見つけているとしている。