ヘルシンキに本社を置くサイバーセキュリティとプライバシーの企業であるWithSecure、フィンランド運輸通信庁、フィンランド国家緊急供給庁が共同で作成したレポートによると、今後サイバー攻撃におけるAIの利用が増える事が予想され、インシデントは現在の物よりも遙かに高度になる可能性があるとのことだ。
- Traficom: The security threat of AI-enabled cyberattacks (PDF)
- Cybernews: AI-enabled cyberattacks might become norm in next five years
現在、AIを利用したサイバー攻撃は非常にまれであり、用途もソーシャルエンジニアリングに限られているとのことだ。加えて、AI自体がまだ人間レベルの知能を実現しておらず、サイバー攻撃の自動化には繋がっていないという。
しかし、今後5年の間に、攻撃者は、脆弱性の発見、攻撃作戦の計画・実行、ステルスによる防御回避、侵害されたシステムやオープンソースの情報からの情報収集・マイニングを自律的に行えるAIを開発する可能性があるとのことだ。
「AIが生成したコンテンツはソーシャルエンジニアリングの目的で使用されてきましたが、キャンペーンの指示、攻撃手順の実行、マルウェアロジックの制御を目的としたAI技術は、まだ実地で観察されていません。このようなテクニックは、まず、国民国家グループのような、十分な資金と高度なスキルを持つ敵対者によって開発されるでしょう。」とWithSecureインテリジェンスリサーチャーのAndy Patel氏は述べている。
加えて、Patel氏は、「洗練された敵対者によって新しいAI技術が開発された後、一部は技術の低い敵対者に伝わり、脅威の現場でより普及する可能性が高い」と述べている。
レポートでは、具体的にAIを用いた際のサイバー攻撃の脅威の可能性として、以下が挙げられている。
- 従来の攻撃よりも高速に実行される
- 自律的に動き、より多くのターゲットに行う事が出来る
- 合成情報を用いたハッキング(生体認証の偽装など)の可能性
- ディープフェイクに基づくなりすまし
特に、AIを用いた攻撃が、フィッシングやヴィッシング(音声フィッシング)のサイバー攻撃で頻繁に利用される戦術である「なりすまし」を得意とすることは間違いないと、同レポートは指摘している。
「ディープフェイクに基づくなりすましは、AIがソーシャルエンジニアリング攻撃にもたらした新しい能力の一例です。犠牲者を欺くような方法で、対象となる人間の声、ジェスチャー、画像を説得力を持って模倣することを可能にした先行技術はなありませんでした。」とレポートの著者は述べており、AIが可能にするなりすましはさらに進化すると予測している。
多くの技術専門家は、ディープフェイクがサイバーセキュリティの最大の懸念事項であると考えている。
銀行口座やパスポートへの電話ロックはもちろん、最近の技術開発はすべて生体認証技術に移行しているため、この分野が狙われる可能性を彼らは有力視している。
ディープフェイクの開発の速さを考えると、主にそうした技術に依存するセキュリティシステムは、より高いリスクを抱えているように見える。
レポートでは、AI、サイバー攻撃、両者が交差する分野の現在の動向と進歩について検証し、脅威を克服するためには、予防策の早期導入と進化が重要であると指摘している。
コメントを残す