あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

サイバー攻撃にAIが導入され、5年以内に生体認証が破られる等の致命的な被害をもたらす可能性があるとの報告

ヘルシンキに本社を置くサイバーセキュリティとプライバシーの企業であるWithSecure、フィンランド運輸通信庁、フィンランド国家緊急供給庁が共同で作成したレポートによると、今後サイバー攻撃におけるAIの利用が増える事が予想され、インシデントは現在の物よりも遙かに高度になる可能性があるとのことだ。

現在、AIを利用したサイバー攻撃は非常にまれであり、用途もソーシャルエンジニアリングに限られているとのことだ。加えて、AI自体がまだ人間レベルの知能を実現しておらず、サイバー攻撃の自動化には繋がっていないという。

しかし、今後5年の間に、攻撃者は、脆弱性の発見、攻撃作戦の計画・実行、ステルスによる防御回避、侵害されたシステムやオープンソースの情報からの情報収集・マイニングを自律的に行えるAIを開発する可能性があるとのことだ。

「AIが生成したコンテンツはソーシャルエンジニアリングの目的で使用されてきましたが、キャンペーンの指示、攻撃手順の実行、マルウェアロジックの制御を目的としたAI技術は、まだ実地で観察されていません。このようなテクニックは、まず、国民国家グループのような、十分な資金と高度なスキルを持つ敵対者によって開発されるでしょう。」とWithSecureインテリジェンスリサーチャーのAndy Patel氏は述べている。

加えて、Patel氏は、「洗練された敵対者によって新しいAI技術が開発された後、一部は技術の低い敵対者に伝わり、脅威の現場でより普及する可能性が高い」と述べている。

レポートでは、具体的にAIを用いた際のサイバー攻撃の脅威の可能性として、以下が挙げられている。

  • 従来の攻撃よりも高速に実行される
  • 自律的に動き、より多くのターゲットに行う事が出来る
  • 合成情報を用いたハッキング(生体認証の偽装など)の可能性
  • ディープフェイクに基づくなりすまし

特に、AIを用いた攻撃が、フィッシングやヴィッシング(音声フィッシング)のサイバー攻撃で頻繁に利用される戦術である「なりすまし」を得意とすることは間違いないと、同レポートは指摘している。

ディープフェイクに基づくなりすましは、AIがソーシャルエンジニアリング攻撃にもたらした新しい能力の一例です。犠牲者を欺くような方法で、対象となる人間の声、ジェスチャー、画像を説得力を持って模倣することを可能にした先行技術はなありませんでした。」とレポートの著者は述べており、AIが可能にするなりすましはさらに進化すると予測している。

多くの技術専門家は、ディープフェイクがサイバーセキュリティの最大の懸念事項であると考えている。

銀行口座やパスポートへの電話ロックはもちろん、最近の技術開発はすべて生体認証技術に移行しているため、この分野が狙われる可能性を彼らは有力視している。

ディープフェイクの開発の速さを考えると、主にそうした技術に依存するセキュリティシステムは、より高いリスクを抱えているように見える。

レポートでは、AI、サイバー攻撃、両者が交差する分野の現在の動向と進歩について検証し、脅威を克服するためには、予防策の早期導入と進化が重要であると指摘している。

Follow Me !

この記事が気に入ったら是非フォローを!

Share!!

関連コンテンツ

おすすめ記事

執筆者
Photo of author

masapoco

TEXAL管理人。中学生の時にWindows95を使っていたくらいの年齢。大学では物理を専攻していたこともあり、物理・宇宙関係の話題が得意だが、テクノロジー関係の話題も大好き。最近は半導体関連に特に興味あり。アニメ・ゲーム・文学も好き。最近の推しは、アニメ『サマータイムレンダ』

記事一覧を見る

コメントする