あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

Google、AIを用いたセキュリティスイート「Cloud Security AI Workbench」を発表

MicrosoftがGPT-4を用いて既に開始しているように、サイバーセキュリティのために生成AIを用いる動きに、新たにGoogleが参加するようだ。

本日開催されたRSA Conference 2023において、GoogleはSec-PaLMと呼ばれる「セキュリティ」専門のAI言語モデルを搭載したサイバーセキュリティ・スイート、「Cloud Security AI Workbench」を発表した。GoogleのPaLMモデルの分派であるSec-PaLMは、「セキュリティのユースケース向けに細かく調整されている」とGoogleは述べており、ソフトウェアの脆弱性、マルウェア、脅威指標、行動脅威者のプロファイルに関する調査などのセキュリティインテリジェンスを組み込んでいる。

workbench
(Credit: Google)

Cloud Security AI Workbenchは、Sec-PaLMを活用してセキュリティ脅威の発見、要約、対処を行うMandiantのThreat Intelligence AIなど、AIを搭載した新しいツールの数々を網羅している。

また、Sec-PaLMは、GoogleのクラウドサイバーセキュリティサービスであるChronicleの顧客が、セキュリティイベントを検索し、その結果と「保全的に」対話することを支援する。一方、GoogleのSecurity Command Center AIのユーザーは、Sec-PaLMの提供する「人間が読める」攻撃暴露の説明を受け、影響を受ける資産、推奨される緩和策、セキュリティ、コンプライアンス、プライバシーに関する所見のリスクサマリーなどを得ることが出来ると言う。

「生成AIは最近想像力をかき立てるが、Sec-PaLMはGoogleとDeepMindによる長年の基礎的なAI研究、および当社のセキュリティチームの深い専門知識に基づいています。我々は、生成AIをセキュリティに適用することの力を理解し始めたばかりです。”我々は、顧客のためにこの専門知識を活用し続け、セキュリティコミュニティ全体の進歩を促進することを楽しみにしています」と、Googleはブログ投稿で述べている。

Cloud Security AI Workbenchの最初のツールであるVirusTotal Code Insightは、現時点では限定プレビューでしか利用できないが、Googleは、今後数カ月のうちに「信頼できるテスター」に残りの機能を提供する予定であると述べている。Sec-PaLMが実際にどの程度機能するのか、あるいは機能しないのかは、まだ分からない。

結局のところ、AIの言語モデルは、どんなに最先端であっても間違いを犯すのだ。また、プロンプトインジェクションのような攻撃を受けやすく、作成者の意図しない動作をさせられる可能性がある。

既に3月、Microsoftは、GPT-4を含むOpenAIの生成的AIモデルを使用して、脅威インテリジェンスを「要約」し「意味づけ」することを目的とした新しいツール、Security Copilotを発表した。プレス資料の中で、Microsoftは(Googleと同様に)、生成AIによって、セキュリティ専門家が新たな脅威と戦うための装備がより整うと主張している。

その点については、まだ結論が出ていない。実際のところ、サイバーセキュリティのための生成AIは、何よりも誇大広告である可能性もある。何より、その有効性に関する研究はほとんど行われていないのだ。それまでは、GoogleとMicrosoftの主張はそのまま鵜呑みにせずに見守る必要があるだろう。


Source

Follow Me !

この記事が気に入ったら是非フォローを!

Share!!

スポンサーリンク

おすすめ記事

執筆者
Photo of author

masapoco

TEXAL管理人。中学生の時にWindows95を使っていたくらいの年齢。大学では物理を専攻していたこともあり、物理・宇宙関係の話題が得意だが、テクノロジー関係の話題も大好き。最近は半導体関連に特に興味あり。アニメ・ゲーム・文学も好き。最近の推しは、アニメ『サマータイムレンダ』

記事一覧を見る

コメントする

CAPTCHA