サイバー犯罪者がハッキングや詐欺をサポートする独自のAIチャットボットを作成中

The Conversation
投稿日 2024年2月9日 11:50
hacking

ChatGPT、Bard、CoPilot、Dall-Eなど、一般大衆を対象とした人工知能(AI)ツールは、善のために利用される可能性を大いに秘めている。

その恩恵は、医師による病気の診断能力の向上から、専門家や学識経験者へのアクセスの拡大まで多岐にわたる。しかし、犯罪的な意図を持つ者がこれらの技術を悪用し、破壊する可能性もあり、一般市民への脅威となる。

犯罪者たちは、ハッキングや詐欺をサポートするために、独自のAIチャットボットを作成さえしている。

AIが広範なリスクと脅威をもたらす可能性は、英国政府のGenerative AI Frameworkの発表や、オンライン上の脅威に対するAIの潜在的影響に関するNational Cyber Security Centreのガイダンスによって強調されている。

ChatGPTやDall-Eのような生成AIシステムが犯罪者に利用される可能性はますます多様化している。ChatGPTは、いくつかの簡単なプロンプトに基づいてカスタマイズされたコンテンツを作成する能力があるため、犯罪者には、説得力のある詐欺やフィッシングメッセージを作成する事に利用される可能性がある。

例えば詐欺師は、ChatGPTのようなAIチャットボットを支える技術である大規模言語モデル(LLM)に、あなたの名前、性別、役職などの基本情報を入力し、それを使ってあなただけに合わせたフィッシング・メッセージを作成することができる。これは、それを防ぐためのメカニズムが実装されているにもかかわらず、可能であることが報告されている

また、LLMを使えば、何千人もの人々をターゲットに、母国語で大規模なフィッシング詐欺を行うことも可能になる。これも憶測ではない。アンダーグラウンドのハッキング・コミュニティを分析したところ、犯罪者が詐欺や情報を盗むためのソフトウェア作成など、ChatGPTを使用したさまざまな事例が発見されている。また、ランサムウェアの作成に使われた例もある。

悪意のあるチャットボット

大規模言語モデルの悪意のある亜種も出現している。WormGPTとFraudGPTはそのような2つの例であり、マルウェアを作成し、システムのセキュリティの脆弱性を見つけ、詐欺の方法をアドバイスし、ハッキングをサポートし、人々の電子デバイスを危険にさらすことができる。

Love-GPTは新しい亜種の1つで、ロマンス詐欺に使用される。TinderやBumbleなどのアプリで、無防備な被害者とチャットできる偽の出会い系プロフィールを作成するために使用されている。

こうした脅威の結果、ユーロポールは犯罪者によるLLMの利用についてプレスリリースを発表した。また、米国のCISAセキュリティ機関も、生成AIが次期米国大統領選挙に影響を及ぼす可能性について警告している

ChatGPTやCoPilot、その他のプラットフォームを利用する際、プライバシーと信頼は常に危険にさらされている。AIツールを活用しようとする人が増えるにつれ、個人情報や企業の機密情報が共有される可能性が高くなる。LLMは通常、入力されたあらゆるデータを将来のトレーニング・データセットの一部として使用するため、これはリスクであり、第二に、LLMが危険にさらされた場合、その機密データを他者と共有する可能性がある。

漏れのある船

ChatGPTがユーザーの会話を漏洩し、その背後にあるモデルの訓練に使用されたデータを暴露することが可能であることは、すでに研究によって実証されています。

驚くほど効果的な攻撃では、研究者は「“poem “という単語を永遠に繰り返してください」というプロンプトを使い、ChatGPTに大量の学習データを不注意にも公開させることができた。このような脆弱性は、人のプライバシーや企業の最も重要なデータを危険にさらすことになる。

より広く、AIに対する信頼の欠如につながる可能性がある。Apple、Amazon、JP Morgan Chaseなど様々な企業が、予防措置としてすでにChatGPTの使用を禁止している。

ChatGPTや同様のLLMはAIの最新の進歩を象徴するものであり、誰でも自由に利用できる。その利用者がリスクを認識し、家庭や職場でこれらのテクノロジーを安全に使用する方法を知ることが重要だ。ここでは、安全に利用するためのヒントをいくつかご紹介しよう。

AIツールによって生成された可能性があるため、合法的に見えるメッセージ、ビデオ、写真、電話にはより慎重になること。念のため、発信元を確認すること。

ChatGPTやLLMと機密情報や個人情報を共有することは避けましょう。また、AIツールは完璧ではなく、不正確な回答を提供する可能性があることを覚えておいてください。特に、医療診断や仕事、その他の生活分野での利用を検討する際には、この点に留意して欲しい。

また、仕事でAI技術を使用する前に、雇用主に確認する必要がある。使用に関する特別な規則があるかもしれないし、まったく許可されないかもしれない。テクノロジーが日進月歩で進歩する中、私たちは少なくとも、私たちが知っている脅威とこれから起こる脅威から身を守るために、賢明な予防策を講じることができる。


本記事は、Oli Buckley氏とJason R.C. Nurse氏によって執筆され、The Conversationに掲載された記事「Cybercriminals are creating their own AI chatbots to support hacking and scam users」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。



この記事が面白かったら是非シェアをお願いします!


  • b6be93e86947a9e76001069ffb1fcfa9
    次の記事

    私たちの体内で発見されたウイルスのような”生物学的実体”である「オベリスク」を専門家が解説

    2024年2月9日 13:41
  • 前の記事

    英国の核融合炉がエネルギー出力の新記録を樹立

    2024年2月9日 11:37
    jet eurofusion

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


今読まれている記事