ヨーロッパ警察機構(Europol)は、OpenAIの大規模言語モデルに基づくAIチャットボット「ChatGPT」が詐欺、サイバー犯罪、テロ活動を助長する手段として悪用されていることを指摘した。ChatGPTは、2022年11月にリリースされるとインターネット上で瞬く間に大きな話題を呼び、歴史上最も急速に成長したサービスとなり、多くのユーザーが、エッセイやジョーク、メール、プログラミングコードなどを生成するために利用しているなど、各方面に多大な影響を与えている。だが今回、このChatGPTが、すでに違法行為にも使用されているとのことだ。
「犯罪者は新技術を速やかに悪用する傾向があり、ChatGPTの公開からわずか数週間後には具体的な犯罪行為が確認されています」とEuropolは報告書で述べている。ChatGPTは有害な入力リクエストに応じないように設計されているが、ユーザーはOpenAIのコンテンツフィルターシステムを回避する方法を見つけている。例えば、パイプ爆弾やクラックコカインの作り方を出力させることも出来てしまうのだ。
Europolは、「犯罪者が特定の犯罪分野について何も知らない場合、ChatGPTは研究プロセスを大幅に加速させることができます。ChatGPTは、家の侵入方法やテロ活動、サイバー犯罪、児童性的虐待など、広範囲な犯罪分野について学ぶことができます」と警告している。
このような情報はインターネット上で既に公開されているが、ChatGPTは特定の犯罪を実行する方法を見つけやすく、理解しやすくしている。Europolはまた、ChatGPTが対象をなりすますことで詐欺やフィッシングを容易にし、テロ活動を支援するプロパガンダやデマ情報を生成する可能性も指摘している。ChatGPTが悪意のあるコードを生成する能力がサイバー犯罪のリスクを高めているとも報告されている。
「技術的知識が乏しい潜在的な犯罪者にとって、これは非常に貴重なリソースです。同時に、より高度なユーザーは、これらの向上した機能を利用して、洗練されたサイバー犯罪の手口をさらに洗練させ、自動化することができます」と報告書は述べている。
大規模言語モデル(LLM)は、まだ発展途上だが、技術企業がこの技術の開発にリソースを投入することで急速に進化している。OpenAIはすでに、より高性能なGPT-4をリリースしており、MicrosoftやGoogleも、ChatGPTのリリース以降、AIを活用したWeb検索チャットボットを導入している。
Europolは、さらなる企業がAI機能やサービスを展開するにつれて、違法行為のための新しい手法が生まれることを指摘している。「会話型チャットボットと、非常にリアルなディープフェイクなどの合成メディアを生成できるシステムを組み合わせたマルチモーダルAIシステムが、法執行機関の報告によれば、今後の犯罪手法となる可能性があります」と述べている。
また、ダークウェブ上で、コンテンツフィルターがなく有害なデータで訓練された言語モデルがホストされる可能性もあるだろう。
「最後に、LLMサービスが今後どのようにユーザーデータを処理するかには不確実性があります。会話が保存され、機密情報が許可されていない第三者に晒される可能性はありますか?また、ユーザーが有害なコンテンツを生成している場合、それは法執行機関に報告すべきですか?」と、Europolは問いかけている。
Source
コメントを残す