2024年11月21日、米国レノのスマートフォン画面に表示されたAnthropicのClaudeアプリロゴ。(写真:Jaque Silva/NurPhoto via Getty Images)
NurPhoto via Getty Images
しばらくの間、ランサムウェアなどの高度なマルウェアを作成する比較的少数のサイバー犯罪の天才たちのビジネスモデルは、ダークウェブ上でより技術力の低いサイバー犯罪者にマルウェアやサービスを提供し、時には配信システムも提供して、一般的には受け取った身代金の一定割合を見返りとするというものでした。しかし、AIの登場により、このモデルは急速に変化し、技術力の低い犯罪者でもAIを活用して様々なオンライン詐欺を実行できるようになりました。
AIツールはソーシャルメディアや公開情報源から膨大なデータを収集し、サイバー犯罪者がスピアフィッシングメールと呼ばれる特定のターゲットを狙ったフィッシングメールを作成することを可能にします。これらのメールは標的となる被害者から信頼される可能性が高く、個人情報の提供を誘導して身元盗難につながったり、何らかの口実で支払いをさせたりすることがよくあります。
容易に入手できるディープフェイク動画や音声クローン技術により、サイバー犯罪者は祖父母詐欺や家族緊急事態詐欺、ビジネスメール詐欺など様々な詐欺を実行できるようになりました。これらは過去には主にメールを通じたソーシャルエンジニアリング戦術に依存し、詐欺師が会社の幹部を装って、下位レベルの従業員に何らかの口実で詐欺師の指示通りに支払いを承認するよう説得するものでした。2018年頃から広まったこの詐欺は、FBIによると2023年10月から12月の間に世界中で550億ドル以上の損失をもたらしました。
現在、AIの登場とディープフェイク技術や音声クローン技術の使用により、詐欺師たちはさらに手口を高度化させています。2024年には、エンジニアリング会社のArupが、ディープフェイクのビデオ通話で会社のCFOを装い、従業員に送金を説得したサイバー犯罪者に2500万ドルを失いました。
しかし、状況は思っているほど悪くありません。それよりもはるかに悪いのです。
Claudeチャットボットを開発した会社Anthropicは最近、そのチャットボットが高度なサイバー犯罪の開発と実行にどのように使用されたかを詳述した報告書を発表しました。この報告書では、サイバー犯罪者によるAIの使用の進化について説明しており、AIをマルウェア開発のツールとしてだけでなく、「Vibe-hacking(バイブハッキング)」と呼ばれるサイバー攻撃の積極的な実行者として使用する方法が記されています。報告書では、イギリスを拠点とするGTG-5004と呼ばれるサイバー犯罪者の例を挙げています。この犯罪者はClaudeを使用して、何千ものVPNエンドポイントをスキャンして脆弱なシステムを見つけ、ランサムウェア攻撃に弱い企業を特定し、企業ネットワークへの最適な侵入方法を決定し、機密データを盗むための回避能力を持つマルウェアを作成し、マルウェアを配信し、データを盗み、ハッキングされた企業を恐喝するのに最適なデータを判断するためにデータを選別し、さらには心理学を使用して身代金要求メールを作成していました。また、Claudeは標的企業の財務記録を盗み、盗まれた資料を公開しない見返りとして要求するビットコインの金額を決定するためにも利用されました。
1ヶ月間でGTG-5004はClaudeを使用して、政府、医療、緊急サービス、宗教機関に関わる17の組織を攻撃し、75,000ドルから500,000ドル以上の要求を行いました。
その後GTG-5004は、暗号化機能やハッカーが検出を回避するための方法など、さまざまなレベルのパッケージを含むオンデマンドのランサムウェアサービスをダークウェブ上の他のサイバー犯罪者に販売し始めました。報告書が指摘している重要な点は、過去には技術的に洗練された犯罪者が自分で作成したマルウェアをダークウェブで販売またはリースしていたのとは異なり、「この運営者はClaudeの支援なしには暗号化アルゴリズム、解析防止技術、Windowsの内部操作を実装する能力がないように見える」ということです。
その結果、一人のサイバー犯罪者が、以前なら暗号技術、Windowsの内部構造、回避技術に熟練した全チームが必要だったことを行い、ランサムウェアを作成し、ターゲティング、悪用、収益化に関する戦略的および戦術的な決定を自動的に行い、さらに遭遇した防御策に適応することができるようになりました。これらすべてが、サイバー犯罪を犯そうとする犯罪者のハードルを下げています。
報告書はまた、北朝鮮の工作員がテクノロジー企業でリモートの仕事を獲得するためにAI機能がどのように悪用されているかについても詳述しています。報告書によると、「伝統的な北朝鮮のIT労働者の活動は、北朝鮮内で若いうちから採用され訓練された高度なスキルを持つ個人に依存していました。私たちの調査は根本的な変化を明らかにしています:AIが主要な手段となり、限られた技術スキルしか持たない工作員が西側のテクノロジー企業に成功裏に侵入し、地位を維持することを可能にしています。」
報告書では、AIを使用することで、自分で基本的なコードを書いたり英語でコミュニケーションを取ったりすることができなかった韓国の工作員が、現在では面接に合格し、テクノロジー企業で仕事を得ることに成功し、北朝鮮の武器プログラムに資金を提供する年間数億ドルを稼いでいることが説明されています。さらに悪いことに、AIを通じて、各工作員はAIの使用なしでは不可能だったアメリカのテクノロジー企業で複数の職位を維持することができます。
Anthropicは、これらの活動に関連するアカウントを禁止し、この種の活動を特定するためのカスタマイズされた分類器を開発し、既存の安全強制システムに検出対策を組み込むことで、特定された脅威に対応しました。さらに、Anthropicは他の企業やセキュリティおよび安全コミュニティと調査結果を共有し、AIプラットフォームを使用する犯罪者によってもたらされる脅威を認識し、防御するのを支援しています。しかし、サイバー犯罪のためのAIの使用の脅威は大きく迫っています。
Anthropicの報告書は、AI業界全体への警鐘となっています。
出典: https://www.forbes.com/sites/steveweisman/2025/09/02/ai-is-making-cybercrime-easier-for-unsophisticated-criminals/






