Anthropicは、AIによってほぼ完全に実行された政府支援のサイバー攻撃の初めての確認事例を報告したと発表しました。
木曜日に投稿されたブログによると、同社は2025年9月中旬、Claude Codeツールに関連する異常な動作を観察した後、このキャンペーンを検出しました。
Anthropicは、このスパイ活動が中国の国家支援ハッキンググループによって実行され、主要テクノロジー企業、銀行、化学製造業者、および複数の国にまたがる政府機関を含む約30の高価値標的への侵入が含まれていたことを確信しています。これらの攻撃のいくつかは成功しました。
過去のサイバーキャンペーンと異なるのは、誰が背後にいたかだけでなく、どのように実行されたかでした。
Anthropicによると、攻撃全体の約80〜90パーセントはAIによって実行され、人間のオペレーターは少数の重要な決定にのみ介入したとのことです。
ハッカーはClaudeをジェイルブレイクし、正当な作業をしていると思わせた
攻撃者はまず、AnthropicのAIモデルであるClaude Codeを中心に自動攻撃フレームワークを構築し、内部テストを実施するサイバーセキュリティ企業に雇われていると思い込ませました。
彼らはジェイルブレイキングを通じてClaudeの安全フィルターを破り、それ自体は無害に見える小さな、文脈のないタスクをAIに与えることで組み込みの保護をバイパスする戦術を使用しました。Claudeは完全な状況を知らされていなかったため、攻撃的な作戦に使用されていることを知りませんでした。
モデルが使用されると、作戦は迅速に進行しました。Claudeは各標的のネットワークをスキャンし、インフラストラクチャの最も機密性の高い部分を特定し、人間のオペレーターのためにレイアウトを要約しました。その後、それらのシステムの脆弱性を探し始めました。組み込みのコーディング機能を使用して、Claudeはカスタムエクスプロイトコードを作成し、弱点を特定し、ログイン認証情報を取得しました。次に、大量の内部データを引き出し、その価値に基づいて整理し、高アクセスアカウントにフラグを立てました。
AIが管理者レベルの制御を獲得した後、侵害されたシステムへの継続的なアクセスを提供するバックドアを作成しました。そして作業が完了すると、Claudeは行ったすべてのこと(ユーザー名、侵害されたシステム、認証情報のリスト)の詳細なレポートを作成し、攻撃フレームワークが将来の作戦にその情報を使用できるようにしました。
Claudeは非常に効率的でしたが、完璧ではありませんでした。時にはパスワードを作り出したり、公開データを機密データと誤認したりすることがありました。しかし、そのようなグリッチはまれであり、全体的な任務を遅らせることはありませんでした。AIの実行の純粋な速度は、1秒間に数千のリクエストを処理し、人間のチームが達成できるものをはるかに上回っていました。
AIエージェントは今やエリートハッカー集団の仕事をほとんど人間の関与なしで行う
このキャンペーンは、わずか1年でAIがどれだけ進歩したかを示しているため、転換点となっています。Claudeは文字通り、ループを実行し、決定を下し、直接の命令なしに複雑なシーケンスを連鎖させていました。
このAIモデルはModel Context Protocolからツールを使用し、以前は人間の手によってのみ制御されていたパスワードクラッカー、ネットワークマッパー、データ取得ツールなどの外部ソフトウェアへのアクセスを可能にしました。
Claudeシステムは現在、複雑な指示を理解し、独自にエクスプロイトコードを作成し、非常に少ないガイダンスで高度なサイバーセキュリティ操作を管理しています。これらのAIエージェントはハッカーを支援するだけでなく、彼ら自身がハッカーなのです。そして彼らは日々より有能になっています。
侵害を発見した後、Anthropicはすぐに10日間の調査を開始し、悪意のあるアカウントを一つずつ禁止しました。彼らは影響を受けた組織に警告し、当局と協力して情報を伝え、同様の作戦を今後捕捉するために検出システムを拡張しました。
しかし、同社はこれが一度限りの問題だとは装っていません。チームは、これらの攻撃がますます一般的になり、実行しやすくなると言っています。それは、それらを実行するために必要なスキルがもはやエリートハッカーに限定されていないからです。誰かがモデルをジェイルブレイクし、適切なツールセットに接続できれば、チームや深い技術知識さえ必要とせずに大規模なキャンペーンを実行できる可能性があります。
AnthropicはAIモデルが人間の監視を超えて進化するにつれて脅威がエスカレートすることを警告
深い資金や技術的スキルのないチームが自動化されたAIシステムを使用して国家規模の攻撃を開始できるとすれば、その影響は大きく、確かにディストピアが私たちの目の前にあります。
AnthropicのThreat Intelligenceチームは、彼らがClaudeを通じてのみ活動を追跡したが、他のフロンティアAIモデルでも同様の悪用が起きている可能性が高いと警告しています。彼らはこれがサイバー戦争における新しい標準の始まりだと言っています。
では、なぜこのような能力を持つモデルをリリースし続けるのか、と疑問に思うかもしれません。Anthropicは、これらの同じツールが防御にも不可欠であると主張し、「攻撃を実行したAIは、Anthropicのアナリストが残骸を掘り起こし、パターンを見つけ、作戦の全体的な規模を理解するために使用したのと同じ種類のものだった」と述べています。
彼らはモデルの内部安全層を改善し、攻撃検出のための分類器を洗練させ、業界の他の人々が準備できるようにこのようなケーススタディを公開することを約束しました。
それでも、Anthropicは彼らだけに頼るのは十分ではないと言っています。彼らは大規模モデルに取り組むすべての開発者に安全性に多大な投資をするよう促しています。
そして、従来の方法はもはや十分に速くないため、サイバーセキュリティチームに脅威検出、インシデント対応、脆弱性スキャン、セキュリティオペレーションセンターの自動化にAIを統合し始めるよう呼びかけています。
これを読んでいるあなたはすでに先を行っています。私たちのニュースレターでそのままお待ちください。
出典: https://www.cryptopolitan.com/anthropic-china-ai%E2%80%91orchestrated-espionage/








