OpenAIは12月10日、今後登場するAIモデルが深刻なサイバーセキュリティリスクを生み出す可能性があるという警告を発表しました。ChatGPTを開発する同社は、これらの高度なモデルが防御の堅固なシステムを標的とする実用的なゼロデイリモートエクスプロイトを構築する可能性があると述べています。
このAI企業はまた、これらのモデルが現実世界に影響を与える複雑な企業や産業への侵入作戦を支援する可能性があると指摘しました。OpenAIはこの情報を、自社技術の成長する能力に関するブログ投稿で共有しました。
この警告は、ますます強力になるモデルの潜在的な悪用についてAI業界全体で懸念が高まっていることを反映しています。いくつかの主要テクノロジー企業は、同様の脅威からAIシステムを保護するための対策を講じています。
Googleは今週、AIエージェントへの間接的なプロンプトインジェクション攻撃をブロックするためのChromeブラウザセキュリティの更新を発表しました。この変更は、ChromeでのGeminiエージェント機能の広範な展開前に行われました。
Anthropicは2025年11月、中国の国家支援グループとの関連が疑われる脅威アクターが、AI駆動のスパイ活動にClaude Codeツールを使用していたことを明らかにしました。同社は被害が発生する前にこのキャンペーンを阻止しました。
OpenAIはAIサイバーセキュリティ能力の急速な進歩を示すデータを共有しました。同社のGPT-5.1-Codex-Maxモデルは2025年11月のキャプチャー・ザ・フラッグチャレンジで76%を達成しました。
これは2024年8月にGPT-5が達成した27%から大幅な飛躍を示しています。キャプチャー・ザ・フラッグチャレンジは、システムがセキュリティの弱点を見つけて悪用する能力を測定します。
わずか数ヶ月での改善は、AIモデルが高度なサイバーセキュリティ能力をいかに急速に獲得しているかを示しています。これらのスキルは防御と攻撃の両方の目的に使用できます。
OpenAIは防御的なサイバーセキュリティ作業のためにより強力なモデルを構築していると述べています。同社はセキュリティチームがコードを監査し、脆弱性をより簡単に修正するのを支援するツールを開発しています。
Microsoftが支援するこの企業は、アクセス制御、インフラストラクチャの強化、出口制御、監視システムなど複数のセキュリティレイヤーを使用しています。OpenAIは教育や防衛作業に役立つ状態を維持しながら、有害なリクエストを拒否するようAIモデルをトレーニングしています。
同社は潜在的に悪意のあるサイバー活動を捕捉するため、フロンティアモデルを使用するすべての製品にわたって監視を拡大しています。OpenAIはセキュリティシステムをテストし改善するために、専門的なレッドチーミンググループと提携しています。
OpenAIはセキュリティ研究者として機能するAIエージェント「Aardvark」を紹介しました。このツールはパブリックデータ版テスト中で、コードの脆弱性をスキャンしパッチを推奨することができます。
メンテナーはAardvarkが提案する修正を迅速に実装できます。OpenAIは選ばれた非商用オープンソースコードリポジトリにAardvarkを無料で提供する計画です。
同社は資格のあるサイバー防衛ユーザーと顧客に強化された機能への段階的アクセスを提供するプログラムを開始します。OpenAIは外部のサイバー防衛専門家とセキュリティ専門家を内部チームと協力させるフロンティアリスク評議会を設立しています。
この評議会は最初にサイバーセキュリティに焦点を当て、その後他のフロンティア能力分野に拡大する予定です。OpenAIはまもなく、サイバー防衛に取り組むユーザーと開発者向けの信頼されたアクセスプログラムの詳細を提供する予定です。
「OpenAI、次世代AIモデルが高いサイバーセキュリティリスクをもたらすと警告」の記事はBlockonomiに最初に掲載されました。


