OpenAI выпустила предупреждение 10 декабря, заявив, что ее предстоящие модели ИИ могут создать серьезные риски кибербезопасности. Компания, стоящая за ChatGPT, заявила, что эти продвинутые модели могут создавать работающие удаленные эксплойты нулевого дня, нацеленные на хорошо защищенные системы.
Компания ИИ также отметила, что эти модели могут помочь в сложных корпоративных или промышленных операциях вторжения, которые приводят к реальным последствиям. OpenAI поделилась этой информацией в блог-посте, посвященном растущим возможностям своей технологии.
Предупреждение отражает опасения всей индустрии ИИ о потенциальном неправильном использовании все более мощных моделей. Несколько крупных технологических компаний предприняли действия для защиты своих систем ИИ от подобных угроз.
Google объявила на этой неделе об обновлениях безопасности браузера Chrome для блокировки непрямых атак внедрения промптов на ИИ-агентов. Изменения были внесены перед более широким развертыванием агентных функций Gemini в Chrome.
Anthropic раскрыла в ноябре 2025 года, что злоумышленники, потенциально связанные с китайской группой, спонсируемой государством, использовали ее инструмент Claude Code для управляемой ИИ шпионской операции. Компания остановила кампанию до того, как она причинила ущерб.
OpenAI поделилась данными, показывающими быстрый прогресс в возможностях ИИ в области кибербезопасности. Модель GPT-5.1-Codex-Max компании достигла 76% в соревнованиях capture-the-flag в ноябре 2025 года.
Это представляет собой значительный скачок по сравнению с 27% баллов, которые GPT-5 достиг в августе 2024 года. Соревнования capture-the-flag измеряют, насколько хорошо системы могут обнаруживать и использовать слабые места в безопасности.
Улучшение всего за несколько месяцев показывает, как быстро модели ИИ приобретают продвинутые возможности кибербезопасности. Эти навыки могут использоваться как для оборонительных, так и для наступательных целей.
OpenAI заявила, что создает более сильные модели для оборонительной работы в области кибербезопасности. Компания разрабатывает инструменты, чтобы помочь командам безопасности проверять код и легче исправлять уязвимости.
Фирма, поддерживаемая Microsoft, использует несколько уровней безопасности, включая контроль доступа, укрепление инфраструктуры, контроль выхода и системы мониторинга. OpenAI обучает свои модели ИИ отклонять вредоносные запросы, оставаясь полезными для образования и оборонной работы.
Компания расширяет мониторинг всех продуктов, использующих передовые модели, чтобы обнаруживать потенциально вредоносную кибер-активность. OpenAI сотрудничает с экспертными группами красной команды для тестирования и улучшения своих систем безопасности.
OpenAI представила Aardvark, ИИ-агента, который работает как исследователь безопасности. Инструмент находится в стадии публичного бета-тестирования и может сканировать код на наличие уязвимостей и рекомендовать патчи.
Разработчики могут быстро внедрять исправления, предлагаемые Aardvark. OpenAI планирует предложить Aardvark бесплатно для выбранных некоммерческих репозиториев кода с открытым исходным кодом.
Компания запустит программу, предоставляющую квалифицированным пользователям и клиентам в области кибербезопасности многоуровневый доступ к расширенным возможностям. OpenAI формирует Совет по рискам передовых технологий, привлекая внешних специалистов по кибербезопасности и экспертов для работы со своими внутренними командами.
Совет начнет с фокуса на кибербезопасности, прежде чем расширяться на другие области передовых возможностей. OpenAI скоро предоставит подробности о программе доверенного доступа для пользователей и разработчиков, работающих в области кибербезопасности.
Пост OpenAI предупреждает, что модели ИИ следующего поколения представляют высокие риски кибербезопасности впервые появился на Blockonomi.


