Марія Бровінська ШІ 2 березня 2026, 15:38 2026-03-02
AI, етика і Пентагон: чому посварилися OpenAI та Anthropic і як Claude обігнав ChatGPT
У США розгорівся масштабний конфлікт навколо використання штучного інтелекту в оборонній сфері. У центрі — OpenAI, Anthropic, їхні флагманські моделі ChatGPT і Claude, а також United States Department of Defense.
Історія вже вийшла за межі корпоративної суперечки — вона впливає на ринок AI, федеральні контракти та публічну дискусію про межі військового застосування штучного інтелекту.
Залишити коментар
У США розгорівся масштабний конфлікт навколо використання штучного інтелекту в оборонній сфері. У центрі — OpenAI, Anthropic, їхні флагманські моделі ChatGPT і Claude, а також United States Department of Defense.
Історія вже вийшла за межі корпоративної суперечки — вона впливає на ринок AI, федеральні контракти та публічну дискусію про межі військового застосування штучного інтелекту.
Що сталося
Наприкінці лютого стало відомо, що Anthropic відмовилася погодитися з вимогами Пентагону щодо потенційного розширення сценаріїв використання її моделі Claude у державних системах.
За даними американських медіа, мова йшла про можливе застосування AI в інструментах масового аналізу даних, використання у військових системах та розширення повноважень без частини вбудованих обмежень.
CEO Anthropic Даріо Амодей заявив, що компанія «не може зі спокійним сумлінням» погодитися на зняття запобіжників, якщо це відкриває шлях до автономних систем без належного людського контролю.
Після цього федеральні структури почали перегляд співпраці з Anthropic. У публічному просторі з’явилися повідомлення про призупинення використання її технологій у частині держструктур.
У гру заходить OpenAI
На цьому тлі OpenAI уклала окрему угоду на $200 млн з United States Department of Defense щодо використання своїх моделей у державних і, ймовірно, класифікованих системах.
CEO компанії Сем Альтман публічно наголосив, що угода передбачає «червоні лінії» (red lines), зокрема, йдеться заборону використання для масового внутрішнього спостереження, заборону на автономні системи летальної дії без участі людини, наявність технічних і юридичних запобіжників.
OpenAI заявила, що впроваджуватиме додаткові механізми контролю та аудит використання моделей у державному секторі.
Ринок відреагував миттєво
Скандал швидко вийшов за межі оборонної політики й перетворився на репутаційний тест для AI-ринку.
Після того як United States Department of Defense фактично відмовився від співпраці з Anthropic через небажання послаблювати запобіжники для військового використання Claude, застосунок компанії в суботу піднявся на перше місце за завантаженнями у США, обігнавши ChatGPT.
У соцмережах з’явився рух на кшталт «Cancel ChatGPT». Instagram-акаунт quitGPT за кілька днів набрав близько 10 тис. підписників.
На Reddit пост про контракт OpenAI з Пентагоном зібрав понад 30 тис. upvote під заголовком «Cancel and Delete ChatGPT!!!».
Біля офісу Anthropic у Сан-Франциско з’явився напис крейдою: «you give us courage».
Додатковим тригером для частини користувачів стали згадки про те, що президент OpenAI Ґреґ Брокман раніше жертвував $25 млн супер-PAC, який підтримував Дональда Трампа
Довгостроковий бізнес-ефект для Anthropic поки неочевидний. Однак у короткій перспективі конфлікт підживив інтерес до Claude, спровокував хвилю критики на адресу OpenAI, запустив кампанії із закликами відмовитися від ChatGPT.
Залишити коментар
Текст: Марія Бровінська Теги: claude, anthropic, openai, chatgpt, штучний інтелект
Знайшли помилку в тексті – виділіть її та натисніть Ctrl+Enter. Знайшли помилку в тексті – виділіть її та натисніть кнопку «Повідомити про помилку».