На фоне всей этой каши между Anthropic, Пентагоном и OpenAI, думаю, самое время объяснить, в чём на самом деле ценность ИИ. Потому что именно через эту оптику всё происходящее наконец начинает приобретать смысл.
Дело вот в чём. ИИ — это троянский конь. Это эксплуататорская олигархия, нарядившаяся в костюм инструмента для повышения продуктивности. Давайте провалимся в очень неприятную кроличью нору.
ИИ в целом не повышает продуктивность. Для автоматизации он недостаточно хорош. И раз за разом исследования показывают, что он разрушает профессиональные навыки работников. Несмотря на масштабное внедрение ИИ, никакого скачка производительности не произошло.
Но подождите. Нам же говорили другое. Нам говорили, что корпорации вливают миллиарды в ИИ именно потому, что это следующая промышленная революция. Новый уровень автоматизации. Взрыв продуктивности. Экономическое чудо. Только вот ничего из этого не сбывается. Так в чём тогда реальная причина, по которой ИИ считается таким ценным? Какую настоящую пользу он приносит своим владельцам, инвесторам, пользователям?
Если посмотреть на то, что ИИ действительно умеет делать хорошо, ответ становится довольно очевидным. Он создаёт и укрепляет новую технократическую олигархию. Да-да, ваш любимый чат-бот — это идеальный инструмент авторитаризма, замаскированный под слегка отполированную версию скрепки из Microsoft Office.
Как? Давайте начнём с истории про Anthropic и Пентагон — потому что она куда сложнее, чем её подают.
Паноптикум — концептуально и этически ущербная идея, предложенная Джереми Бентамом в XVIII веке для повышения эффективности тюрем через ощущение постоянного наблюдения и самоконтроля. Конструкция состоит из двух частей: центральная наблюдательная башня и кольцо камер вокруг неё. Устроено так, что охранники видят каждый уголок каждой камеры и каждого заключённого — а заключённые не видят охранников. Человек в камере никогда не знает, наблюдают за ним прямо сейчас или нет, — и живёт в ощущении постоянной слежки. Бентам полагал, что это заставит людей контролировать собственное поведение, а значит, одного охранника хватит на целую тюрьму. Коротко: наблюдатель видит всё, наблюдаемый — ничего, и потому наблюдаемый ведёт себя тихо.
Дайте себе секунду осознать, почему это чудовищная идея.
А теперь — вот что: современный генеративный ИИ на корпоративном и государственном уровне функционирует ровно как цифровая версия паноптикума. Он идеально подходит для незаметной слежки.
Большие языковые модели вроде ChatGPT и Claude глубоко разрушают цифровую приватность. Они могут с высокой точностью определить местоположение по одной простенькой фотографии — по сути, геотегируя любое когда-либо снятое изображение или видео. Идеальный инструмент для слежки. И ChatGPT, и Claude обладают точными способностями к распознаванию лиц. Да, существуют ограничители, чтобы эту функцию нельзя было использовать для наблюдения, — но обходятся они до обидного легко. Учитывая, что мы живём в мире, где камеры встроены в телефоны, автомобили, дверные звонки и ноутбуки, — нетрудно представить, как эти ИИ могут быть использованы для слежки за каждым.
И это не теория. Palantir — частная служба государственного наблюдения, замаскированная под компанию по анализу данных, — имеет собственный ИИ, который именно этим и занимается: распознаёт и отслеживает лица и локации. Мы также знаем, что Palantir использует внешние большие языковые модели для интеграции, анализа и визуализации огромных разрозненных массивов данных для спецслужб и оборонных ведомств, позволяя им принимать быстрые решения. Иначе говоря, эти ИИ соединяют каждый фрагмент вашего цифрового следа — и передают его властям. Мы знаем, что для этого Palantir использует и Claude, и ChatGPT. В нашем цифровом мире это фактически круглосуточное наблюдение. И оно уже применяется против иммигрантов — ICE использует все эти сервисы.
Но корпорации могут делать то же самое со своими сотрудниками.
Этих ботов можно натренировать на колоссальном объёме внутренних данных и переписок, чтобы находить всё что угодно — от «неэффективных сотрудников» до попыток создания профсоюзов и их подавления на корню. Многие инструменты корпоративного надзора — так называемый Bossware — уже используют интегрированные языковые модели для «интерпретации» тона и контекста рабочих коммуникаций и поведения сотрудников: оценка рисков, анализ продуктивности, прогнозирование поведения. Корпоративные версии идут ещё дальше: если организация покупает enterprise-подписку на LLM (такая опция есть и у ChatGPT, и у Claude), администратор фактически видит каждое ваше взаимодействие с ИИ. Заставляя сотрудников работать через эти модели, работодатель получает возможность наблюдать за каждым их действием. Burger King каким-то образом пошёл ещё дальше — встроил ChatGPT в гарнитуры работников, якобы «для помощи в приготовлении блюд», а заодно — для мониторинга их поведения. Можно назвать это микроменеджментом. А можно — ИИ-паноптикумом.
Именно поэтому вся эта драма с Пентагоном, Anthropic и OpenAI — для меня полная чушь. Не поймите неправильно: я рад, что Anthropic не захотела, чтобы её ИИ использовался для «массовой внутренней слежки» и «полностью автономного оружия». И я чертовски рад, что обратная реакция на то, как OpenAI бросилась занять освободившееся место, оказалась настолько мощной, что количество удалений ChatGPT взлетело почти на 300%.
Но в большой картине Anthropic ничем не лучше OpenAI. Давайте не забывать, что Claude использовался при недавних ударах по Ирану. И обе компании — часть нашего нового ИИ-паноптикума, который позволяет корпорациям и правительствам следить за нами на беспрецедентном уровне. Скептик во мне считает, что вся эта история — маркетинговый ход Anthropic, и что мне следовало бы говорить людям: переход на Claude — не та этическая альтернатива, которой вы его считаете. И как будто подтверждая мою мысль: пока я писал этот текст, Anthropic снова ведёт переговоры с Пентагоном…
К слову. Если уж выбирать, с какими моделями работать, — возможно, стоит не привязываться ни к одной из этих корпораций напрямую.
Сервисы вроде BotHub дают доступ к экосистеме топовых нейросетей — GPT-5.4, Claude 4.6 и другим — в одном окне, без необходимости кормить кого-то одного своими данными и лояльностью.
Для доступа не требуется VPN, можно использовать российскую карту.
Казалось бы: если тебе нечего скрывать — зачем переживать? А вот почему. Паноптикумы, чёрт возьми, не работают.
Бентам предполагал, что угроза постоянного наблюдения создаст порядок. Он ошибся. Всё, что она реально создаёт, — это тревожность, изоляцию, недоверие и ощущение уязвимости. Это становится очевидным, если задуматься хотя бы на секунду. Но вот в чём штука: тревожность запускает режим «бей или беги», который делает людей более агрессивными и менее управляемыми. То есть это не только этически отвратительно — это ещё и не приводит к тем поведенческим изменениям, ради которых затевалось.
И эта тревожность не беспочвенна. У паноптикума знаменитая проблема — «кто наблюдает за наблюдателями?». Вся дисциплинарная власть сконцентрирована в руках немногих, а их интерпретация — увы — и объективная реальность зачастую очень разные вещи. Наблюдаемый не знает, как будут восприняты его действия, какими бы благими ни были его намерения.
Ещё один нюанс: паноптикум функционирует, только если несёт реальную угрозу для тех, кто под ним. Необходимо постоянное видимое принуждение, иначе страх перед наблюдателем исчезает — и давление подчиняться пропадает. То есть паноптикум не обязательно снижает количество необходимого насилия для контроля — и, по сути, может провоцировать дополнительное, хаотичное, неизбирательное «наказание» для поддержания нужного уровня страха и тревоги.
Именно поэтому я подозреваю, что демонстративно вопиющие действия ICE и нынешняя лавина корпоративных массовых увольнений отчасти служат именно этой цели: вселить страх перед ИИ-наблюдателем, чтобы ИИ-паноптикум работал.
Но в действительности паноптикум годится только для одного: делать тех, кто под ним, тревожными — а значит, легко управляемыми — и концентрировать власть в руках наблюдателя. Всё, что изменилось в современном ИИ-паноптикуме, — он ставит олигархов, владеющих и управляющих этими ИИ-системами, в позицию абсолютной власти. Судья, присяжные и палач в одном лице. В некоторых случаях — буквально.
В обществе, где капиталистические элиты всё больше переходят к монополистическому извлечению власти и богатства из девяноста девяти процентов, легко понять, почему ИИ и его паноптикум считаются настолько ценными — и почему неспособность ИИ повысить продуктивность или хотя бы приносить прибыль никого не смущает. Дело не в продуктивности. Дело в манипуляции и доминировании элиты.
Но это только начало кроличьей норы. Генеративный ИИ — особенно в его нынешнем виде больших языковых моделей — по самой своей архитектуре порождает совершенно новую форму всепроникающего элитаризма.
Элитаризм — это не то, что многие думают. Это убеждение, что избранное меньшинство должно обладать большей властью, чем все остальные. По сути, элитаризм — это фашизм-лайт: он почти всегда вынужден прибегать к беспочвенной дегуманизации, чтобы создать иллюзию меритократии.
ИИ делает это возможным на куда более фундаментальном уровне, чем всё, что мы видели раньше.
Помните, как Grok внезапно начал восхвалять Маска, утверждая, что тот лучший абсолютно во всём? Даже если это сделал не сам Маск — эта история наглядно демонстрирует, какой контроль владельцы и операторы ИИ имеют над своим продуктом. Если им нужно, чтобы ИИ принимал определённые решения, — они могут это обеспечить.
А эти модели используются правительствами, корпорациями, организациями и частными лицами для «автоматизации» задач, работ и решений. Пусть мы знаем, что это вряд ли повышает продуктивность, — зато это помещает огромную долю ключевых решений в руки тех, кто контролирует ИИ. Иными словами, сама структура больших языковых моделей глубоко элитарна по своей природе. Пропуская данные и решения через ИИ, вы концентрируете власть в руках элитарного класса.
Вот почему данные о том, что ИИ вызывает выгорание и значительный когнитивный спад у работников, — не проблема для тех, кто его внедряет. Это подрывает и подавляет коллективную способность рабочей силы принимать решения и проявлять собственную власть внутри системы — и передаёт всё это технологическим олигархам и корпоративным владельцам ИИ.
Почему это плохо? Элитаризм — фундаментально сломанная идеология. Синдром высокомерия означает: чем больше у тебя власти, тем хуже решения ты принимаешь. Разрыв в эмпатии и сопутствующая «аффлюэнца» означают: чем ты богаче и могущественнее, тем меньше у тебя сочувствия. Элитаризм создаёт систему, управляемую теми, кому плевать на большинство и кто принимает ужасные решения.
Нетрудно понять, почему технологические миллиардеры и топ-менеджеры считают это ценным — ведь оно концентрирует власть в их руках. Но в реальности последствия идут гораздо дальше.
Помните, я говорил, что элитаризм — это фашизм-лайт? Так вот, большие языковые модели по своей природе глубоко дегуманизирующи — а это критический шаг к закреплению элитаризма и олигархии.
LLM дегуманизируют таким количеством способов, что их трудно сосчитать. Они дегуманизируют тех, на чьих работах обучены, — не компенсируя им ничего. Они дегуманизируют работников через «микроменеджмент» и уничтожение их творческой ценности. Как и обычный паноптикум, наш ИИ-паноптикум сводит внутреннюю моральную автономию к конформизму из страха и паранойе. Это не только снижает и обесценивает наше восприятие собственной человечности, но и легитимизирует насилие в отношении других — раз наше собственное понимание морали целиком построено на страхе, значит, все остальные тоже дегуманизированы. ИИ изолирует нас, заставляя взаимодействовать с ним вместо других людей, разрушая чувство общности и снижая эмпатию. Через слежку и «автоматизацию» ИИ сплющивает человеческий опыт и ценность до цифр в глазах спецслужб, правительств и корпораций — дегуманизируя тех, кто находится под их властью. Это уплощение и дистанция драматически снижают социальную ответственность государств и корпораций через деиндивидуализацию, делая возможными чудовищно эксплуататорские действия против тех, кто не входит в элитарный класс.
Можно продолжать и продолжать. Но если коротко: стоит ли удивляться, что технология, использующая математику для статистического фокуса, плохо имитирующего человека, — дегуманизирует?
Нетрудно увидеть, почему определённые влиятельные правительства и корпорации видят колоссальную ценность в этой повальной дегуманизации. Она снимает любую социальную ответственность и делает тех, кто под её властью, менее эмпатичными — к окружающим и даже к самим себе. По сути, это делает возможной эксплуатацию масс для обогащения элиты — именно то, что необходимо олигархии и фашизму.
Есть бесчисленное множество других способов, которыми ИИ укрепляет олигархию — например, это идеальный инструмент технофеодализма. Но, думаю, свою мысль я донёс, а текст и без того разросся сверх всякой меры.
Теперь мы видим, почему большие языковые модели — идеальный инструмент для современной олигархии, которой нужна власть для сохранения и наращивания своих активов. Их можно впихнуть куда угодно под вывеской продуктивности — а на деле они колоссально усиливают позиции владельцев.
Вот почему тех, кто стоит за ИИ, не волнует, что он не повышает продуктивность — потому что продуктивность не является целью. Точно так же их не волнует, что вся индустрия всё дальше от прибыльности: поддержание этого денежного костра — небольшая цена за укрепление олигархического доминирования и превращение остальных в современных крепостных. Вот почему они с радостью раздували ИИ-пузырь до размеров, способных обрушить экономику.
Нынешняя индустрия генеративного ИИ не имеет никакого отношения к продуктивности. Она о том, как капитал обращается к авторитаризму, чтобы усилить и обогатить себя, защищаясь от демократической ответственности. Это идеальный пример того, как нерегулируемый капитализм скатывается к фашистскому поведению — потому что «максимизация капитала» почти всегда равнозначна уничтожению человеческого опыта.
Вот почему происходящее в ИИ так тесно связано с империалистическим безумием, которое разворачивается прямо сейчас. Нынешнее состояние ИИ-индустрии — это симптом нашего политического ландшафта. А значит, борьба с поступью ИИ — это одновременно борьба против геноцида, против бессмысленных мировых войн, за демократию, за эмпатию, за человеческий опыт.
Так что если вы уходите из OpenAI, потому что они так отчаянно хотели вылизать ботинки Хегсету, — может, стоит задуматься об уходе из генеративного ИИ вообще?
Источник


