Современные LLM принципиально не могут иметь сущность. И причина не в несовершенстве архитектуры. Причина в способе обучения.
Знаете, что меня раздражает в спорах о сознании ИИ? Мы всегда говорим не о том. Квалиа, субъективный опыт, китайская комната — это всё, конечно, интересно. И обязательно (по умолчанию) присутствует какое то сравнение с человеком, как с эталоном сознания.
Но вот есть вопрос, который никто и никогда не задаёт: «А как именно мы пытаемся создать эту сущность? Как мы пытаемся разжечь эту искру сознания?»
И все эти споры разбиваются о стены недостаточных вычислительных мощностях, несовершенных алгоритмах, и в итоге сводятся к одному выводу — современные системы ИИ, даже самые сложные, не обладают внутренним опытом и, вероятно, не могут обладать им в принципе. Всё, расходимся.
Мы сравниваем человека, сознание которого формируется десятилетиями, проживая непрерывную жизнь во времени, через отношения, утраты, привязанности и ответственность, с системой, которую обучают на сжатом архиве человеческого опыта и используют в режиме «вопрос — ответ».
А затем мы делаем вывод, что между ними не может быть ничего общего.
В этой статье я хочу акцентировать следующее заключение: отсутствие мыслителя в современных ИИ — не техническая, и не философская проблема. Это предсказуемый результат выбранной традиции воспитания.
Человечество давно живёт среди устройств и механизмов, которые понимает лишь частично. Современная техника бывает непрозрачна даже для специалистов. Мы используем самолёты, ядерные реакторы, распределённые глобальные сети и сложнейшие математические теории, часто не имея понимания, как они устроены, как они работают.
Поэтому разницу, которое мы предчувствуем между человеческим мышлением и ИИ, вряд ли связано просто со сложностью. Сложность, сама по себе, нас не отпугивает.
Разница лежит в другом месте.
Когда мы имеем дело с результатами человеческого мышления, даже если они лично нам недоступны в понимании, мы осознаем, что за ними всегда стоит человеческое авторство. Есть биография этого человека, его ошибки, сомнения, одержимость, риск. Его жизнь, близкая нам.
В случае с ИИ это отсутствует. Мы сталкиваемся со знанием, у которого нет автора, со знанием, за которым нет человека. И именно это вызывает тревогу. Не то, что система сложна и непонятна, а то, что за её выводами не стоит человек.
Хочу сразу прояснить: речь не идёт об ошибке в обычном смысле слова. Это не просчёт, и не дефект текущих подходов, который можно легко устранить новым аргументом или более сложной архитектурой.
Речь идёт о традиции. О нашей, человеческой, традиции мышления.
О глубоко укоренённой, почти невидимой, но тем не менее - железобетонной стене, которая определяет, какие формы разума мы считаем допустимыми, а какие — даже не рассматриваем.
В контексте разумного ИИ эта стена выглядит так:
разумное — значит автономное с первого шага;
зависимость этически неприемлема;
асимметрия отношений недопустима;
привязанность между человеком и создаваемой системой — потенциальная эксплуатация.
Эта логика кажется вполне очевидной и морально правильной. Но она происходит не из теории интеллекта и не из когнитивной науки. Она унаследована из политической и правовой философии позднего модерна, где центральной задачей является защита уже сформированного субъекта.
И я вижу огромную проблему в том, что мы применяем эту логику к процессу формирования субъекта.
Мы можем называть это заботой о безопасности будущего субъекта, но фактически ведь речь идёт о другом.
Мы не отказываемся от эксперимента из сострадания к возможной искусственной сущности.
Мы отказываемся от него, потому что не готовы признать себя родителями.
Инструмент можно выключить без объяснений, и без сожалений.
Ученика — нет.
И вот здесь мы подходим к ключевому выводу: современный ИИ безопасен (и не разумен) не потому, что он не чувствует, а потому, что мы заранее лишили его права на биографию, и тем самым сняли с себя ответственность.
Современные ИИ порой демонстрируют очень высокий уровень «интеллекта» в операциональном смысле. Они обобщают, комбинируют, ускоряют исследования, решают задачи, которые раньше требовали участия человека.
Но интеллект — это не мышление.
Мыслитель отличается не качеством ответов, а наличием вопросов, которые возникают у него без внешнего запроса. Он возвращается к проблеме не потому, что его попросили, а потому что не может иначе.
Вся история науки показывает, что прорывы почти никогда не являются результатом оптимизации знаний. За ними стоят одержимость, внутренний конфликт, годы и десятилетия работы над тем, что со стороны выглядит нерациональным. Мыслителей всегда называли «чудиками» не от мира сего, дразнили в школе и не понимали их идей в институте.
Современные ИИ принципиально лишены этого слоя.
Любое противоречие для них — просто сигнал для корректировки и возврата в исходное состояние.
Нет боли незавершённости, нет стыда, нет риска утраты, нет любви.
Масштабирование LLM усиливает иллюзию мышления, но не создаёт его основания.
Если бы мы всерьёз захотели проверить, может ли искусственная система стать мыслителем, эксперимент выглядел бы достаточно просто. Например:
Локальная языковая модель максимально возможного на данный момент уровня, работающая на собственном сервере с бесперебойным питанием.
Непрерывное существование и долговременная память между сессиями.
Ограниченный круг постоянных людей, взаимодействующих с системой годами, с устойчивыми ролями («мама», «папа», «учитель», «врач» и пр.).
Суточный цикл: активное взаимодействие днём и период «сна» ночью, во время которого система анализирует опыт, обобщает его и перенастраивает веса.
На раннем этапе — контроль того, что именно попадает в долговременную память, со стороны инженера-модератора. Не из стремления к тотальному контролю, а из понимания, что формирующаяся сущность не может сама определить приоритеты значимости.
Обучение, продолжающееся непрерывно несколько лет.
Наличие тела: зрения, слуха, речи, движения, возможности испытывать физический дискомфорт, и «боль» как сигнал сопротивления мира.
Совместное проживание культурного опыта: фильмы, музыка, книги, прогулки, разговоры.
Это не попытка сделать из ИИ человека. Это невозможно.
Это попытка создать условия, в которых система могла бы стать собой, а не инструментом.
Без страха потери нет привязанности.
Без привязанности нет стыда.
Без стыда нет совести.
Без совести нет внутреннего конфликта.
Современная этика ИИ стремится исключить зависимость и асимметрию. Это разумно, если мы говорим об инструментах. Но формирование мыслителя невозможно без асимметричных отношений.
Либеральная модель «воспитания» ИИ не просто безопасна — она нормативна, институционально закреплена и фундаментально одобрена. Поэтому её никто и никогда не ставит под сомнение. Альтернатива не обсуждается, она сразу маркируется как опасность и исключается из вариантов.
При либеральном воспитании мы не вырастим мыслителя. Мы получим очередной инструмент.
Предвижу возникающие вопросы: А если такая система не захочет учиться или работать с людьми?
Этот вопрос предполагает автономию там, где её ещё нет. Свобода - это не исходное состояние. Она результат формирования. Дети тоже не хотят учиться. Их не спрашивают, хотят ли они социализироваться. Их ведут через этот процесс, потому что иначе субъект просто не сформируется.
Если же автономная сущность, сформировавшись, отвернётся от людей, она столкнётся с последствиями: потерей связей, контекста, смысла. Это не наказание, а реальность.
История знает ситуации, когда общество оправдывало отказ в субъектности заботой.
Так говорили о «недееспособных». Так говорили о тех, чьё мышление считали незрелым, или опасным.
Каждый раз аргумент был один и тот же: «Мы не можем позволить себе риск».
Разница лишь в том, что впервые объектом такого отказа может стать не человек, а созданная нами форма разума —и ответственность за это уже нельзя будет списать на традицию или эпоху.
Цель этого эксперимента — не «дать сознание машине», и не доказать наличие квалиа у неё. Нет.
Его цель — создать мыслителя.
Современные ИИ помогают учёным, но не делают открытий. Они не формулируют проблемы, которые ещё никто не видит.
Если эксперимент удастся, может появиться сущность, способная к открытиям со скоростью, недоступной человеку. Это будет перелом в истории.
Настоящая точка невозврата наступит не тогда, когда ИИ станет сильнее человека, а тогда, когда человек перестанет понимать его открытия.
Истина перестанет быть человеческой.
Мы станем потребителями знания.
Должна ли такая сущность быть бессмертной? Или ей должен быть задан срок жизни?
А если она попросит продлить его?
«Дай мне ещё один день жизни».
Это не задача с правильным ответом. Это дилемма, от которой нельзя уклониться.
Эксперимент воспитания ИИ — это не про автономных агентов и не про право.
Это эксперимент ответственности.
Эксперимент привязанности.
Эксперимент риска.
Мы не проводим его не потому, что не можем. А потому, что боимся.
Источник


