Честная история о том, как я взялся за проект по внедрению ИИ в разработку во время переезда на новый стек.
Про себя пишу всю подноготную, но клиентов, естественно, оставляю анонимными.
Обычно я провожу обучение на учебных кейсах, и уже потом ребята применяют выученные подходы в работе с продакшн кодом. Тут же команда уже больше недели вайбкодила сама, а запрос ко мне был на корректировку и улучшение процесса.
Во-первых, перенос со старого стека на новый дает серьезные плюшки – уже известны все edge-кейсы и можно тестировать "об" существующий продукт
Во-вторых, ребята действительно замотивированы на результат – от самих разработчиков до менеджмента. Не нужно преодолевать первичное сопротивления. Ребята уже используют ИИ, просто делают это не централизованно и без какой-то общей системы
Я понимаю, что у меня две задачи:
Чтобы у команды был настроенный под их процессы ИИ агент
Чтобы ребята сами умели эффективно с ним взаимодействовать
Вот, что я делаю за неделю:
Провожу несколько созвонов, где вытаскиваю из команды информацию о проекте, задачи, процессы, проблемы и т.д. Стараюсь вытащить максимум tacit knowledge – неявные знания, которые не лежат в документации, но распределены по команде
Убеждаю менеджмент перейти с Cursor на Claude Code
Изучаю существующие настройки агентов, ищу противоречия и слепые зоны, формулирую опросник и отправляю команде. Делаем несколько итераций вопросов-ответов, пока я не формирую окончательное понимание. А если я понял, то агент точно поймет. Добавляю в CLAUDE.md

Смотрю, как один из разработчиков (назовем его Пашей) использует агента в работе, даю фидбэк лично, а потом еще несколько раз пишу рекоммендации команде

Вместе с командой замыкаем Feedback loop:
линтинг, typescript, tests
playwright Skill для агента, чтобы он мог "видеть" UI в браузере
Добавляю агента для сравнения лоб в лоб нового фронтенда со старым
Записываю видео, как я реализовываю фичу с нуля (от сбора агентом продуктовых требований по старому фронтенду, до итогового ревью)
Звучит все хорошо, но на самом деле я понимаю, что к концу недели результатов для команды примерно 0.
Да, мы там что-то пообсуждали, я провел несколько спонтанных мини-лекций, посмотрел в реальном времени как работает Паша, прописал настройки для агента. Но самое главное – что и как команда делает – глобально не изменилось.
Ошибка 1
Дело в том, что я слишком много делал сам, давая им какой-то "магический артефакт", который не понятно как работает, и непонятно как поддерживать. Реальные навыки формируются на собственной практике и через итерации ошибок/фиксов
Ошибка 2
Слишком поздно выделил основных early-adopters в команде и не фокусировался на них. А кажется, что сделать очень хороший кейс с одним человеком на порядок лучше, чем средний со всей командой. Потому что этот один потом сам сможет распространить знания и опыт на команду. Причем, на долгосроке. Ну и команда ему явно будет больше доверять, чем какому-то левому консалтеру.
Ошибка 3
Внедрять ИИ в процессе переезда на новый стек в сжатые сроки. Да, это дает прикольные плюшки, но и огромные минусы:
Новый репозиторий -> много архитектурных выборов -> Высокая цена ошибки. Чуть-чуть неконтроллируемого вайбкодинга и последствия придется разгребать на протяжении всей жизни репозитория
Нет времени на обучение команды и настройку процессов. Команда уже в предрелизном состоянии, и все ребятам справедливо нет дела до долгосрочных улучшений, без мгновенного результата
К концу недели понимаю, что сильно завысил ожидания заказчика от работы со мной. И результат явно не дотягивает. Очень дурацкое ощущение.
Походив выходные с кислым лицом, сажусь писать заказчику, что не доволен результатом и готов поработать дополнительно, чтобы дойти до ценности для команды. Делаю разбор сделанной работы и план изменений. Об это дальше
Я понимаю, что невозможно оптимизировать то, что не измеряешь. А я в этой ситуации максимально слеп – у меня 0 инфы, как команда на самом деле использует ИИ в работе. Доступны только итоговые артефакты – код и в лучшем случае какие-то спеки.
Плюс сильно напрягает, что очень мало кто реально начал использовать Claude Code на постоянке
Решаю убить двух зайцев – договариюсь с тимлидом, что команда будет экспортить свои сессии Claude Code и отправлять мне
Так я смогу точнее понимать, где затыки в реальной работе, а у команды появляется минимальная отчетность – сразу видно, кто еще не начал полноценно использовать Claude Code.
Вот сообщение, которое я пишу в пн с утра:
Естественно, это не сработало. Мало того, что команда и так в предрелизном состоянии, так еще и нужно помнить об экспорте каждой сессии для какого-то Коли, которые еще и будет потом чет критиковать.
Опытные менеджеры знают, что при внедрении новых процессов важно минимально добавлять новых приседаний.
Поэтому я пишу скрипт, который выгружает в облако сразу все сессии Claude Code за последние N часов. Договариваемся с тимлидом, что просим всех запускать этот скрипт тупо один раз в конце рабочего дня. Если кто-то продалбывается, пушим на следующий день с N=48
Вот его упрощенная версия для личного пользования: ссылка (чтобы не только вы агенту объясняли, где он косячит, но и он вам тоже 😅)
Я трачу часы на ревью сессий и начинаю видеть основные проблемы, пишу репорты и скидываю команде.
Ребята сами фиксят проблемы. Что-то в агентских инструкциях, а что-то в своих паттернах. Вижу это по экспортам сессий следующих дней. Спустя неделю пишу финальный репорт и делюсь доработанным скриптом с командой, чтобы они могли продолжать итерации и без меня.
Делюсь с командой одной из своих проходок на конфу Подлодки Крю про ИИ в разработке.
По итогу, ребята полностью оплачивают мою работу и мы хорошо расходимся.
Не то чтобы это хэппи энд – я все еще считаю, что мог бы дать команде сильно больше, но я доволен, что попытался поменять подход, прозрачно это откоммуницировал и команда в итоге получила свою пользу.
Ребят, если вы это читаете, желаю вам удачи и терпения на этом пути, вы молодцы!
Выбрать в команде одного внутреннего ответсвенного за "ИИ-трансформацию"
Сделать регулярный экспорт сессий и анализ с рекоммендациями (можно через ИИ, но человек из пункта 1 обязательно должен фильтровать буллщит)
Начинать применять ИИ на задачах с малой ценой ошибки: админка/дашборды, разовая аналитика, прототипы, ревью (с человеческой проверкой). Не брать архитектурные таски!
Брать задачи, которые вручную делались бы за 4-8 часов, не больше.
Начинать с малого – итерации над CLAUDE.md + docs/*.md. Потом постепенно прописывать Skills и bash скрипты для повторяющихся частей работы, и только после этого осторожно тестить субагентов
Рассчитывать на долгосрок, и не делать выводов по первым результатам. Кодинг с ИИ – навык, который требует практики, так же как и навыки управления командой – заспидранить просто не получится.
Помнить: если кому-то кажется, что он тратит много времени на планирование изменений прежде, чем отдать ИИ на имплементацию – ему кажется. Часто лишняя минута планирования экономит 5-10 минут последующих исправлений
Когда я обсудил этот кейс с моим другом Максимом (Head of AI в крупном банке), мы поняли, что это вообще больная тема у большинства команд. Он предложил собрать известных ребят с разным бэкграундом, чтобы разобрать ее со всех сторон - от фаундеров стартапов до stuff позиций в крупнейших компаниях мира.
У нас 12 очень крутых спикеров, 2700 участников и классный партнер (Стратоплан)
Без булшита, только практика вроде той, что описана выше. Буду рад видеть:
[Подробности]
P.s. для тех, кто подписан на спикеров, участие бесплатное
Источник

