ВведениеВ середине 90‑х я получил первый домашний компьютер — IBM‑совместимую машинку на процессоре Intel 286. Установка Windows требовала кучу дискет, а жёсткиВведениеВ середине 90‑х я получил первый домашний компьютер — IBM‑совместимую машинку на процессоре Intel 286. Установка Windows требовала кучу дискет, а жёстки

Как стать программистом: от Intel 286 до Large Language Models

2026/02/18 00:45
4м. чтение

Введение

В середине 90‑х я получил первый домашний компьютер — IBM‑совместимую машинку на процессоре Intel 286. Установка Windows требовала кучу дискет, а жёсткий диск вмещал «весь» 20‑30 МБ. Информация тогда хранилась в бумажных книгах и в полках библиотек.

Сейчас, спустя почти три десятилетия, обучение программированию выглядит совершенно иначе. Ниже я расскажу, как менялись возможности обучения, и почему сейчас Large Language Models (LLM) могут стать вашим личным наставником.


1. 1990‑е: поиск знаний в библиотеке

  • Как всё начиналось – 1995 год, изучал Pascal, пытался поступить на факультет программирования, но попал в техническую физику.

  • Где искал информацию – книги в библиотеке, «знакомые», которые часто отмахивались от вопросов.

  • Проблемы – долгий поиск, отсутствие обратной связи, необходимость писать всё с нуля.


2. 2004 год: «возрождение» и микроконтроллеры

  • Вернулся к программированию, когда знакомый дал мне микроконтроллеры.

  • За 2‑месяца изучил архитектуру 8051, PIC, AVR, купил несколько справочников и через 4 месяца собрал первый работающий проект (управление светодиодом).

  • Интернет тогда был слабым – почти никаких готовых примеров, всё писалось вручную.


3. 2006‑2015: форумы, но…

  • Появились форумы (Stack Overflow, Хабр), но задавать вопросы часто означало получить грубый ответ («ты же ламер»).

  • Преподаватели в вузе редко учили писать «чистый» код – в основном теория.

  • Пришлось учиться самостоятельно, ошибаться и исправлять свои ошибки.


4. 2020‑е: Large Language Models как наставник

С появлением LLM процесс обучения резко упростился, а главное я пришел к выводу что локальные модели зачастую работают лучше чем облачные.

Плюсы локальных LLM

  • Мгновенный ответ на любой вопрос, ну конечно в зависимости от вашего оборудования и выбранной модели.

  • Тонкая настройка – можно попросить объяснить каждую строку кода.

  • Нет риска быть оскорблённым – модель отвечает вежливо и терпеливо.

  • Доступ 24 / 7, без необходимости искать книги или форумы или способ оплаты облачных моделей.

  • Генерация кода – Вы получаете полностью работающий скрипт.

  • Разбор кода – ваш вопрос моржет быть таким - прошу объяснить каждую строку, и получаете комментарии.

  • Отладка – копируете сообщение об ошибке, модель подсказывает, как её исправить.

  • Изучение новых технологий – спрашиваете про Rust, WebAssembly, микросервисы и получаю короткие обзоры.

Ограничения

  • Ответы модели нужно проверять – иногда она генерирует «правдоподобный», но неверный код.

  • Лучший способ учиться – сочетать подсказки LLM с реальной практикой.

  • Ну и конечно самым большим ограничением является то что запустить крупную модель локально стоит в современных условиях довольно дорого. Но судя по рекламным ссылкам в Яндекс, в которых предлагаются просто игровые компьютеры по цене выше 3млн. рублей. Должны быть люди которые имеют возможность и желание создать AI сервер намного мощнее таких геймерских ПК, а по цене сильно дешевле.

    От этого конечно никуда ни скрыться, верить в современном мире никому нельзя, иногда даже себе не нужно верить.

Заключение

Тридцать лет назад путь к программированию пролегал через библиотеки, кучи дискет и иногда враждебные форумы. Сегодня, благодаря Large Language Models, каждый может получить мгновенную, вежливую и подробную помощь – от генерации кода до объяснения его работы.

Это не отменяет необходимости практики, но делает обучение гораздо доступнее. Если вы только начинаете, задайте LLM простой вопрос о синтаксисе; если уже работаете над сложным проектом – попросите помочь с оптимизацией. В любом случае у вас теперь есть персональный наставник, который никогда не назовёт вас «ламером», а лишь поможет стать лучше.

PS.

Собрать компьютер для исследования и запуска нейросетей можно за 1.5 млн рублей, конечно пока работает коридор с нашими китайскими друзьями. Могу в этом помочь пока уверен в том что канал работает. Вперед деньги не возьму.

А еще существует в на разных ресурсах люди которые пытаются запускать сильно кастрированные модели, менее 32 миллиардов параметров, даже на серверном оборудовании и получают сильно отрицательный результат. После чего начинают как сейчас модно говорить - хейтить весь AI.

Ну и меня за эту крамолу в этой статье возможно начнуть хейтерить.

Автор: [DemonRYB]

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.