Всем привет,Продолжаю разбираться с ИИ - вычислениями ...Спасибо t.me/prog_stuff за наводку на llm-checker — CLI, который сканирует железо и говорит, какие модеВсем привет,Продолжаю разбираться с ИИ - вычислениями ...Спасибо t.me/prog_stuff за наводку на llm-checker — CLI, который сканирует железо и говорит, какие моде

Какие LLM потянет ваше железо?

2026/02/24 14:17
1м. чтение

Всем привет,

Продолжаю разбираться с ИИ - вычислениями ...

Спасибо t.me/prog_stuff за наводку на llm-checker — CLI, который сканирует железо и говорит, какие модели потянет Ollama. Сканирует GPU, RAM, CPU и оценивает каждую модель по скорости, качеству и совместимости. 35+ моделей от 1B до 32B, список модерируется вручную.

Ссылка репозитарий на GitHub, установка командой: npm install -g llm-checker.

Проверил на своем MacAir (M1, 16 Гб), получил такую рекомендацию - qwen2.5 - coder, 7B.
Буду пробовать.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.