Протестировано, как OpenCode работает с локальными LLMs: Qwen 3.5, 3.6, Gemma 4, Nemotron 3, GLM-4.7 Flash - v2
Краткое содержание
Я провел два теста на каждой БЯМ с OpenCode, чтобы проверить их базовую готовность и удобство: — Создание CLI IndexNow на Golang (Простая задача) и — Создание карты миграции для веб-сайта по Стратегии SiteStructure. (Сложная задача). Протестировал Qwen 3.5, & 3.6, Gemma 4, Nemotron 3, GLM-4.7 Flash и несколько других БЯМ. Использовался размер контекста: 25k–50k — варьируется в зависимости от задач и моделей. Результаты представлены в таблице ниже; большинство точных названий квантизаций указаны в таблице скорости. Надеюсь, вам это будет полезно.---В версии v2 я добавил тесты: — Qwen 3.6 35b q3 и q4 => результат хуже ожидаемого; — Qwen 3 Coder Next => очень хороший результат; — и Qwen 3.5 27b q3 Bartowsky => разочаровывает. https://preview.redd.it/akly3cx1sowg1.png?width=687&format=png&auto=webp&s=5eb5f4868d87b5c78924916e9078b6f63e1d6d82 Скорость большинства этих локально размещенных БЯМ на RTX 4080 (16 ГБ VRAM) приведена ниже (чтобы дать представление о том, насколько быстро/медленно работает каждая модель). Использовал llama.cpp с рекомендованными параметрами temp, top-p и другими параметрами, а также значениями памяти и слоев по умолчанию.
Полный текст статьи пока не загружен.