Вышла Qwen2.5-Coder 32B. Открытая локальная модель для кода небольшого размера конкурирующая с GPT-4o
После выхода Qwen2.5, которая подняла LLM небольших размеров на новый уровень, так как при размере всего 72B и, особенно, 32B - она показывала очень хорошие качество размышления и следования инструкциям, все начали с нетерпением ждать выхода Coder 32B модели, так как ожидали от неё уровня близкого к GPT-4o.И вот, наконец-то, Qwen представила эту коллекцию моделей для кода размерами: 0.5B, 1.5B, 3B, 7B, 14B и 32B.
Размер контекста 128k, лицензия Apache 2.0 (кроме модели 3B). До текущего момента самой популярной локальной моделью для программирования была Codestral 22b, новая же модель в бенчмарке McEval на 40 языках программирования показывает результаты лучше чем она, и по некоторым языкам обгоняет GPT-4o.Падение качества от модели к модели с уменьшением размера B можно оценить из этой таблицы.
habr.com