GLM-5.1 стал доступен всем пользователям Coding Plan: почти на уровне Claude Opus 4.6?
Недавно пользователи Coding Plan от Z.ai начали получать письмо о том, что модель GLM-5.1 стала доступна для всех в рамках подписки.Коротко: это обновление позиционируется как серьёзный шаг вперёд относительно GLM-5, особенно в задачах программирования.В письме говорится:GLM-5.1 — это заметное улучшение по сравнению с GLM-5 модель показывает результаты, близкие к Claude Opus 4.6 в coding-задачах доступ открыт всем пользователям Coding PlanТакже приводится внутренняя оценка (benchmark), где:Claude Opus 4.6 — 47.9GLM-5.1 — 45.3GLM-5 — 35.4То есть разрыв между GLM-5 и GLM-5.1 довольно существенный, а до уровня Opus остаётся небольшой зазор.Это внутренний бенчмарк Z.ai, в котором модели оцениваются на задачах программирования через Claude Code как обвязку (harness).
То есть модели прогоняются через единый интерфейс и получают баллы за выполнение coding-задач. При этом сам набор задач, критерии оценки и методика подсчёта результатов не раскрываются, поэтому такие цифры стоит воспринимать скорее как относительное сравнение внутри одного теста, а не как объективный показатель качества.Если цифры хотя бы частично отражают реальность:GLM-5.1 — это уже не “ещё одна дешёвая модель”, а конкурент в coding-сегментеразрыв с топовыми моделями сокращаетсяпоявляется больше альтернатив Claude/OpenAI в задачах разработкиНо важно понимать:это внутренний benchmark (не внешний независимый тест)не раскрыто, какие именно задачи использовалисьнеясно, как модель ведёт себя в реальных сценариях (большие проекты, контекст, edge-cases)GLM-5.1 потенциально интересен в нескольких сценариях:генерация кода в IDE/CLIбыстрые правки и рефакторингдешёвая альтернатива дорогим моделям для повседневной разработкиавтоматизация через APIОсобенно если учитывать,
habr.com