cognitronn Китай технологии общество доллар интересное крипто gemini cognitronn Китай

MiniMax выпустила M2.5 — MoE-модель с 10 млрд активных параметров и открытыми весами

Китайская компания MiniMax представила модель M2.5, построенную на архитектуре MoE. У нее 10 млрд активных параметров при 229 млрд общих, что позволяет держать вычислительную нагрузку относительно умеренной, сохраняя масштаб и гибкость.По заявлению разработчиков, модель обучалась в сотнях тысяч сложных сред и способна самостоятельно планировать действия без явных пошаговых инструкций.

Акцент сделан на агентных сценариях, веб-поиске и офисных задачах. В ряде тестов по кодингу M2.5, как утверждается, обходит Claude Opus 4.6.В бенчмарках компания заявляет превосходство над GPT-5.2, Gemini 3 Pro и Claude в веб-поиске и агентных задачах.

DMCA