Новая платформа для деплоя, обновления и мониторинга AI‑моделей в проде
Привет, Хабр! Мы запустилиInference Valve — платформу для внедрения и эксплуатации любых ML-моделей, больших языковых моделей и моделей компьютерного зрения.Платформа снижает операционную нагрузку на команды до 70% за счёт автоматизации рутины, также существенно сокращает время интеграции моделей в бизнес-процессы.С помощью платформы CV-модели могут автоматически анализировать видео, находя определённые объекты, сцены и действия, или классифицировать медицинские изображения.ML- и LLM-модели смогут генерировать и структурировать тексты, анализировать данные, создавать их описание, прогнозировать показатели маркетинга и продаж, отвечать на часто задаваемые вопросы в HR-порталах.Inference Valve позволяет разворачивать голосовые модели для синтеза и анализа речи, а также внедрения их в кол-центры.Компании могут развернуть как собственные обученные модели, так и воспользоваться готовыми к работе опенсорсными моделями.
Кроме того, Inference Valve интегрируется с ML-платформой и CI/CD-инструментами для создания бесшовного процесса от обучения ИИ до его внедрения в бизнес-процессы и непрерывного обновления.Платформа доступна в частном облаке на инфраструктуре MWS Cloud, on-premises, а также в составе программно-аппаратных комплексов в закрытом контуре, включая режимы с ограниченным доступом к внешним сетям.Inference Valve поддерживает одновременную работу сразу с несколькими моделями с выделением квот вычислительных ресурсов, управление версиями, маршрутизацию трафика между версиями и масштабирование под нагрузку как на GPU, так и на CPU.Inference Valve также предоставляет метрики задержек и пропускной способности, мониторинг доступности, алёрты и дашборды; доступна телеметрия качества, включая отслеживание дрейфа данных и
habr.com