С помощью платформы CV-модели могут автоматически анализировать видео, находя определенные объекты, сцены и действия или классифицировать медицинские изображения. ML‑ и LLM‑модели смогут генерировать и структурировать тексты, анализировать данные, создавать их описание, прогнозировать показатели маркетинга и продаж, отвечать на часто задаваемые вопросы в HR-порталах. Также на платформе можно разворачивать голосовые модели для синтеза и анализа речи, а также внедрения их в колл-центры. 

Компании могут развернуть как собственные обученные AI-модели, так и воспользоваться готовыми к работе опенсорсными моделями. Кроме того, Inference Valve интегрируется с ML-платформой и инструментами непрерывной разработки (CI/CD), что позволяет выстроить бесшовный процесс от обучения ИИ до его внедрения в бизнес-процессы и непрерывного обновления. 

Платформа доступна в частном облаке на инфраструктуре MWS Cloud, on-prem на серверах заказчика, а также в составе программно-аппаратных комплексов (ПАК) в закрытом контуре, включая режимы с ограниченным доступом к внешним сетям. 

После запуска кластера специалисты заказчика загружают артефакты модели (например, ONNX, TorchScript) в платформу, после чего она автоматически формирует контейнер сервиса и публикует эндпоинт. Платформа поддерживает одновременную работу сразу с несколькими моделями с выделением квот вычислительных ресурсов, управление версиями, маршрутизацию трафика между версиями и масштабирование под нагрузку как на GPU, так и на CPU. 

Inference Valve также предоставляет метрики задержек и пропускной способности, мониторинг доступности, алёрты и дашборды; доступна телеметрия качества, включая отслеживание дрейфа данных и моделей, контроль целевых метрик и уведомления при деградации. Интеграция с системами наблюдаемости (Prometheus/Grafana) и журналированием запросов упрощает аудит и разбор инцидентов.

Без активного внедрения искусственного интеллекта практически невозможно рассчитывать на лидерство на рынке. Только в MWS Cloud спрос на инфраструктуру для ИИ за год вырос в два раза. При этом недостаточно просто обучить AI-модель. Её ещё нужно интегрировать в бизнес-процессы компании, наладить её бесперебойную работу, отслеживать успешность её работы. Inference Valve позволяет сделать это из коробки с помощью нескольких простых команд. С её помощью LLM и CV-модели в десятки раз быстрее интегрируются с ИТ-системами компании, операционная нагрузка на ML-команды при эксплуатации моделей снижается на 70%, степень автоматизации CI/CD повышается более чем на треть, а затраты на GPU снижаются более чем на 15%
Игорь Зарубинский
Игорь Зарубинский
Вице-президент по развитию инфраструктуры МТС
Поделиться

Похожие новости

Напишите нам

Обсудим все детали и разработаем план действий по внедрению цифровых продуктов для вашего бизнеса

Ваше имя
Ваша фамилия
name@yourcompany.com
+7 (999) 999-99-99
Компания
Москва
Выберите регион