Кроме того, специалисты конкурировали за вычислительные мощности: высокая загрузка замедляла эксперименты, а горизонтальное масштабирование было фактически недоступно. При этом число моделей и нагрузка на команду продолжали расти.
Трансформация подходов к науке о данных (Data Science) началась со стандартизации инструментов разработки и обеспечения гибкого доступа к вычислительным ресурсам. Для прекращения обособленной работы на локальном оборудовании команда проекта внедрила масштабируемую архитектуру. Это позволило не только типизировать поддержку существующих решений, но и подготовить фундамент для быстрого запуска новых ИИ-сервисов. Автоматизация рутинных задач инженеров при развертывании и эксплуатации моделей сократила издержки на ИТ-инфраструктуру. Убытки минимизировались благодаря быстрому переносу моделей (скоринг, оценка рисков, персонализация) в исполнительную среду. Бизнес стал быстрее зарабатывать на аналитике.
Открытая архитектура позволяет наращивать мощности без потери производительности, что критически важно для обработки растущих объемов больших данных (Big Data) и развития направления больших языковых моделей (LLM). Платформа закладывает основу для новых потоков выручки за счет расширения предиктивной аналитики и сверхточной персонализации. В основе новой ИТ-архитектуры лежит тесная интеграция платформы аналитики данных, сопровождения моделей машинного обучения (MLOps) Kolmogorov AI и универсальной Lakehouse-платформы Data Ocean Nova вендора Data Sapience. Это создает бесшовную среду для всех этапов работы с данными и моделями.
Продукт Kolmogorov Continuity выступает «дирижером», автоматизируя сквозной процесс: от запроса бизнес-пользователя до вывода модели из эксплуатации (model management). Это обеспечивает полную прозрачность жизненного цикла моделей. Kolmogorov A2P автоматизирует продуктивизацию моделей. Если раньше это требовало глубокого участия ИТ-специалистов, то теперь процесс происходит в стандартизированном конвейере, что и дает основной прирост в скорости. Модуль Kolmogorov Axiom позволил создать единый каталог переменных (фичей). Команды теперь могут повторно использовать наработанные параметры вместо создания с нуля, что ускоряет разработку и повышает качество продуктов.
Проект решает системную проблему «разрыва» между наукой о данных и продуктивной средой, характерную для многих крупных компаний. Теперь бизнес получает работающие инструменты (например, модели скоринга или расчет ожидаемых убытков) не через месяцы, а в максимально сжатые сроки, что повышает оперативность принятия решений. Разработчики и аналитики могут сосредоточиться на разработке и улучшении алгоритмов, а не на решении инфраструктурных задач, работая с данными в едином контуре. Вместо разрозненного набора инструментов и теневых ИИ-сервисов компания получила единое окно, соответствующее требованиям информационной безопасности и реестру отечественного ПО.
Команда уже переводит действующие модели на современный технологический стек — данные, артефакты и конвейеры переносятся в единую управляемую среду с полноценным контролем версий и мониторингом. Время развертывания новых сервисов машинного обучения сократилось в несколько раз. Обеспечена бесперебойная работа десятков моделей в промышленной среде, охватывающих ключевые направления: от расчета финансовых показателей до маркетинговой персонализации и страхового скоринга.
По итогам проекта был создан центр компетенций. Совместная работа «Ингосстраха» с интегратором GlowByte и вендором Data Sapience переросла в передачу экспертизы, что позволило компании взять под полный контроль жизненный цикл своего ландшафта машинного обучения (ML) и заложить фундамент для будущего масштабирования.
Следующим этапом станет расширение интеграции с Azure DevOps для автоматизации сопровождающих процессов. Это позволит связать систему управления жизненным циклом моделей (ЖЦМ) с корпоративным трекером задач: система будет автоматически создавать задачи, контролировать их исполнение и привязывать к ним артефакты разработки. Такой подход обеспечит сквозной контроль и прозрачность на всех этапах работы. Кроме того, планируется внедрить инструменты разметки данных, что позволит командам проводить полный цикл подготовки в рамках единого контура, не переключаясь между внешними сервисами.