Алексей Никитин: «Аналитики скоро будут экономить порядка 50% времени за счет ИИ»

Расскажите, что происходит сегодня в сфере искусственного интеллекта применительно к бизнес-анализу?

Алексей Никитин: «Аналитики скоро будут экономить порядка 50% времени за счет ИИ»
© It-world

Про искусственный интеллект в BI говорят много и регулярно уже более 10 лет, причем как в глобальных СМИ, так и в российской прессе. Однако практика показала, что в вопросах применения искусственного интеллекта важны не общие слова, а конкретные и понятные кейсы, которые действительно помогают пользователям решать их повседневные задачи. Например, если говорить про глобальный рынок, то за последние годы мы увидели как ThoughtSpot, который сделал ставку на «замену» аналитиков искусственным интеллектом, сдает свои позиции. Компания MicroStrategy вкладывала немалые ресурсы в ИИ-инструменты еще до бума LLM-моделей, но также не смогла показать рывок в этом направлении.

С другой стороны, за счет концентрации на конкретных потребностях пользователей расцветают новые инструменты BI на базе искусственного интеллекта в Microsoft Power BI, Tableau, Qlik и Visiology. Более того, в нашей платформе новые возможности работы с ИИ запланированы практически для каждого нового релиза, но все они представляют собой инструменты, действительно востребованные для решения задач пользователей.

Как ИИ может не быть востребован пользователями?

Вокруг искусственного интеллекта очень много маркетинга и хайпа. И само заявление, что продукт использует ИИ, может привлечь интерес к решению, даже если вендор просто добавит окошко с чатом, в котором можно «пообщаться» с GPT-моделью о погоде. Поэтому очень важно оценивать расширения ИИ точно так же, как другие инструменты, входящие в состав платформы. Приведу пример — теоретически вы можете полностью вручную прописать загрузку данных из любых источников, просто подготовив скрипты на Python или другом языке. Но в случае с Visiology можно использовать Self-Service ETL, который позволяет организовать загрузку и подготовку данных вообще без программирования. Временные затраты на организацию процесса загрузки снижаются кратно, не говоря уже об отсутствии необходимости нанимать специалистов или проводить обучение существующего персонала. То же самое касается и искусственного интеллекта — он должен решать конкретные задачи пользователей, помогать в ускорении рабочих процессов.

Вы хотите сказать, что искусственный интеллект не является преимуществом сам по себе, если вы не провели его адаптацию?

Совершенно верно. Точно так же как монитор будет бесполезен, если вы не подключите его к нужному системному блоку, искусственный интеллект без соответствующего машинного обучения и адаптации к задачам платформы не сможет раскрыть свой потенциал полностью. Когда вы обращаетесь к любой облачной модели, у нее будет только та информация, которую вы вложили в запрос.

Разработчик BI-платформы имеет возможность не только оптимизировать нейросеть под конкретные задачи, но и дать ей доступ к внутренним компонентам платформы: метаданным (модель, информация об источниках данных), существующим дашбордам и запросам и даже предоставить доступ непосредственно к данным. Благодаря этому модель приобретает знания о предметной области, что кратно повышает качество ее ответов.

Visiology одной из первых представила на российском рынке компонент на базе ИИ, но изначально решение было реализовано в виде Telegram чат-бота ViTalk GPT. Почему было принято такое решение?

В этом процессе свою роль сыграли два фактора: технологическое лидерство и информационная безопасность. На том этапе, когда мы начали развитие ViTalk GPT, с одной стороны, наблюдалась огромная потребность в поддержке пользователей по работе с языком DAX и скриптами Python, а с другой — облачные нейросети показывали значительно лучшие результаты при полном отсутствии нагрузки на локальную инфраструктуру. Благодаря тому что ViTalk GPT не связан с BI-платформой и не имеет доступа ни к данным, ни к метаданным, снимается риск, связанный с передачей конфиденциальной информации в сторонний облачный сервис. ViTalk работает только с формулами и синтаксисом, но даже при этом обеспечивает экономию времени аналитиков до 20%. Такой результат помогает многим из наших заказчиков и партнеров успешно решать текущие задачи, не раздувая штат и избегая лишних затрат.

С другой стороны, сегодня мы наблюдаем, как некоторые платформы встраивают доступ к облачному ИИ прямо в свой интерфейс, и я не раз слышал о критических замечаниях от заказчиков с жесткими политиками ИБ к такой практике. Крупнейшие компании не хотят оставлять «дырку» в своей инфраструктуре для обращений к облаку за пределами организации прямо в том ПО, которое работает со всеми чувствительными корпоративными данными.

Но ведь в дорожной карте Visiology — значительное расширение применения ИИ. Как это будет сочетаться с вопросами ИБ?

Дело в том, что для применения ИИ, а точнее больших языковых моделей (LLM), необходимо глубокое погружение в вопрос и масштабные исследования, которые наша команда проводит уже несколько лет. И в последние месяцы в этих исследованиях наблюдается настоящий прорыв. К концу 2024 года стало возможным применение локальной нейросети для решения задач ИИ в Visiology, без компромиссов с качеством. Поэтому функции ИИ, затрагивающие чувствительные данные, будут реализованы на нашей платформе путем включения on-prem-моделей искусственного интеллекта. То есть пользовательские данные не будут покидать периметр компании.

Но не будут ли эти модели проигрывать по производительности и возможностям ведущим облачным сервисам?

Если посмотреть на открытые результаты тестирования различных LLM-моделей в сфере генерации программного кода, в списках лидеров вы найдете и облачные сервисы, и локальные нейросети, работающие в режиме on-prem. Современные технологии ИИ уже достигли такого уровня, когда эффективное решение может быть развернуто на собственных серверах с мощными GPU или в своем частном облаке. Для некоторых заказчиков также подходит схема, когда подсистема ИИ работает в надежном российском ЦОДе в режиме гибридного облака. После тестирования ряда моделей мы нашли подходящие для наиболее распространенных задач в сфере BI, и их поэтапное внедрение уже запланировано в дорожной карте релизов Visiology на 2025 год.

О каких схемах применения идет речь?

На каждом уровне работы с BI есть свои возможности для применения ИИ. Если говорить о визуализациях, пользователи хотят видеть средства автоматической генерации виджетов и дашбордов по запросу, а также дополнительные функции по доработке графики и применению стилей. В частности, мы работаем над возможностями автоматического применения любого брендбука или переформатирования визуальных элементов по запросу. В ручном режиме подобная работа отнимает огромное количество часов у аналитиков, и ее перенос на сторону ИИ дает серьезную экономию ресурсов. Например, если аналитик просто напишет запрос: «Отформатируй все даты на этом виджете в формате ‘31 Дек’ и сделай все заголовки темно-синего цвета», система сделает всю работу и мгновенно покажет результат.

Не менее важны возможности ИИ при работе с данными. Тут по-прежнему востребована помощь с формулами и операторами метаязыка (в нашем случае — DAX). По отзывам наших клиентов, опытные аналитики только на этом пункте экономят порядка 20% времени. Но здесь нужно учитывать, что для других языков достичь подобного результата будет сложно, потому что DAX и SQL широко распространены и все известные LLM-модели хорошо обучены работе с ними. Нейросети уже прошли сложный и длительный процесс тренировки на корпусах данных с примерами на DAX, что дает дополнительные преимущества и в скорости, и в качестве работы ИИ.

Действительно масштабной сферой применения ИИ являются исходные данные. Модели LLM позволяют не только писать готовые скрипты на SQL или Python для оптимальной загрузки из нескольких источников, но и вести профилирование и подготовку данных, структурировать их. С помощью ИИ очень просто проверить наличие дубликатов, найти пропущенные значения, скомбинировать несколько таблиц фактов и так далее. Подобные функции уже реализованы в Self-Service ETL от Visiology, и мы продолжаем расширять их возможности.

В сумме на сегодняшний день мы видим, что дальнейшее развитие ИИ на платформе Visiology позволит экономить до 50% времени специалистов различного уровня, освободить дизайнеров, программистов, разработчиков и администраторов для решения других важных задач, дополнительно снизить порог входа в BI и повысить комфортность для руководителей. И это не задача будущего, а технологии, которые внедряются прямо сейчас.

Вы говорите, что для эффективной работы ИИ требуется тщательная настройка нейросети. Кто будет ее производить?

Разумеется, эта задача решается специалистами Visiology. Сегодня, в условиях дефицита кадров и высокой стоимости разработки, цена самостоятельного тюнинга ПО заказчиками оказывается неоправданной. ИИ-инструменты, требующие сложной настройки в каждом проекте внедрения, «взлетают» очень редко. Для реального масштабирования необходимо, чтобы они работали «из коробки». Учитывая, что схемы использования ИИ в аналитике схожи для различных областей применения, все вопросы интеграции и настройки будут решены на нашей стороне.

Кстати, подобный опыт работы с хранилищем данных уже принес свои результаты и сделал многие компании адептами Visiology. Наш аналитический движок ДанКо, работающий поверх ClickHouse, использует десятки оптимизаций, которые обеспечивают высокую производительность СУБД даже при самых тяжелых нагрузках. Пользователям не нужно ничего делать для этого. Точно такая же схема подходит и для внедрения искусственного интеллекта — вместо поиска дорогостоящих специалистов и постоянных расходов на поддержку, заказчики хотят видеть готовый продукт, который не требует затрат, а, наоборот, помогает экономить ресурсы и оптимизировать бюджет одновременно с ростом эффективности аналитики и производительности труда. Пользователи получают готовые инструменты в рамках платформы — с соответствующей поддержкой и оптимизациями. Именно это является основной ценностью Visiology для наших клиентов.