Несколько минут вместо 5 дней: как ИИ-агенты ускоряют бизнес-процессы
ИТ-компания QazCode представила ключевую новинку – платформу Aventa, которая помогает крупному и среднему бизнесу создавать собственных AI-агентов в помощь сотрудникам.
Почему именно этот продукт в фокусе компании, а безопасность сегодня – новый базовый запрос, Digital Business рассказал Chief Data & AI Officer QazCode Анар Джафарзаде.
«Крупные компании в ответе за сохранность клиентских данных»
Компания позиционирует Aventa как продукт, у которого нет аналогов в Центральной Азии. Платформа LLM-агностична, то есть позволяет использовать разные большие языковые модели. Внутри уже доступны ChatGPT-4, DeepSeek, KazLLM, а также развернутая в Казахстане Open-Source Software модель.
«Aventa позволяет выбрать языковую модель под конкретного ИИ-агента и подключить его к системам вроде Jira или Confluence, чтобы напрямую работать с данными и отвечать на запросы пользователей. Благодаря этому можно будет сказать, сколько задач осталось в спринте или кто задерживает выполнение проекта. До конца года сделаем интеграции для ряда популярных рабочих инструментов. Это закроет около 80% типовых кейсов пользователей в технологическом стеке организаций», – отмечает эксперт.
Aventa доступна в двух форм-факторах: Cloud и On-Premise. Во втором обеспечено соответствие ISO 27001, а значит, данные не покинут пределы Казахстана.

Фото пресс-службы QazCode
Как происходит обеспечение безопасности:
- на уровне платформы – методами защиты, исключающими доступ посторонних;
- данные физически находятся в дата-центре Hyper Cloud (компания из холдинга Beeline Казахстан – прим. Digital Business);
- по требованию клиента решение разворачивается в его собственном дата-центре.
«С распространением ИИ появляются новые риски. Когда-то цифровизация вывела на первый план кибербезопасность, сейчас то же самое происходит с ИИ. Сегодня даже школьник, используя доступные инструменты, может устроить DDoS-атаку или найти уязвимость. У крупных компаний большие массивы клиентских данных, и ответственность за их сохранность лежит на самой организации», – уверен Анар Джафарзаде.
«Любое AI-решение – не серебряная пуля, оно эффективно только на подготовленной базе»
Платформу можно внедрить в любые сферы, где работают с большим потоком данных: телеком, ритейл, банки, медицина, образование. До выхода на рынок продукт тестировали внутри компании. Чтобы оценить эффективность, фиксировали показатели в «старых» процессах, затем сравнивали. Основными метриками были:
- время получения информации;
- время принятия решения после получения;
- idle time сотрудника (время простоя).
Показателен внутренний кейс Beeline Казахстан, где платформа доступна для пользования 6 000 сотрудников. Раньше на обработку внутренних запросов уходило все рабочее время ответственных сотрудников HR. После внедрения Aventa кадровые запросы перевели на агента, освободив людей для более креативных задач.
По внутренним опросам, по сравнению с обращениями к специалистам напрямую, качество информации улучшилось – из-за загруженности сотрудники HR-отдела могли дать менее полный ответ.
«Раньше в отделе финансов для аналитики делали запрос, готовили отчеты, на что могло уходить 5-6 дней, – поток запросов большой, а численность команды ограничена», – делится эксперт. – «Теперь запрос формулируют в чат-боте, а ИИ-агент собирает, агрегирует и анализирует информацию, генерируя отчет за минуты.
А вот кейс отдела закупок. Из-за разрозненности процедур и трудности поиска нужных шаблонов и контактов у новичков уходили недели на освоение информации, а опытные сотрудники много времени тратили на локализацию данных в Confluence и ERP-системах. Это приводило к задержкам в процессе закупок, особенно при срочных заказах. Теперь ИИ-агент мгновенно предоставляет доступ к шаблонам, процедурам и контактной информации по закупкам, существенно ускорив работу. Это сэкономило 3 часа на каждого сотрудника, а количество вопросов по процедурам закупок снизилось на 50%».
Но любое AI-решение – не серебряная пуля от проблемы, оно эффективно только на подготовленной базе. Скорость внедрения платформы зависит от цифровой и дата-трансформации организации, наличия автоматизации и Data Warehouse. В среднем у зрелых компаний это занимает от двух недель до месяца.
Aventa может не подойти компаниям со сложными бизнес-процессами и недостаточной зрелостью данных. Не по наличию — данные есть у всех, а по обработке, хранению, структуре.
«Таким клиентам предлагаем кастомные ИИ-агенты, то есть создаем рабочий процесс агента для решения конкретной задачи. Подход вариативен и зависит от архитектурного ландшафта компании: где-то разворачиваем платформу и строим агента поверх нее, а где-то это интеграции со множеством источников данных, CAD-системами, внутренними системами и т. д. Такое кастомное решение может понадобиться в производстве, где, например, необходима автоматизация подсчета годных изделий с внесением в отчетность. Или в медицине, где жесткие регуляторные требования и санитарные нормы: объем разработки небольшой, но процедур до старта много.
Пример такого продукта – AIDA (AI Doctor Assistant). Он реализует в себе функционал терапевта. Уже сделали пилот в Узбекистане с нашим партнером и хотим разворачивать это решение на других рынках, включая Казахстан», – рассказывает Анар Джафарзаде.
Для компаний, заинтересованных в «горизонталках» вроде Aventa, QazCode предлагает трехмесячные пилоты. Организация пользуется и затем принимает решение о покупке.
«Представьте, что это пятиэтажка с заложенными перекрытиями»: зачем странам своя LLM
Aventa стала следующим шагом в рамках движения компании в сторону развития собственных ИИ-решений. В последние годы крупные западные BigTech-компании вкладывают миллиарды в развитие LLM, и создают сразу несколько под разные цели. Но рынки с небольшим населением для них не в приоритете, ведь фокус на прибыли.
«Мы увидели, что качество ChatGPT на казахском, а иногда даже на русском языке не соответствует ожиданиям в реальных бизнес-кейсах, – объясняет Анар Джафарзаде. – Поэтому и создали с партнерами KazLLM. Аналогичные процессы идут и в других странах. Для бизнеса наличие своей языковой модели важно по двум причинам. Первая – безопасность данных. Локальная модель исключает передачу информации за рубеж. Вторая – скорость и адаптивность. Благодаря KazLLM можно быстро обучить модель под конкретные задачи. Наличие своей модели упрощает и ускоряет создание решений. Представьте, что это пятиэтажка с заложенными перекрытиями под следующие этажи – есть фундамент, значит, можно наращивать высоту».

Фото пресс-службы QazCode
Эксперт также поделился своим видением трендов ближайшего будущего: «LLM уже созданы, дальше идет fine-tuning – дополнительная настройка языковой модели под конкретные задачи, и объединение агентских решений. Видим тренд на интеграцию технологий STT/TTS (текст-в-речь и речь-в-текст). Все движется к формату zero interaction: когда не нужно ничего нажимать – просто сказал, что необходимо, вслух, и приложение выполнило команду. Для бизнеса это приведет к снижению костов и росту гибкости. Компании смогут быстрее реагировать на клиентов и менять ценообразование, а конечные пользователи выиграют за счет скорости и удобства».