«Сделать крафтовый казахстанский код всемирно известным». Большое интервью с СЕО QazCode о новых рынках, пользе GenAI и KazLLM

Freedom Broker О редакции
Дата публикации: 27.03.2025, 09:53
CEO QazCode Алексей Шаравар

CEO QazCode Алексей Шаравар

Компания QazСode, выросшая из ИТ-отдела Beeline Казахстан, работает на рынке пару лет. Но плотность событий у нее высокая. Помимо стратегического сотрудничества с Beeline в портфеле компании появились экспортные контракты. QazCode стал участником консорциума по созданию национальной языковой модели KazLLM. А сейчас планирует разработку национальных моделей для других рынков. Компания также активно внедряет генеративный искусственный интеллект у себя внутри – в кодинге и процессах. Но при этом не считает, что ИИ заменит «белковых» сотрудников, и готова брать на работу крутых специалистов «хоть завтра». 

Поймав (наконец!) между многочисленными перелетами CEO QazCode Алексея Шаравара, мы поговорили о трансформациях, что произошли в жизни его и команды за последнее время. О том, почему QazQode принципиально не желает быть «ИТ-галерой», а делает фокус на собственных решениях и продуктах. И заглянули с помощью собеседника «под капот» КazLLM, узнав, как конкретно большие языковые модели будут использоваться в бизнесе. 

«Технический спринт»

— QazСode уже больше двух лет на рынке. Как они прошли? 

— Первый год у нас был подготовительный, мы называем его техническим спринтом. Начали с того, что постепенно переводили людей из Beeline в QazСode. Делали это небольшими группами. Настраивали процессы, отдельные системы. Первые 15 человек перевели в марте 2023 года. И потом постепенно до конца ноября переводили остальных. Всего из Beeline Казахстан к нам перешли больше 700 человек.

Стояла задача – не посеять такое, чтобы люди из QazСode считали, что к Beeline они теперь не имеют никакого отношения. Мы хоть и создали cамостоятельное юрлицо, но остаемся в группе компаний Beeline Казахстан/VEON. Также было важно, чтобы люди из Beeline к нам тоже не поменяли отношение. Чтобы эта связка, «химия» между командами разных компаний осталась. 

Поэтому в первый год было очень много коммуникаций с сотрудниками: мы отвечали на все вопросы, боролись со страхами. Объясняли: «Да, мы переходим, но ничего не меняется с точки зрения наших взаимоотношений с Beeline. Мы все равно одна семья, работаем вместе. Но при этом также будем наращивать отдельные направления, которые будут заниматься внешними рынками». Важный показатель – в момент перехода от нас не ушел никто. И условия работы у ребят остались прежними, точно не ухудшились. 

Команда Beeline Казахстан и QazCode

Команда Beeline Казахстан и QazCode. Фото: пресс-служба

— Своих айтишников в структуре Beeline теперь нет?

— Осталось более 180 человек, кто отвечает за сore-вопросы телеком-бизнеса. Важно, чтобы эти специалисты находились внутри компании. Речь про команду поддержки биллинга, ERP системы и кибербезопасности.

— Первый год вы переводили команду, настраивали процессы в новой компании. Что было во второй год?

Начиная с января 2024 года начали формировать свою команду продаж для работы с внешними клиентами. Сейчас у нас 5 сейлзов и 1 маркетолог. Да, пока немного, но за прошлый год мы уже продали и сделали 12 проектов с заказчиками из 7 стран. 

Важно понимать: мы не работаем, как аутсорсинговая компания, которая просто продает человеко-часы своих сотрудников. Модель бодишопа, как ее ласково называют в ИТ-комьюнити, менее маржинальна, и работать в ней, честно говоря, мне как СEO было бы не очень интересно. Такой бизнес – точно не то, о чем мы мечтали, создавая новую компанию.

QazCode сегодня делает и поставляет заказчикам собственные продукты и платформы. Мы называем это solutions. Основные области, где у нас сильная экспертиза – телеком-индустрия, финансы и ритейл. Часть проектов, о которых я сказал, была для группы компаний VEON – бизнесов в Узбекистане, Кыргызстане. Также были поставки для штаб-квартир группы в Дубае и Амстердаме. 

Пока большинство проектов у нас в телекоме. Но уже делали поставки и для других сфер: софт для известной сети ресторанов быстрого питания, проект для финансового сектора.

42 перелета за год

— То есть правильно ли я понимаю: все, что вы делали для Beeline, – вы продолжаете делать. При этом стоит цель диверсифицироваться по клиентам, выйти на новые рынки, получать валютную выручку?

Верно. Мы остаемся основным digital-партнером Beeline. Около 40 команд внутри QazCode работают только для Beeline Казахстан. И при этом стараемся коммерциализировать наши решения и накопленную за годы работы экспертизу на экспортных рынках. 

В этом плане нас, кстати, хорошо поддерживает Astana Hub. Они нас активно зовут на свои мероприятия по теме ИТ-экспорта, в зарубежные поездки. 

Алексей Шаравар, СЕО QazCode

Думаю, мы тоже вносим свой вклад в достижение цели, которую поставил президент Казахстана, – выйти на экспортную выручку в ИТ в $1 млрд. И эта цель очень резонирует с нашей внутренней идеологией: делать классный крафтовый казахстанский код. И достичь того, чтобы им пользовались не только в Казахстане, но и в других странах.

— Как поменялась ваша жизнь за два года, после того, как вы из роли руководителя ИТ в Beeline перешли на позицию CEO QazCode?

Я начал активно продавать и… жить в самолетах. За последний год у меня было 42 перелета. В остальном – без больших изменений.

— А в культуре QazCode что-то поменялось после выделения в отдельный бизнес?

Особенностью культуры Beeline всегда было предпринимательство – все и все продавали. Это сохранилось и у нас. Как-то новые ребята, которые пришли к нам в компанию, говорят: «А почему бы QazCode когда-нибудь не выйти на IPO? Для этого нужно на международный рынок создавать софт». Я говорю – классная идея, но надо с чего-то начать. Вот мы и начали. С первых продаж зарубежным клиентам. У многих, не только у меня, появились заграничные командировки. Общение с людьми из разных стран, культур. Наши ребята это хорошо воспринимают. И если говорить про изменения – у нас в коммуникациях в компании стало больше английского. Мы еще полностью на него не перешли, но движемся в эту сторону. 

Ближайшая цель – 30% разработки в компании выполнять с помощью GenAI

— На какие KPI вы сейчас смотрите, что будет основными метриками успеха QazCode как нового бизнеса?

Метрик очень много, но самая понятная и простая – рост выручки, нашей доли на рынке. А также увеличение портфеля внешних заказов. Стремимся, чтобы лет через пять доля внешних и внутренних проектов у нас была 50 на 50.

Второе – доход на человека. Он сильно отличается между аутсорсинговыми «галерами» и компаниями, которые разрабатывают собственные продукты. В аутсорсинговом бизнесе выручка на человека находится на уровне $60-80 тыс., в продуктовом – как правило, больше $100 тыс. Это мировые данные. У нас пока меньше $100 тыс. на человека, но мы стремимся к этому.

CEO QazCode Алексей Шаравар

Третье – повышение производительности команды за счет внедрения GenAI. Сразу скажу: я не верю, что искусственный интеллект полностью заменит разработчиков. Сколько уже было разных вещей, которые должны «убить разработку» – лоукоды, ноукоды. Каждые 2-3 года появляется какая-то технология, о которой говорят, что она заменит программистов. Но в реальности рынок разработки еще больше растет. Да, с развитием GenAI он будет меняться. Появляется новая категория – промт-разработчики или AI-разработчики: в нее попадут джуны с определенным тулингом, которые будут работать, как мидлы. Они, по сути, станут операторами AI. 

Если мы говорим про кодинг, то в нем порядка 10 разных ролей – разработчики, девопсы, аналитики, дизайнеры и др. И в каждой из этих ролей можно в разной степени применять GenAI-инструменты, которые повысят производительность.

Приведу цифры: уже только на тестовых группах наша разработка показала повышение эффективности при использовании искусственного интеллекта от 20 до 30%. И мы хотим экстраполировать это везде. В идеале – чтобы до 50% кода генерировалось с помощью AI. Да, есть вопросы с безопасностью, защитой данных, которые не позволяют работать со всеми доступными инструментами. Но общий тренд очевиден. До конца года хочу, чтобы у нас по всем ролям 30% работ выполнялось GenAI. Но это не значит, что 30% ребят, а они у нас очень скиллованные, заменит искусственный интеллект. Они просто будут усилены с его помощью. И это даст возможность повышать производительность, не наращивая сильно штат. У нас уже более 750 человек в компании. И совместно с DAR Tech, с которым в прошлом году подписали соглашение о консорциуме, мы являемся крупнейшей организацией в стране по количеству ИТ-сотрудников. Мы этим гордимся, но здесь есть и подводные камни. C ростом количества людей усложняются коммуникации, процессы.

Как появилась KazLLM и зачем своя модель, когда есть ChatGPT

В партнерстве с Институтом умных систем и искусственного интеллекта (ISSAI) Назарбаев университета, Astana Hub и при поддержке Министерства цифрового развития QazCode cтал соразработчиком KazLLM. Расскажите, как создавалась национальная большая языковая модель?

Для нас все началось около 3 лет назад с идеи сделать для Beeline хороший бот, который бы отвечал пользователям. Мы начали собирать дата-сет: без фиксирования персональных данных делали записи звонков, транскрибировали их, переводили в текст, потом дорабатывали… Потратили кучу денег, на выходе получили 2 млрд токенов, единиц текста. А для нормальной языковой модели надо минимум 70 млрд. В итоге сделали прототип – Kaz-RoBERTA-conversational, выложили на Hugging Face – это площадка всего кода, связанного с AI и LLM-моделями. Через три месяца несколько тысяч человек его скачали. Мы удивились и поняли, что это кому-то нужно. Поэтому  начали искать, где получить большее количество данных.

Путь QazCode от создания команды до разработки KazLLM

Путь QazCode от создания команды до разработки KazLLM. Фото: пресс-служба

Следующий важный шаг – сотрудничество с GSMA (глобальная организация операторов мобильной связи – прим. Digital Business) и ребятами из AINA Alliance, которые создавали каталонскую языковую модель. У них очень крутой академический подход и большая поддержка правительства – руководство Каталонии переживает о сохранении каталонского языка в цифровую эпоху. С ними мы обменялись знаниями и опытом, как можно сделать национальную LLM-ку, с которым пришли к нашим властям. И попали в правильное время. Оказалось, что на уровне государства тоже думали об этом. А у нас, в QazCode, были данные, мы могли обеспечить «железо», плюс у нас была самая большая команда дата-сайентистов в Казахстане (50 человек, которые занимаются только ML & DL, а всего 150 человек, которые работают с Big Data, Data Science и GenAI).

КazLLM

Это было начало 2024 года. Консорциум мы подписали в июне. Его участниками стали Институт умных систем и искусственного интеллекта (ISSAI) Назарбаев универститета, МЦРИАП (министерство выступило координатором процесса, собрав всех специалистов вместе), Astana Hub, Beeline Казахстан и QazCode. Ребята из ISSAI параллельно с нами занимались разработкой языковых моделей. У них были были крутые разработчики и лингвисты. Однако необходимо было еще больше ресурсов, включая людей и оборудование. Мы полностью предоставили инфраструктуру, дали свою команду, выгрузили все данные, которые у нас были.

Через 9 месяцев у нас появилась большая языковая модель, которая включает более 150 млрд токенов. На 20% лучше, чем аналогичные open source LLM (например, ChatGPT). На казахском языке. Также модель поддерживает русский, английский и турецкий. В декабре она была представлена президенту Касым-Жомарт Токаеву.

На сегодня KazLLМ принадлежит государству. Мы имеем к ней доступ и можем использовать в коммерческих целях, потому что были частью консорциума. 

Премия GSMA Foundry Excellence Award 2025

Премия GSMA Foundry Excellence Award 2025. Фото: пресс-служба

Отдельно хотелось бы отметить, что наша большая языковая модель получила международное признание в виде награды на премии GSMA Foundry Excellence Award 2025 в категории «Искусственный интеллект». 

— Вы сказали, модель на 20% лучше аналогов. В чем это выражается?

Есть разное количество бенчмарков, мы с ребятами из ISSAI делали сравнительный анализ. У нас очень большая база казахского языка. Соответственно, если сделать один и тот же запрос GPT и KazLLM, то наша модель даст более точный и расширенный ответ, используя большее количество слов, которые она знает. И скорость ответа будет выше. По другим параметрам наша модель соответствует аналогам.

— То есть вы как DeepSeek и даже круче?

В отдельных моментах – да. Но у них мульти-язычная модель, там огромное количество языков. Наша модель натренирована только на казахском, русском, английском и турецком. Если спросить у нее что-то на испанском, она не ответит. Мы выбирали те языки, на которых говорят у нас, и популярные в Казахстане иностранные языки. В перспективе можно добавить и другие – например, узбекский, кыргызский, азербайджанский. И это будет полноценная модель тюркских языков. 

Как можно использовать KazLLM в бизнесе

— Как KazLLM можно использовать в каких-то прикладных задачах в бизнесе? И уточню: использовать модель в коммерческих целях может только QazCode и Beeline или это доступно и другим компаниям? 

Модель – опенсорсная, в некоммерческих целях ее может скачать и использовать любой желающий. 

Как мы сами будем с ней работать? В Beeline планируем внедрить AI Tutor в суперапп Janymda (ранее – Мой Beeline) – систему, которая помогает студентам и школьникам улучшать свои знания с помощью автоматической генерации уроков и тестов по конкретным предметам. Поддержка нескольких языков, включая казахский, английский и русский, позволяет адаптировать решение под нужды разных пользователей, в том числе иностранцев, изучающих язык. Это поможет сделать обучение более доступным, эффективным и открыть новые горизонты для образовательного процесса.

KazLLM на интерактивном стенде на MWC 2025

KazLLM на интерактивном стенде на MWC 2025. Фото: пресс-служба

А если говорить конкретно про QazCode, то у нас уже есть несколько запросов на создание национальных LLM. На это сейчас огромный спрос. На текущий момент, если мы захотим со стороны государства использовать СhatGPT, его надо дообучать национальными данными. Это уже кастомный проект. Open AI за такое не берется. Соответственно – ты или пользуешься открытыми публичными моделями, или создаешь свое. Раньше казалось, что создавать свое могут только крупнейшие мировые технологические гиганты, а мы показали, что это не так. 

Сейчас мы обсуждаем создание национальной языковой модели для Бангладеш. Представители правительства Украины к нам тоже приходили – на международной выставке MWC Barcelona 2025, где мы представляли KazLLM на двух стендах – QazCode и GSMA. Узбекистан, Кыргызстан, Малайзия, Сирия, Оман – тоже есть интерес. Я думал, LLM – это B2B-проект, а оказалось, прежде всего, B2G. И для нас это перспективный бизнес.

KazLLM на интерактивном стенде на MWC 2025

KazLLM на интерактивном стенде на MWC 2025. Фото: пресс-служба

Второе коммерческое направление для LLМ – RAG (Retrieval-Augmented Generation – «генерация, дополненная поиском»; сочетает поиск релевантной информации с генерацией текста с помощью языковой модели, может использоваться в юридических отделах для анализа и поиска нужной информации в корпоративных документах, в финансах – автоматизированный анализ отчетов и предоставление рекомендаций и других подразделениях компании – прим. Digital Business) и агенты для корпоративных клиентов, которые работают по принципу GPT и отвечают на вопросы пользователей. На это сейчас огромный спрос. 

Например, планируем запустить внутри собственной группы компаний общую платформу, которая полностью заменит ChatGPT. Мы платим Open AI за его секьюрную версию чата 65 долларов за одного пользователя в месяц, а их у нас около 6 тысяч. 

Кроме того, будем дальше работать с KazLLM. Это живой организм для нас. 

Горячие вакансии в QazCode

— По итогам 2025 года для QazCode и для вас лично что будет классным результатом?

У нас есть фокусные регионы, где мы хотели бы развиваться – сейчас это около 35 стран. Наша цель по итогам этого года сделать 30 поставок в эти страны. Напомню, в прошлом году было 12 проектов в 7 странах. 

команда QazCode на MWC 2025

Команда QazCode на MWC 2025. Фото: пресс-служба

Для меня будет важным результатом, если мы продадим миру больше крафтового казахстанского кода. И не просто продадим, а сделаем еще круче наши продукты, и они помогут нашим заказчикам решать их задачи.

И, конечно, я верю, что до конца года мы поможем другим странам получить свои национальные LLM-модели. Меня это очень вдохновляет.

— Финальный вопрос: с учетом такого бурного развития кого вы сейчас нанимаете?

Самые горячие вакансии – это дата-сайентисты (сеньоры и мидлы). После того, как мы запустили KazLLM и стали более узнаваемыми на рынке, у нас 200 заявок от джунов в месяц. Но нам нужны мидлы и сеньоры. Потому что для таких сложных задач, как LLM для других рынков, требуются сильные ребята, уже с опытом.

команда QazCode на MWC 2025

Команда QazCode на MWC 2025. Фото: пресс-служба

Проектов у нас много, загрузка высокая. И новых классных ребят мы возьмем столько, сколько будет. Крутых дата-сайентистов, дата-разработчиков готовы уже завтра принять на работу – как минимум 50 человек. Без шуток.

Еще нужны ребята, которые занимаются продажами – здесь команда пока не большая, но мы сейчас активно ее развиваем. В том числе ищем локальных партнеров на наших фокусных рынках, которые будут представлять и продавать крафтовый казахстанский код. Для этих ролей обязательное требование – уверенный английский язык. И не бояться 42 перелетов в год :)