Казах построил AI-стартап в Канаде и продал его NVIDIA
Акбар Нурлыбаев переехал из Казахстана в Канаду больше 20 лет назад. Со временем он вместе с партнерами основал AI-стартап CentML, который привлек более $3о млн инвестиций и в итоге стал частью NVIDIA.
В интервью Digital Business Акбар рассказал, почему после выхода ChatGPT команде пришлось полностью перестроить стратегию, как CentML удалось заинтересовать NVIDIA и за счет каких технологических решений компания экономила бизнесу миллионы долларов на внедрении ИИ. Поговорили о том, почему команда решила сделать экзит и как изменилась жизнь после сделки. Отдельно обсудили, как Казахстану влиться в AI-гонку и не проиграть.
«Запустили стартап и сразу получили $3,5 млн»
– Акбар, как оказались в Канаде?
– В начале 2000-х семья решила эмигрировать в Канаду. Продали квартиру в Алматы за $25 тысяч и в 2003 году переехали. Тогда был студентом мехмата Казахского национального университета имени аль-Фараби. Приехав в новую страну, сразу начал заниматься документами, чтобы как можно быстрее продолжить учебу. В итоге приняли на программу Computer Science в Университете Торонто.
Окончил вуз с двойным дипломом – помимо компьютерных наук изучал экономику. Все время совмещал учебу с работой – так как приходилось обеспечивать себя самому и платить за обучение (брал займ на учебу).
– Где удалось поработать и что дал этот опыт?
– Начинал карьеру как Perl-разработчик, затем занимался веб-инструментами для трейдинга и аналитикой данных в одной из крупнейших Forex-бирж мира. На заре мобильных платформ переключился на разработку – участвовал в создании iOS-приложений.
В 2017-м пришел в канадскую компанию по цифровой оптовой продаже автомобилей TradeRev на позицию руководителя инженерной команды. Соучредитель фирмы Марк Эндрес взял меня под свое крыло и уделял много времени тому, чтобы объяснять не только технические вещи, но и логику бизнеса. Впоследствии это очень помогло при работе над собственным стартапом.
– Как решили запустить свой проект?
– Мой университетский друг Геннадий Пехименко в 2017 году стал профессором Университета Торонто и основал собственную лабораторию, где занимался тем, как запускать и ускорять задачи машинного обучения на разных компьютерных системах. Мысли о создании компании появились еще в 2021-м году. В 2022-м году начали серьезно обсуждать, как превратить накопленные наработки в полноценный продукт и создать вокруг него компанию. Довольно быстро сформировали несколько ключевых концепций и решили сфокусироваться на оптимизации обучения больших языковых моделей – сделать процесс быстрее и дешевле за счет более эффективного использования «железа».
К тому моменту у нас уже фактически сложилась основная команда. Геннадий стал CEO: отвечал за научное направление и стратегию компании. Шан Ван взял на себя роль CTO и занимался технической архитектурой платформы, а Ананд Джаяраджан как главный архитектор занимался ключевыми инженерными решениями.
Я присоединился как сооснователь и COO – отвечал за продукт, операционную часть и выстраивание бизнеса. Так появился CentML.
– С чего начали?
– Первая цель — привлечь средства. На тот момент у нас еще не было готового продукта, но была сильная техническая база: научные статьи, прототипы и четкое понимание проблемы. Плюс к этому — команда с глубокой экспертизой в компьютерной архитектуре и ML-инжиниринге.
Подготовили pitch deck (презентацию с описанием идеи, рынка, технологии и финансовой модели — прим. Digital Business) и всю весну встречались с инвесторами. По сути, мы продавали не продукт, а видение и команду — объясняли, почему именно мы можем решить эту задачу лучше других. В итоге в начале лета закрыли первый раунд — $3,5 млн от Radical Ventures.
– Сколько в общей сложности привлекли?
– В общей сложности — $30,5 млн. Первый раунд на $3,5 млн был от Radical Ventures — это один из ведущих AI-фондов. А во втором раунде на $27 млн в 2023-м году к нам присоединились уже более крупные игроки: Gradient Ventures (фонд Google), NVIDIA как стратегический инвестор, а также Deloitte Ventures и Thomson Reuters Ventures. Для нас это был важный этап — к компании подключились не только венчурные фонды, но и корпорации, которым сама технология была стратегически интересна.
Если первый раунд был ставкой на команду и научную экспертизу, то второй — уже на подтвержденный рынок и масштабирование.
– На что потребовались такие средства?
– Деньги у нас на счету были, но после выхода ChatGPT рост рынка резко ускорился. Все конкуренты начали закрывать очень крупные раунды. На этом фоне мы выглядели самым маленьким игроком на рынке – и это было проблемой. У нас, например, не было возможности тратить столько же денег на маркетинг и масштабирование, как у других компаний.
В начале 2023 года наш первый инвестор, Radical Ventures, посоветовал попробовать закрыть раунд раньше. Сейчас можно сделать это на более выгодных условиях – из-за ажиотажа. Было непонятно, что будет к концу года.
Работы было много, но второй раунд дался чуть проще: Radical Ventures открыл нам двери в Кремниевой долине. Появилось много теплых интро, провели сотни разговоров с венчурными фондами – и в долине, и за ее пределами.
«Одному клиенту помогли сократить расходы в 8 раз»
– В чем суть вашего продукта?
– Изначально наш питч был выстроен вокруг оптимизации обучения больших языковых моделей. После выхода ChatGPT рынок резко поменялся: компаниям стала важнее не оптимизация обучения моделей, а эффективное их использование в реальных продуктах.
В результате конечный продукт CentML был полностью заточен под эту задачу.
– Как вы восприняли необходимость менять направление?
– На самом деле это была хорошая новость. Потому что это суть жизни любого стартапа. В начале всегда есть гипотеза, которую рынок либо подтверждает, либо опровергает. Обучение моделей – важная задача, которая требует огромных затрат, но происходит один раз. А расходы на использование обученной модели постоянные. И именно их нужно уменьшать.
Плюс в тот момент была острая нехватка GPU (видеокарт, которые используются для обучения ИИ-моделей – прим. Digital Business).
Это создало для нас окно возможностей: смогли применить нашу глубокую экспертизу, чтобы оптимизировать запуск больших моделей на более слабом железе, в облаке. На тот момент это было достаточно уникальное предложение.
– Какую пользу приносил ваш продукт?
– Основная проблема LLM (больших языковых моделей) в том, что для их запуска требуется огромное количество вычислительных ресурсов. Также для их эффективного запуска отсутствовало программное обеспечение. Мы его разработали – платформу, где клиент выбирал, какую из моделей хочет запустить. После чего мы высчитывали самый оптимальный «рецепт», который максимизировал утилизацию «железа» и предлагал оптимальный тип GPU в зависимости от бюджета клиента. После этого заказчик смело мог разворачивать модель в рабочей среде и подключать ее к своему бизнес-процессу.
– А для чего компаниям вообще нужно было развертывать языковые модели в облаке?
– Они очень хорошо подходят для автоматизации бизнес-процессов. И их главное отличие от предыдущего поколения моделей – универсальность. Ты можешь задавать им вопросы на самые разные темы – и получать ответы. Это означает упрощение технологического стека: вместо множества узкоспециализированных моделей можно использовать одну большую языковую модель, которая решает задачи разных типов.
– Когда начали находить клиентов и зарабатывать?
– В 2023-м. Постоянно дорабатывали продукт и с самого начала очень плотно работали с ранними пользователями – теми, кто был готов давать честный фидбэк и помогать нам улучшать решение. Shopify был нашим самым крупным клиентом. Помимо него, среди заказчиков были Deloitte и ряд других компаний, а также достаточно много стартапов.
– Можете ли вы говорить о конкретной экономии для клиентов? Какая у них была альтернатива и какие цифры вы показывали?
– Когда оптимизировали определенную модель под конкретное железо, могли показывать экономию в 2 раза и выше. В одном из кейсов смогли запустить модель, используя в 8 раз меньше вычислительных ресурсов по сравнению со стандартной реализацией.
Видели несколько примеров по автоматизации клиентской поддержки, когда ИИ-агент закрывал до 80% обращений. Только самые сложные 20% запросов доходили до сотрудников. Компания могла потратить, условно, $2 млн на внедрение такой системы. Но при этом ей больше не нужно было тратить, скажем, $10 млн в год на зарплаты и офисы.
«В NVIDIA продолжаем заниматься близкими по смыслу вещами к тому, что делали в CentML, но в другом масштабе»
– Летом прошлого года стало известно о сделке CentML с NVIDIA. На каких условиях стали частью технического гиганта?
– Детали сделки не могу раскрывать из-за NDA. Но это была не история консолидации рынка, а про стратегическое совпадение. NVIDIA – лидер в «железе» для ИИ, а мы в CentML создали программные решения, которые максимально раскрывали потенциал инфраструктуры. Наша технология усиливала их платформу. Объединение было логичным шагом для ускорения развития ИИ.
Теперь CentML принадлежит NVIDIA, куда мы перешли всей командой. По сути, продолжаем заниматься тем же самым, что делали в CentML, но в другом масштабе. Моя должность теперь называется «Старший менеджер по разработке ПО для запуска моделей глубокого обучения».
NVIDIA – уникальная компания с точки зрения организации. Раньше не видел такой корпоративной культуры. Много свободы, но это налагает и высокую степень ответственности.
– Случаи, когда гиганты покупают стартапы – не редкость. Но не все соглашаются. Например, Higgsfield отказали Meta. Как решить, с вашей точки зрения, что лучше – развиваться самостоятельно или получить большие деньги и раствориться в техгиганте?
– Это всегда вопрос стратегии, а не денег. Нужно понять, где продукт создаст больший эффект — как независимая компания или внутри большой экосистемы. Если стартап может самостоятельно стать категорией и масштабироваться глобально — имеет смысл идти своим путем.
Если же синергия с крупным игроком ускоряет реализацию миссии в разы, интеграция может быть более рациональным шагом.
Речь не о «раствориться», а о том, где технология реализует свой потенциал быстрее и масштабнее.
– Что происходит с индустрией, когда большой игрок скупает рынок?
– Зависит от того, как именно происходит консолидация. Если крупный игрок просто устраняет конкурентов, это снижает динамику рынка. Но если он интегрирует команды и технологии и ускоряет развитие платформы, индустрия может выиграть.
В инфраструктуре ИИ масштаб имеет значение: нужны огромные инвестиции в R&D, вычислительные мощности и экосистему. Иногда объединение ресурсов позволяет двигаться быстрее, чем десятки разрозненных игроков.
Поэтому консолидация сама по себе не «хорошо» и не «плохо» — вопрос в том, усиливает ли она инновации в отрасли.
«Можно превращать газ в электроэнергию, а электроэнергию – в вычислительную мощность для ИИ»
– Если смотреть на рынок языковых моделей в целом, в чем сегодня главные вызовы?
– Крупные ИИ-лаборатории продолжают двигаться к более мощным универсальным системам. Но параллельно рынок смещается в сторону агентных-подходов — когда решения работают в связке, вызывают инструменты, планируют действия и выполняют многошаговые задачи. Перешли от «модель как продукт» к «модель как часть системы».
Это резко увеличивает нагрузку на инфраструктуру: растет количество вызовов, контекстов, промежуточных состояний. Поэтому главный вызов сегодня — не обучить большую модель, а сделать сложные AI-системы надежными, предсказуемыми и экономически устойчивыми при запуске в реальных бизнес-процессах.
– Какую роль играет Казахстан в этой гонке?
– Тут важно быть реалистами. Перечислю направления, куда не стоит ввязываться. Во-первых, производство чипов и вычислительной инфраструктуры. Это сегмент, где сегодня доминируют США и Китай, а само производство сосредоточено, по сути, в Тайване. Конкурировать здесь – чрезвычайно дорого и ресурсозатратно. И, честно говоря, это не та сфера, где стоит пытаться догонять.
Во-вторых, создание фундаментальных моделей. Разработка новых базовых LLM – это тоже область, где сейчас лидируют США и Китай, плюс в какой-то мере Европа – например, команда Mistral во Франции.
Для Казахстана более рациональная стратегия – фокусироваться на прикладном уровне: практическое применение языковых моделей и агентных систем под конкретные задачи. Если сравнивать, например, с Канадой, то в Казахстане общество гораздо глубже цифровизировано. Это очень сильная база для быстрого внедрения ИИ в реальные процессы – в банки, госорганы, медицину, логистику.
Слышал про KazLLM – насколько понимаю, модель строится на базе существующих open-source моделей, дообученных на локальных датасетах Казахстана. Мне кажется, это правильное направление: оно имеет практическое применение и одновременно формирует локальную экспертизу внутри страны.
– Какие могут быть препятствия на этом пути?
– Насколько понимаю, в регионе сегодня по-прежнему не хватает вычислительных мощностей. Если всерьез говорим о развитии ИИ и цифровой экономики, то инфраструктура – это фундамент. Слышал, что уже запустили суперкомпьютер. Это правильный шаг. Но, на мой взгляд, такие проекты должны становиться системной стратегией, а не единичными инициативами.
– Что можно придумать?
– Могу поделиться интересным опытом из Канады. Живу в провинции Альберта – это регион с ярко выраженной сырьевой экономикой: около 25% ВВП связано с нефтью и газом. Проблема в том, что у Альберты ограниченный доступ к мировым рынкам.
В прошлом году провинция запустила новую стратегию: вместо того чтобы пытаться дороже продать сырье, решили создавать добавленную стоимость внутри региона. Идея простая – привлекать частный капитал для строительства дата-центров и суперкомпьютеров прямо в Альберте. Логика в том, чтобы не продавать сырье дешево, а использовать его локально – превращать газ в электроэнергию, а электроэнергию – в вычислительную мощность. И уже эту вычислительную мощность экспортировать миру. По сути, регион начинает продавать не нефть и газ, а инфраструктуру для ИИ.
Мне кажется, это очень изящное и прагматичное решение. Насколько оно применимо к Казахстану – вопрос открытый, но как концепция точно заслуживает внимания.