Вечный спор: облако или свое железо. Как казахстанским компаниям принять правильное решение

Размещение мощностей в сторонних «облаках» все активнее практикуется в Казахстане. Но для ряда компаний собственные дата-центры по-прежнему остаются приоритетом.
Сторонники облака подчеркивают его масштабируемость и скорость развертывания сервисов, а критики напоминают о высоких долгосрочных расходах и строгих требованиях к безопасности.
Вместе с генеральным директором ИТ-ГРАД Андреем Киселевым Digital Business выяснил, какие нюансы есть при оценке любого из этих критериев, и составил чек-лист по взвешенному выбору модели размещения ИТ-инфраструктуры.
Стоимость, гибкость, безопасность. По каким параметрам выбирают между железом и облаком
– Вопрос о выборе между облаком и железом вызывает много споров с весомыми аргументами с обеих сторон. Какая позиция перевешивает сейчас в казахстанских ИТ-компаниях?
– Точной статистики нет, но, на мой взгляд, казахстанский бизнес работает по тем же правилам, что и мировые компании. Финансовый сектор и госструктуры традиционно выбирают on-premise решения (использование ПО на своих серверах – прим. Digital Business). E-com же выносит свою инфраструктуру в облако.
– Какие основные доводы в пользу одного и второго варианта?
– Облако — это про скорость и гибкость. Развернул сервис за день, масштабируешь под нагрузку, платишь по факту. Идеально для стартапов, сезонных проектов или быстрого выхода на новые рынки. On-premise — контроль и предсказуемость. Кастомная настройка, данные под замком, капитальные затраты на покупку оборудования вместо операционных расходов.
Если у компании есть сложные кастомные решения, глубоко интегрированные в инфраструктуру, их перенос в облако может быть дорогим и рискованным. С другой стороны, новые сервисы (аналитика, DevOps, AI/ML) почти всегда проще и выгоднее запускать в облаке.
Сейчас многие приходят к гибридным моделям: критичное ПО — на своих серверах, остальное — в облаке. Главное — просчитать полную стоимость решения за 3-5 лет.
Скрытые расходы на собственный сервер и нюансы масштабирования облака
– Есть мнение, что свое железо окупается в течение года, если сравнивать с облаком. Это так? Что важно учитывать при таких подсчетах?
– Год – это очень оптимистичные расчеты. Но да, при грамотной закупке, железо может окупиться примерно через 2-3 года, с условием, что не будет резких скачков нагрузки. От себя могу посоветовать не брать «самое крутое», «самое мощное» оборудование. Лучше возьмите б/у, но при этом полностью отвечающее вашим задачам.
У железа есть скрытые расходы: обслуживание самого железа, ПО, затраты на электричество и зарплаты админам. Найти квалифицированного специалиста дешевле 350 000 тенге в месяц сложно. Плюс, сюда стоит заложить амортизацию и апгрейд оборудования, как минимум, раз в 5 лет.
Также любое оборудование по разным причинам периодически отказывает. Поэтому важно учесть простои в работе сервиса.
Еще нужно посчитать стоимость лицензий: Windows Server, VMware, различных СУБД (ПО для управления базами данных – прим. Digital Business) и других программ. Все это ежегодно может добавить к стоимости железа 25-40%.
– Быстрая масштабируемость – частый аргумент «за» облачные сервисы. Какие тут есть подводные камни?
– Это действительно сильный аргумент, но не стоит воспринимать его как волшебную палочку. На практике есть несколько нюансов, о которых лучше знать заранее:
- Архитектурные ограничения. Если приложение изначально не проектировалось для облака, с масштабированием могут возникнуть проблемы. Монолитные системы, жесткие зависимости между компонентами или специфичные требования к производительности могут свести на нет все преимущества облачной гибкости;
- Стоимость. Технически масштабироваться можно мгновенно, но финансовые последствия такого решения иногда оказываются неожиданными. Особенно это касается случаев, когда нагрузка растет скачкообразно или непредсказуемо – счет может оказаться существенно выше запланированного;
- Регуляторные ограничения. В некоторых отраслях (например, финансы или госсектор) существуют жесткие требования к локализации данных и инфраструктуры. В таких условиях быстрое масштабирование может упираться в необходимость согласований и проверок;
- Человеческий фактор. Без грамотной DevOps-культуры и автоматизации процессов быстрое масштабирование превращается в рутинную работу, которая может занять больше времени, чем предполагалось.
Проблемы производительности: «Шумные соседи» и 30%-ные потери
– Какой вариант обеспечит большую производительность в рамках соотносимых затрат?
– Производительность — вопрос не столько облака или on-premise, сколько грамотного проектирования системы. Но если сравнивать «в лоб», то все упирается в специфику бизнеса.
Для стандартных задач — веб-сервисов, мобильных бэкендов, аналитических процессов — современные облака часто выигрывают. Крупные провайдеры дают доступ к топовому железу последнего поколения, SSD-хранилищам и оптимизированным средам выполнения. При этом вам не нужно вкладываться в постоянное обновление оборудования — просто выбираете нужную конфигурацию под задачу.
Однако для специализированных задач картина меняется. Высокопроизводительные вычисления или работы с большими массивами данных иногда выгоднее разворачивать on-premise. Во-первых, можно тонко настроить железо под конкретные нужды. Во-вторых, исключаются сетевые задержки и нагрузка от совместного использования ресурсов разными пользователями — критично для финансовых систем или обработки данных в реальном времени.
Мы советуем начинать с аудита вашей рабочей нагрузки. Стандартные корпоративные приложения переносите в облако, нишевые высоконагруженные системы — on-premise. 30% производительности обычно теряется не из-за платформы, а из-за неверно спроектированной архитектуры.
– Может ли просесть производительность у одного клиента из-за пиковых нагрузок у другого?
– Да, такая ситуация действительно возможна, когда несколько виртуальных машин работают на одном физическом сервере. Это называется «эффектом шумного соседа».
В облаке используется несколько механизмов защиты. Есть сложные алгоритмы распределения ресурсов, минимизирующие влияние виртуальных машин друг на друга. Кроме этого, системы автоматически отслеживают «шумных соседей» и могут перераспределять нагрузки между серверами.
Гарантии безопасности и контроль над данными
– Говоря об on-premise, мы учитываем, что и ответственность за работу с сотрудниками лежит на бизнесе. А может ли он быть уверен в специалистах облачных сервисов?
– В случае работы с облачным сервисом бизнес защищен юридически. Например, по нашему договору мы гарантируем SLA 99,95% (процент времени, когда сервис должен быть доступен – прим. Digital Business). В случае, если происходят простои сервисов, мы компенсируем бизнесу ущерб.
– Может ли бизнес рассчитывать на включенность провайдера в проблему в критические моменты?
– У каждого провайдера есть система мониторинга, которая отслеживает инциденты. То есть, в момент, когда вы звоните на горячую линию и сообщаете о падении, скорее всего, он уже пытается все починить.
Любой инцидент – это в том числе наши финансовые риски, которые зафиксированы в договоре. В интересах облачного провайдера починить поломку как можно быстрее, просто потому что за каждую минуту недоступности сервисов провайдер будет платить из своего кармана.
– Как облачный сервис может гарантировать характеристики оборудования, если клиент не может их проверить?
– Как минимум, клиенты могут опираться на SLA провайдера. Но есть и более предметные способы проверки. Во-первых, бенчмарк — тестовые прогоны нагрузок на выбранных виртуальных машинах – дают объективные цифры производительности.
Во-вторых, мониторинг в реальном времени — облачные платформы предоставляют детальные метрики по CPU, памяти, дискам и сети. Если заявленные характеристики не соблюдаются, это сразу видно.
Важно понимать, что облачные провайдеры работают на экономике масштаба — их дата-центры используют стандартизированное оборудование топового уровня с избыточностью. Клиенту, по сути, не нужно проверять каждую стойку — достаточно убедиться, что выбранный тип виртуальных машин стабильно показывает ожидаемую производительность в нужных сценариях работы.
Но можно и сходить на экскурсии в ЦОДы, чтобы вживую увидеть, в каких условиях эксплуатируется оборудование.
– Как оба решения справляются с проблемой контроля данных?
– Этот вопрос критичен для банков, госструктур, медицины и международных компаний. Здесь классический выбор — on-premise. Свои серверы, полный контроль, но и полная головная боль с инфраструктурой. Обновления, защита от атак, мониторинг уязвимостей — все это требует серьезных ресурсов и экспертизы.
Облачные провайдеры в последние годы тоже серьезно прокачали свои предложения для таких кейсов. Крупные компании, в том числе и ИТ-ГРАД, предлагают частные облака, выделенные хосты и даже контроль инфраструктуры, размещенной на локальных серверах. Добавьте сюда сертифицированные решения для работы с персональными данными и механизмы криптографической защиты – и получите сбалансированное решение по безопасности.
Вопрос скорее в том, как вы настроите политики доступа и мониторинг в обоих вариантах. Можно и в облаке создать «крепость», и на своем железе оставить бреши.
Гибридные решения, перспективные технологии и правила выбора их подходящей конфигурации
– Какие существуют гибридные варианты? Какие новые технологии организации инфраструктуры вы ожидаете?
– Гибридные решения уже являются для многих стандартным рабочим инструментом. Как мы обсуждали в начале, критичное ПО компании держат на своих серверах, а все остальное — аналитику, тестовые среды, бэкапы — спокойно выносят в облако.
Главный минус гибридных решений — управление. Работать с таким «зоопарком» сложнее: нужно следить за синхронизацией и безопасностью сразу в двух мирах. Но эти нюансы перекрываются преимуществами гибрида.
Что видится перспективным, так это Edge-вычисления для IoT и мультиоблачные схемы, которые стирают границы между облаком и локальными серверами. Edge-модель нужна для того, чтобы данные обрабатывались прямо «на месте» — у датчика, камеры или контроллера, что снижает нагрузку на сеть и ускоряет реакцию системы.
Мультиоблачный подход заключается в том, что бизнес не зависит от одного провайдера, а распределяет задачи между несколькими облаками, что делает инфраструктуру более надежной.
– Давайте попробуем сделать чек-лист для выбора между on-primes, облаком и гибридом. На что вы рекомендуете опираться при сравнительном анализе?
Финансы — первое, на что смотрим. Свои серверы требуют сразу крупных вложений, зато потом расходы предсказуемы. Облако — это как аренда: платишь по факту, но в долгосрочной перспективе может выйти дороже. Обязательно считаем полную стоимость владения на 3-5 лет вперед, включая «скрытые» расходы типа электричества и зарплат админов.
Операционка — второй важный момент. Если вам нужно быстро масштабироваться или часто запускать новые сервисы, облако выигрывает. Но если у вас стабильная нагрузка и жесткие требования к безотказной работе сервисов, возможно, свои серверы надежнее.
Стратегия бизнеса — третий ключевой фактор. Планируете стремительный рост? Идете на международные рынки? Работаете с персональными данными? Каждый из этих сценариев по-разному влияет на выбор.
Что касается размера компании — тут все просто. Стартапы почти всегда начинают в облаке. Крупный бизнес с кучей legacy-систем чаще выбирает гибрид. А если у вас сверхчувствительные данные — on-premise пока вне конкуренции.