Как выбрать сервер для виртуализации: Архитектура и сайзинг в 2026 году

Как выбрать сервер для виртуализации

Виртуализация позволяет абстрагировать аппаратные ресурсы одного физического сервера (хоста) для запуска десятков независимых виртуальных машин (ВМ). Выбор оборудования для гипервизора ( Proxmox, VMware ESXi, KVM) в 2026 году требует максимального масштабирования вычислительных ресурсов по горизонтали. Инвестиции в правильную архитектуру обеспечивают плотную «упаковку» ВМ и минимизируют затраты на энергопотребление в дата-центре.

Краткие выводы:

  • В отличие от серверов баз данных, хосты виртуализации требуют экстремального количества физических ядер (от 32 до 128 на процессор), а не высокой тактовой частоты.
  • Главным «бутылочным горлышком» систем виртуализации в 90% случаев становится оперативная память (RAM), поэтому её объем рассчитывается с коэффициентом переподписки не более 1.2.
  • Программно-определяемые хранилища ( vSAN, Ceph) окончательно вытеснили аппаратные RAID-контроллеры, требуя прямого доступа гипервизора к NVMe-накопителям (HBA-режим).
  • Минимальный стандарт сетевого подключения для миграции виртуальных машин (Live Migration) в 2026 году составляет 25GbE с поддержкой RDMA.

Базовые принципы подбора хоста виртуализации

Выбор сервера для виртуализации начинается с расчета необходимого объема оперативной памяти (RAM) и общего количества виртуальных процессорных ядер (vCPU). Гипервизоры первого типа (Bare-Metal) устанавливаются непосредственно на «голое железо», обеспечивая минимальные накладные расходы на управление гостевыми операционными системами. Важнейшим критерием выбора аппаратной платформы является ее официальное присутствие в списке совместимости (Hardware Compatibility List) выбранного вендора.

Любое несертифицированное оборудование (особенно сетевые карты и HBA-контроллеры) может вызвать внезапный сбой (Purple Screen of Death) всего физического узла. Отказ одного хоста приведет к перезапуску десятков размещенных на нем виртуальных машин на других узлах кластера.


Выбор процессора (CPU): Многоядерность решает

Главное правило для гипервизора — обеспечение максимального количества физических ядер, так как гипервизор распределяет потоки между множеством ВМ. Базовая тактовая частота в 2.4–2.8 ГГц является абсолютно нормальной и достаточной для изолированных операционных систем. Для плотной упаковки ВМ идеально подходят процессоры AMD EPYC (до 128/192 ядер на сокет) или линейки Intel Xeon Scalable с высокой плотностью потоков.

Переподписка (Overcommitment) ядер процессора — это штатный режим работы виртуализации. Современные гипервизоры легко справляются с соотношением 3 виртуальных ядра (vCPU) на 1 физическое ядро (pCPU) при стандартных офисных нагрузках. Однако для тяжелых баз данных внутри ВМ соотношение должно быть строго 1:1.

«В 2026 году экономика дата-центров диктует свои правила: выгоднее купить один двухпроцессорный сервер на 128 физических ядер, чем содержать четыре старых сервера по 32 ядра. Это экономит место в стойке, снижает расходы на охлаждение и лицензирование гипервизора».

Михаил Сергеев | Системный архитектор облачных решений

Оперативная память (RAM): Главный ресурс гипервизора

Нехватка RAM — основная причина аппаратного свопинга (сброса данных на диск), который мгновенно парализует работу всех виртуальных машин на хосте. Объем оперативной памяти должен рассчитываться исходя из суммы выделенной памяти для всех ВМ плюс 30% запаса на нужды самого гипервизора и отказоустойчивость. В 2026 году стандартом для узла виртуализации корпоративного уровня является объем от 512 ГБ до 2 ТБ памяти DDR5 с коррекцией ошибок (ECC).

Механизмы экономии памяти гипервизором (Memory Ballooning и Deduplication) не должны восприниматься как способ сэкономить на покупке физических планок. Это аварийные механизмы: при их активации производительность гостевых систем неизбежно падает.


Дисковая подсистема: От RAID к SDS

Инфраструктура виртуальных рабочих столов (VDI) и контейнеров генерирует огромное количество случайных операций ввода-вывода (IOPS). Использование классических аппаратных RAID-контроллеров с SATA-дисками создает неминуемое «бутылочное горлышко» при массовой загрузке операционных систем (Boot Storm). Современные кластеры строятся исключительно на All-Flash массивах с накопителями NVMe PCIe 4.0 или 5.0.

В 2026 году доминирующей технологией хранения стало программно-определяемое хранилище (SDS), такое как VMware vSAN, Ceph или Microsoft Storage Spaces Direct. Это требует установки в сервер HBA-контроллеров (Host Bus Adapter), которые передают диски напрямую гипервизору без аппаратного RAID-вмешательства.

Pros & Cons (Программно-определяемое хранилище SDS vs Классический SAN)

За SDS
  • Линейное масштабирование при добавлении новых узлов, отсутствие необходимости покупать отдельную дорогую СХД, управление дисками напрямую из интерфейса гипервизора.
Против SDS
  • Забирает часть процессорного времени (CPU) хоста на обсчет контрольных сумм, требует экстремально быстрой сетевой связности между серверами (от 25GbE).
За классический SAN
  • Полностью разгружает процессор сервера от дисковых операций, поддерживает аппаратные снапшоты (снимки) на уровне СХД.

Сетевая инфраструктура (Networking)

Минимальный стандарт сетевого подключения для современного хоста виртуализации — это минимум два оптических порта по 25 Gigabit Ethernet (25GbE) для резервирования. Для систем гиперконвергентной инфраструктуры (HCI), где хранилище распределено между серверами, пропускная способность должна составлять 100GbE. Читайте наш гайд по проектированию отказоустойчивых сетей в ЦОД

Изоляция трафика является критическим требованием безопасности и стабильности. Трафик миграции виртуальных машин (vMotion), трафик системы хранения данных и трафик самих гостевых ВМ должны быть разведены по разным физическим портам или изолированным VLAN. Технология RDMA (RoCE v2) строго обязательна для снижения задержек при доступе гипервизора к сетевым хранилищам.

Сравнительная таблица: Распределение сетевых портов на хосте

Тип трафика Рекомендуемая скорость Протокол / Особенности
Управление (Management) 1GbE / 10GbE Полная изоляция в отдельном VLAN.
Сеть гостевых ВМ (VM Network) 10GbE / 25GbE Поддержка SR-IOV для прямого проброса портов.
Хранилище (Storage / vSAN) 25GbE / 100GbE Обязательная поддержка RDMA, Jumbo Frames (MTU 9000).
Миграция (vMotion / Live Migration) 25GbE Минимальная задержка для бесшовного переноса ВМ.

Практический сайзинг и расчет ресурсов

Оценка ресурсов для сервера виртуализации всегда проводится по правилу «N+1» для обеспечения высокой доступности (High Availability — HA). Это означает, что при выходе из строя одного физического сервера, оставшиеся в кластере узлы должны иметь достаточно свободных ресурсов (CPU и RAM), чтобы запустить все упавшие ВМ.

Типовой узел 2026 года (Средняя нагрузка)

2x процессора по 32 ядра (Итого 64 физических ядра, 128 потоков). Оперативная память: 1 ТБ DDR5. Сеть: 2 порта по 25GbE + 2 порта по 10GbE. Хранилище: 4x NVMe 3.84 ТБ (для кэша и данных).

Сайзинг VDI (Виртуальные десктопы)

Требует добавления серверных графических ускорителей (например, NVIDIA L40S) с поддержкой технологии vGPU для аппаратного ускорения интерфейса Windows.

Калькуляция памяти

Если вам нужно запустить 50 ВМ по 16 ГБ RAM каждая, суммарный объем составит 800 ГБ. С учетом 30% запаса на гипервизор и резервирование HA, сервер должен иметь ровно 1 ТБ ОЗУ (или 1.5 ТБ для двуххостового кластера).


Заключение

Выбор сервера для виртуализации — это стратегическое планирование емкости (Capacity Planning) с прицелом на рост инфраструктуры. Отказ от высокочастотных камней в пользу экстремальной многоядерности и максимальных объемов оперативной памяти обеспечивает гибкость в распределении ресурсов. Построение кластера на базе NVMe-накопителей в связке с сетевыми интерфейсами 25GbE/100GbE гарантирует отсутствие аппаратных задержек, делая работу в виртуальных машинах неотличимой от работы на физических рабочих станциях.


Часто задаваемые вопросы Мы подготовили ответы.

  • Можно ли использовать потребительские процессоры (Core i9 / Ryzen 9) для серверов виртуализации?
  • Что такое SR-IOV и зачем эта технология нужна?
  • Зачем нужно отключать аппаратный RAID-контроллер при использовании ZFS или Ceph?
  • Какое соотношение vCPU к физическим ядрам считается безопасным?

Егор Стрелецкий — руководитель Апгрейд-Центра HYPERPC

Егор Стрелецкий

Автор, руководитель Апгрейд-Центра
Ведущий технический специалист и эксперт по модернизации ПК. Под его началом Апгрейд-Центр проводит диагностику, оптимизацию и кастомизацию конфигураций. Обладает уникальным опытом в сфере разгона и тонкой настройки.
Связаться с нами
Каждый компьютер HYPERPC — это результат 15 лет опыта и экспертизы. Наши эксперты точно знают, каким должен быть игровой компьютер, рабочая станция или сервер.
Для начала работы нам достаточно поговорить. Расскажите о своих задачах, сроках и бюджете, и мы предложим лучшее решение.
Позвонить нам или заказать обратный звонок:
Написать в мессенджеры:
Написать письмо:
Нужно быстро узнать стоимость?
Время работы с 10:00 до 00:00, без выходных.
Связаться с нами
Ежедневно с 10:00 до 21:00