Kingston повертається у «вищу лігу» серверних NVMe

01.04.2025 | Сховища

 

Три роки тому попит на серверне обладнання пригальмувався. Через зниження закупівель з боку дата-центрів виробники SSD зіткнулися з перенасиченням складів. Це призвело до значного падіння цін на NVMe SSD у 2022–2023 роках. Поки ринок лихоманило компанія Kingston зосереджувалася на масовому ринку - в неї була така можливість, відклавши розробку нових продуктів корпоративного призначення до кращих часів.

Вони настали - завдяки розповсюдженню штучного інтелекту, високопродуктивних обчислень і новій хвилі розмноження центрів обробки даних та постачальників хмарних послуг.

Kingston презентує індустріальні накопичувачі DC3000M з інтерфейсом PCIe 5.0 NVMe на флеш-пам’яті 3D eTLC. Нове сімейство доступне у варіантах ємністю 3.84, 7.68 та 15.36 ТБ, зворотно сумісне з PCIe 4.0 серверами та бекплейнами, має вбудований захист від втрати живлення, що забезпечує збереження даних у разі раптового відключення живлення, а також шифрування AES 256-bit для максимальної безпеки даних.

 

Тестуємо власноруч

Ми вдячні компанії Kingston, яка надала нам для дослідів три 7.68ТБ U.2 Kingston DC3000M. Це дало можливість провести повноцінні перегони у затребуваних в серверах сценаріях, замість формальної перевірки паспортних параметрів.

Kingston заявляє такі технічні характеристики:

Формфактор

U.2, 2,5” 15 мм

Інтерфейс

PCIe Gen5 x4 NVMe (зворотна сумісність із Gen4)

Ємність

3.84, 7.68 і 15.36 ТБ

NAND

3D eTLC

Послідовне читання/запис

3.84 ТБ: 14 000 / 5800 МБ/с
7.68 ТБ: 14 000 / 10 000 МБ/с
15.36 ТБ: 14 000 / 9700 МБ/с

Випадкове читання/запис 4k блоками (IOPS)

3.84 ТБ: 2 700 000 / 300 000
7.68 ТБ: 2 800 000 / 500 000
15.36 ТБ: 2 700 000 / 400 000

Захист від втрати живлення (з використанням конденсаторів)

Так

Ресурс (TBW/DWPD)

3.84 ТБ: 7008 ТБ, 1 DWPD
7.68 ТБ: 14 016 ТБ, 1 DWPD
15.36 ТБ: 28 032 ТБ, 1 DWPD

Енергоспоживання

Стан простою: 8 Вт
Читання (максимальне): 8.2 Вт
Запис (максимальне): 24 Вт

Середнє напрацювання на відмову (MTBF)

2 млн годин

 

Реcурс 1 DWPD наразі є типовим для серверних NVMe SSD. Опитування дата-центрів виявляють, що більшість дисків використовують менше 0.5 DWPD. До того ж, власник завжди може збільшити ресурс (і продуктивність) NVMe SSD за допомогою просторів імен.

Перейдемо до практичних змагань.

Тестовий іподром

Нашу трійцю робочих конячок ми запрягли у платформу ASUS RS720E11-RS12U. В усіх 12 відсіках її переднього дискового кошику підтримуються NVMe PCIe 5.0.

 

Конфігурація стенду:

ASUS RS720-E11-RS12U / 2 х CPU Intel Xeon Gold 5515+ / 4 x 32ГБ DDR5-4800 RDIMM Kingston / 480GB M.2 NVMe SSD Kingston DC2000M / 3 x 7.68ТБ U.2 Kingston DC3000M / Windows Server Standard 2022.

Учасники змагалися у кількох дисциплінах, з трьома варіантами NVMe RAID:

  • Microsoft Storage Spaces 
  • Програмний процесорний RAID Intel VROC, активований ключем VROCPREMMOD
  • Апаратний прискорювач GRAID-1000 SupremeRAID T1000.

 

А судді хто? Ліричний відступ із застереженнями

Тестова утиліта FIO (Flexible I/O Tester) — потужний та універсальний інструмент для перевірки NVMe-дисків з широким набором функцій. Вона підтримує різноманітні I/O-шаблони, включаючи випадкове та послідовне читання/запис, що дозволяє моделювати різні робочі навантаження.

FIO надає докладні звіти з ключовими метриками, такими як IOPS, латентність і пропускна здатність. Інструмент легко конфігурується за допомогою текстових файлів, що дозволяє створювати сценарії під індивідуальні вимоги. Крім того, FIO підтримує багатопотокове тестування, що особливо важливо для оцінки швидкості сучасних NVMe-накопичувачів, оптимізованих для паралельної обробки даних.

Водночас варто зазначити, що FIO, як і будь-який інший синтетичний тест, не відтворює реальні робочі навантаження.

  1. Характер розподілу запитів.
    У синтетичних тестах надходження запитів моделюється заздалегідь визначеними розподілами, наприклад, рівномірним або пуассонівським. Це створює контрольоване та передбачуване середовище для аналізу продуктивності систем.

Однак у реальних умовах потоки запитів мають самоподібну структуру: спостерігаються так звані "довгі хвости" — суттєві відхилення від середньої інтенсивності запитів. Такі аномалії виникають незалежно від часового масштабу (короткі чи довгі періоди спостереження) й обумовлені складністю користувацької поведінки та нерівномірністю трафіку. Це суттєво ускладнює моделювання реальних навантажень і потребує інших підходів до тестування та оптимізації систем.

  1. "Пляма даних" (Data Footprint).
    У синтетичних тестах область зчитування або запису задається заздалегідь та може охоплювати як весь обсяг диска, так і його певний відсоток. Таким чином, можна моделювати різні сценарії використання.

У реальному житті "пляма даних" визначається користувацькими робочими навантаженнями. Вона може бути компактною (коли система часто звертається до одних і тих самих даних,  ефект локальності посилань) або розширеною (якщо запити рівномірно розподілені по всьому сховищу).

Наприклад, у базі даних одні записи запитуються частіше за інші, створюючи вузьку "пляму даних" з високою концентрацією доступу.

Для оцінки продуктивності послідовного читання/запису використовувалася утиліта CrystalDiskMark 8.0.4 x64. Вона тестує швидкість роботи з великими файлами, зчитуючи та записуючи дані блоками фіксованого розміру 1 МБ.

 

Що і як тестували

Вимірювалися показники IOPS та МБ/с для масивів із такими конфігураціями:

  • Windows Storage Spaces: mirror та parity
  • VROC: RAID 1 та RAID 5
  • GRAID: RAID 1 та RAID 5

Для тестування продуктивності при довільному доступі використовувався патерн FIO з такими параметрами:

Тест довільного читання (4K random reads):

fio --name=4krandomreads --filename=.PhysicalDrive$ --thread --rw=randread --direct=1 
--ioengine=windowsaio --bs=4k --numjobs=16 --iodepth=128 --size=8G --group_reporting >> 4krandomread.txt

Тест довільного запису (4K random writes):

fio --name=4krandomwrites --filename=.PhysicalDrive$ --thread --rw=randwrite --direct=1 
--ioengine=windowsaio --bs=4k --numjobs=16 --iodepth=128 --size=8G --group_reporting >> 4krandomwrite.txt

Швидкість послідовного запису/читання вимірювалася за допомогою CrystalDiskMark із такими параметрами:

  • Розмір тестового файлу: 8 ГБ
  • Кількість проходів тесту: 5
  • Черга запитів (Queue Depth): 8
  • Кількість потоків (Threads): 1

Рахунок на табло

Результати приведені окремо для RAID 1 та RAID 5, поряд з показниками одиночного NVMe.

Рандомне читання, RAID 1:

Рандомне читання, RAID 5:

Рандомний запис, RAID 1:

Рандомний запис, RAID 5:

 

Продуктивність послідовного читання-запису вимірювалась за допомогою CrystalDiskMark. На діаграмах приведені результати окремо для RAID 1 та RAID 5, поряд з показниками одиночного NVMe.

Послідовне читання, RAID 1:

Послідовне читання, RAID 5:

Послідовний запис, RAID 1:

Послідовний запис, RAID 5:

Підсумки

Kingston повертається в сервери з гідним продуктом. Хоча, на відміну від власників масових ПК,  корпоративний ринок не шаленіє від рекордної продуктивності Gen5 NVMe, сервери останніх поколінь AMD EPYC та Intel Xeon цей стандарт підтримують. Пропозиція Kingston знайде відгук серед тих, хто захоче (і зможе) вичавити максимум з нового обладнання, що купується.