Hewlett Packard Enterprise представила технічно важливе оновлення у своєму портфелі: платформа HPE Alletra Storage MP X10000 отримала сертифікацію від NVIDIA як перше об’єктно-орієнтоване сховище, призначене для корпоративних AI-навантажень.
Архітектура та інтеграція
X10000 побудована на S3-сумісному object storage з розподіленою архітектурою, орієнтованою на горизонтальне масштабування (scale-out), роботу з неструктурованими даними (datasets, checkpoints, embeddings) та високопаралельний доступ.
Сертифікація в екосистемі NVIDIA означає сумісність із референсною архітектурою NVIDIA AI Enterprise та GPU-кластерами (зокрема на базі DGX/HGX), де критичними є throughput (GB/s на вузол), latency доступу до даних, ефективність роботи з великими файлами та об’єктами.
Ключові технічні характеристики
1. Data pipeline optimization
- підтримка паралельного читання/запису для training workloads
- оптимізація під streaming datasets (важливо для LLM)
- мінімізація I/O bottleneck між storage і GPU
2. Metadata-aware object storage
- ефективне управління metadata для мільярдів об’єктів
- швидкий пошук і доступ до training samples
3. Throughput-oriented design
- розрахунок на high-bandwidth сценарії (AI training, HPC)
- інтеграція з high-speed мережами (InfiniBand / Ethernet 100–400GbE)
4. Disaggregated storage
- відокремлення compute і storage
- можливість незалежного масштабування ресурсів
Значення сертифікації
Валідація від NVIDIA фактично підтверджує, що storage відповідає вимогам GPU-saturated workloads, система проходить тести на стабільність при інтенсивному data ingestion, гарантована сумісність із AI-фреймворками (через NVIDIA stack).
Практичний ефект для AI-інфраструктури
Основна проблема сучасних AI-кластерів — data starvation GPU (коли GPU простоюють через повільний доступ до даних). HPE Alletra Storage MP X10000 вирішує це за рахунок високого aggregate throughput, масштабованого object layer та оптимізації під sequential і mixed I/O патерни.
Ця сертифікація демонструє зсув у підході до AI-інфраструктури:
- storage переходить із “пасивного” компонента в критичний елемент AI pipeline;
- object storage стає стандартом для LLM і data lake сценаріїв;
- інтеграція з GPU-екосистемами (як у NVIDIA) стає обов’язковою вимогою для enterprise-рішень.