www.industria-online.com
26
'26
Written on Modified on
Storage AI per infrastrutture GPU scalabili
Arrow Electronics collabora con PEAK:AIO per supportare architetture di storage ad alta capacità per cluster GPU utilizzati in carichi di lavoro AI ad alta intensità di dati.
www.arrow.com

Con la crescente dipendenza dei carichi di lavoro di intelligenza artificiale dalle GPU, le architetture di storage vengono adattate per garantire un’elevata velocità di trasferimento dati e una bassa latenza negli ambienti ad alte prestazioni di calcolo. In questo contesto, Arrow Electronics ha annunciato una collaborazione con PEAK:AIO per fornire piattaforme hardware integrate a supporto di sistemi di storage AI destinati alle infrastrutture GPU.
Architetture di storage adattate alle esigenze di dati delle GPU
La collaborazione mira a consentire a rivenditori e fornitori di soluzioni di integrare il sistema PEAK:AIO AI Data Server nelle implementazioni di infrastrutture AI. Il sistema è destinato ad ambienti in cui l’utilizzo delle GPU dipende da un accesso continuo ai dati ad alta larghezza di banda, come l’addestramento di modelli AI, le pipeline di inferenza e i flussi di lavoro di analisi dei dati.
L’architettura di storage è progettata per fornire throughput elevato e bassa latenza evitando la complessità tipicamente associata ai sistemi di storage enterprise tradizionali o ai file system paralleli utilizzati nell’high-performance computing (HPC). La soluzione opera invece in un ambiente Linux NFS standard, riducendo la complessità di integrazione nelle infrastrutture IT esistenti.
Il PEAK:AIO AI Data Server parte da una configurazione con un singolo server 2U ed è progettato per un’espansione modulare. Secondo le specifiche tecniche, l’architettura può scalare da installazioni di piccole dimensioni fino a capacità di storage a livello di exabyte mantenendo lo stesso framework di file system.
Progettato per cluster GPU piuttosto che per supercomputer HPC
La piattaforma è stata sviluppata specificamente per cluster GPU di piccole e medie dimensioni piuttosto che per ambienti HPC tradizionali basati su CPU. Questo riflette il passaggio verso modelli di calcolo basati su GPU nelle infrastrutture AI, dove le pipeline di dati devono alimentare continuamente gli acceleratori per evitare tempi di inattività.
Garantendo la disponibilità continua dei dati alle GPU, l’architettura è destinata a migliorare i tassi di utilizzo evitando al contempo il sovradimensionamento delle risorse di storage. Questo approccio risulta rilevante negli ambienti in cui i colli di bottiglia dello storage possono limitare i benefici prestazionali attesi dall’accelerazione GPU.
Flessibilità hardware e riduzione del vendor lock-in
La compatibilità con diversi fornitori di server e piattaforme hardware rappresenta un elemento chiave del sistema. Il PEAK:AIO AI Data Server supporta Open pNFS e componenti infrastrutturali standard, consentendo l’implementazione in ambienti eterogenei.
Questo approccio indipendente dall’hardware è progettato per ridurre la dipendenza da ecosistemi proprietari e migliorare la flessibilità di approvvigionamento nella filiera delle infrastrutture dati AI. Tale flessibilità può risultare rilevante per gli integratori di sistema che gestiscono la disponibilità dei componenti e i rischi legati al ciclo di vita.
La collaborazione valorizza inoltre le capacità di integrazione di Arrow Electronics nel supportare implementazioni tramite partner di canale che forniscono stack completi di infrastruttura AI, combinando componenti di calcolo, storage e networking.
Edito dalla giornalista industriale Aishwarya Mambet, con assistenza dell’IA.
www.arrow.com
Richiedi maggiori informazioni…

