Data center nuova unità di calcolo nell’era dell’AI

Vertiv ha recentemente rilasciato un’architettura di riferimento da 7 MW per la piattaforma NVIDIA GB200 NVL72, progettata per accelerare l’implementazione di rack raffreddati a liquido e supportare fino a 132 kW per rack.

data center

Per Andrea Faeti, Sales Director Enterprise Accounts Vertiv Italia, i data center stanno diventando sistemi integrati progettati per gestire carichi complessi.

I data center dovrebbero essere considerati come le nuove unità logiche di calcolo, dato che l’infrastruttura IT e quella delle sedi fisiche sono sempre più strettamente interconnesse a causa delle nuove esigenze dei workload di AI.

Lo scenario: oggetti quotidiani diventano computer

Ci siamo abituati a chiamare “computer” oggetti che fino a poco tempo fa erano semplici dispositivi di uso quotidiano. Le automobili sono l’esempio più noto. Con più codice di un jet da combattimento e una quantità di chip superiore a qualunque hardware tradizionale, sono diventate veri calcolatori su ruote, alcune addirittura a guida autonoma.

Lo stesso vale per frigoriferi intelligenti, orologi, termostati e persino lavatrici. Eppure, paradossalmente, non riconosciamo la stessa dignità digitale agli ambienti che ospitano l’elaborazione dei dati.

Anche se i data center sono stati progettati per gestire l’infrastruttura IT, vengono spesso considerati ancora semplici edifici. Per i team infrastrutturali sono immobili, mentre per i team IT sono macchine di calcolo.
Questa separazione concettuale non è più sostenibile.

Il centro di elaborazione dati come nuova unità di calcolo

È qui che l’AI e il calcolo accelerato rappresentano un punto di svolta. La crescente densità dei workload di AI, generata da modelli con trilioni di parametri e cluster GPU che possono assorbire oltre 100 kW per rack, sta imponendo un ripensamento delle architetture tradizionali dei data center.

Jensen Huang, CEO di NVIDIA, ha affermato che il data center stesso è oggi l’unità di calcolo.

Si tratta di un’evoluzione interessante:
Chip → Server → Rack → File → Sala → Data center.

Ogni livello diventa una macchina sempre più integrata e ottimizzata, non più un semplice insieme di componenti.

Anche 451 Research e altri ricercatori hanno suggerito di considerare il data center come una macchina, non come un edificio. Le macchine hanno progetti, specifiche di tolleranza e metriche di prestazione. Sono progettate, misurate, ottimizzate e ripetibili.

cybersecurity

AI e densità energetica stanno cambiando i centri di elaborazione dati

La rapida crescita del training dei modelli AI da parte dei grandi fornitori cloud e dei sistemi LLM sta modificando profondamente l’architettura dei data center moderni.

L’aumento della densità di potenza dei rack ha reso sempre più rilevanti soluzioni come il raffreddamento a liquido, dove IT e gestione termica sono strettamente integrati. Anche l’erogazione dell’energia elettrica è ormai parte integrante dell’architettura dei data center.

Vertiv è impegnata in prima linea in questa convergenza tra IT e infrastrutture fisiche, collaborando con produttori di chip leader come NVIDIA.

L’azienda promuove un approccio in cui il data center viene progettato come una singola unità di calcolo, dove:

  • Il data center nel suo complesso è integrato e ottimizzato come l’elettronica di un circuito stampato. Alimentazione, raffreddamento e servizi IT sono progettati insieme, con efficienza energetica superiore al 20%, riduzione dello spazio del 30% e tempo di implementazione dimezzato, con un risparmio operativo del 25%.

  • I workload sono dinamici. È come una squadra di meccanici ai box di una gara automobilistica: se le risorse sono eccessive si spreca energia, se sono insufficienti si perdono prestazioni. Lo stesso principio vale per GPU, potenza elettrica e raffreddamento.

Vertiv ha recentemente rilasciato un’architettura di riferimento da 7 MW per la piattaforma NVIDIA GB200 NVL72, progettata per accelerare l’implementazione di rack raffreddati a liquido e supportare fino a 132 kW per rack.

Dai CED alle AI Factory

Oltre al concetto di data center come unità di calcolo, sta emergendo anche un’altra definizione: quella delle AI Factory. Ovvero centri di elaborazione dati progettati per produrre intelligenza artificiale su larga scala.

Nei siti più grandi si parla persino di AI Gigafactory, specializzate nella produzione di modelli AI. Anche in questo caso, però, il data center continua spesso a essere visto come un edificio industriale, piuttosto che come una macchina complessa progettata per generare capacità computazionale.

Giordano Albertazzi, CEO di Vertiv
Siamo orgogliosi di consolidare la nostra collaborazione con NVIDIA per realizzare i data center basati sull’AI di oggi e di domani. In qualità di leader nelle infrastrutture critiche di alimentazione e raffreddamento, Vertiv occupa una posizione privilegiata per supportare la piattaforma NVIDIA GB200 NVL72.

Jensen Huang, CEO di NVIDIA
Grazie alle tecnologie di raffreddamento e alimentazione di livello mondiale di Vertiv, NVIDIA può attuare la propria strategia volta a reinventare il computing e a creare un nuovo settore di AI Factory che producono intelligenza digitale a vantaggio di ogni azienda e settore.

NVIDIA sta inoltre collaborando con Vertiv e altri partner per sviluppare il futuro delle AI Factory, anche attraverso tecnologie avanzate di Digital Twin come Omniverse Blueprint. Così come con il possibile utilizzo di AI agent per superare il concetto tradizionale di Data Center Infrastructure Management (DCIM).

Verso data center sempre più autonomi

Il percorso verso centri di elaborazione dati autonomi sta prendendo forma in modo simile a quello delle auto a guida autonoma: più lento del previsto, ma ormai ben avviato.

L’elaborazione sta diventando infrastruttura.
L’infrastruttura
sta diventando intelligente.
E il data center si sta trasformando da edificio a macchina.

Che li si chiami edifici, fabbriche o computer, la questione diventerà presto solo semantica. Ciò che conta è riconoscere cosa sono diventati i data center moderni. Ovvero sistemi intelligenti e interconnessi progettati per fornire AI su larga scala.