Data center, costruirne uno esperto senza bisogno di esperti

Mario Manfredoni, country manager Italia di Juniper Networks, fa il punto sulla gestione dei data center a fronte della diffusione del lavoro ibrido e dell'IoT.

data center Mario Manfredoni

Mario Manfredoni, country manager Italia di Juniper Networks, fa il punto sulla gestione dei data center oggi.

 La carenza di personale tecnico e la maggiore richiesta di banda dovuta alla diffusione dell’edge computing e dell’IoT e all’aumento dei punti di accesso alla rete sta rendendo la gestione dei data center sempre più complessa.

Pertanto, prendere iniziative per semplificare l’automazione del data center per renderlo il più possibile accessibile al nuovo staff è essenziale per fare in modo che i data center continuino a funzionare senza interruzione.

Le applicazioni non hanno la priorità

Nella loro ricerca di velocità e ottimizzazione, i responsabili tecnologici si sono storicamente concentrati soprattutto su requisiti e performance delle applicazioni. Di conseguenza, l’infrastruttura sottostante è stata plasmata per accettare qualsivoglia requisito applicativo e per qualche tempo l’infrastruttura su misura ha funzionato.

In un ambiente moderno in cui si fa largo uso di video, lavoro ibrido e dispositivi IoT, c’è una vera e propria esplosione di utenti (sia persone sia dispositivi), applicazioni, dati, domini (pubblici e privati) e – dopo la pandemia – di luoghi fisici in cui tutte queste cose devono lavorare. Tutti questi fattori impongono di cambiare i requisiti operativi. Non è pensabile continuare ad avere operazioni su misura senza un enorme aumento dei costi.

Per questo, ci si è rivolti al cloud. I fornitori cloud si sono impegnati a costruire un’infrastruttura sostenibile su larga scala e hanno costretto le soluzioni a conformarsi alle architetture standard in modo che le operation fossero scalabili. Di conseguenza, gestire queste vaste property cloud diventa molto più conveniente di qualunque azienda ragionevolmente complessa. Ma passare al cloud computing presenta anche alcune sfide per quanto riguarda proprietà dei dati, sicurezza e compliance.

Cosa dovrebbero dunque fare i responsabili IT? Devono costruire data center architetturalmente solidi. A partire dai protocolli aperti che sono stati testati negli ambienti più esigenti, in particolare EVPN e BPN. L’uso di framework migliori è solo il primo passo. Altrettanto critico è snellire il setup, il design e la gestione mediante il livello operation.

Ripensare le operation

Uno dei principali fattori che complicano la gestione dei data center è la mancanza di affidabilità. Le reti sono notoriamente fragili e gli operatori sono restii al cambiamento. Le interfacce richieste per automatizzare i cambiamenti nelle reti data center, che possono enormemente semplificare e snellire i processi per il personale nuovo ed esistente, esistono da almeno vent’anni, ma i leader IT sono stati restii ad adottarli per il timore di potenziali problemi.

Se le operation avessero la certezza che i cambiamenti funzionassero come previsto, o almeno non causassero problemi, non avrebbero bisogno di sentirsi obbligate a cambiare i controlli che rallentano i processi, complicano le procedure per i nuovi impiegati e rendono più difficile usare i tool di intelligenza artificiale. Se i responsabili IT vogliono migliorare efficienza e velocità devono comprendere che il primo passo è costruire il livello operativo, in modo da dare la massima priorità all’affidabilità. Molti data center interrompono le modifiche durante le festività più importanti per evitare complicazioni, ma niente è più lento che fermarsi completamente!

I requisiti tecnologici

I leader che intendono migliorare e semplificare le operation dovrebbero esaminare attentamente anche i requisiti tecnologici. Se la confusione dell’attuale supply chain ci ha insegnato qualcosa, è che necessitiamo di scelta. Il problema della scelta dalla prospettiva del data center è che costa. Se ogni fornitore di hardware e software in un data center avesse una propria storia di gestione affidata a propri team operativi, i costi crescerebbero linearmente con il numero di fornitori. Sarebbe una struttura non sostenibile ed è uno dei motivi principali per cui in passato molte delle strategie multivendor sono state di difficile esecuzione.

Tuttavia, i vendor stanno iniziando a progettare soluzioni software che funzionano indipendentemente da quali scatole e quali switch il data center utilizza. Se le imprese usano attenzione e intelligenza per disegnare le proprie operation, dando la priorità all’affidabilità rispetto alla velocità e all’infrastruttura rispetto alle soluzioni, possono individuare il mix di fornitori adatto ai loro bisogni. Ma i passi iniziali sono sempre quelli critici.

I data center oggi

I data center sono diventati troppo complessi e troppo distribuiti per rimanere fermi su processi operativi obsoleti e su strumenti di gestione tra loro sconnessi. Poiché sempre più data center aprono le porte a personale privo della tradizionale esperienza IT, dovranno affidarsi all’automazione per gestire l’operatività quotidiana. Per costruire un data center che possa funzionare senza esperti, i leader devono pensare in modo diverso a cosa significa avere un ‘data center esperto’.

Semplificare i processi, focalizzarsi sull’affidabilità e non sulle funzionalità custom e affacciarsi alle nuove tecnologie con un fabric aperto ed estensibile per agevolare e automatizzare i processi può contribuire a risolvere la crisi della carenza di personale e semplificare la vita dei tecnici più esperti, unificando il lavoro richiesto per farlo funzionare e, allo stesso tempo, preservando la flessibilità necessaria per ottimizzare gli aspetti fisici ed economici.