Pubblicato: 14 Ottobre 2020  -  Ultimo aggiornamento: 31 Marzo 2021

Cosa c’è nel futuro dei Data Center

Cosa c’è nel futuro dei Data Center

Per capire il futuro dei Data Center è necessario sapere cosa sono e come sono evoluti. Originariamente concepiti per archiviare e condividere dati e applicazioni, oggi i Data Center si presentano come infrastrutture evolute rispetto al passato e tuttora al centro di un processo di trasformazione continuo.

Cosa c’è dunque nel futuro dei Data Center? Che cosa spinge il cambiamento? L’importanza sempre più strategica dei dati e del loro valore intrinseco – destinata ad aumentare sempre di più nei prossimi anni – e, conseguentemente, delle tecniche e degli strumenti con i quali questi vengono elaborati, condivisi e archiviati.

Perché, anche da tali operazioni, dipendono il successo e la longevità delle attività e del business di ogni impresa.

Le tendenze che impattano sul futuro dei Data Center

Per le aziende, l’imperativo è tenere il passo con quanto il mercato offre per soddisfare le proprie esigenze e tracciare, così, il proprio percorso futuro in fatto di trasformazione digitale e strategie IT.

Un primo concetto importante – che, negli ultimi anni, ha segnato il futuro dei Data Center – è quello di “colocation” (detto anche “housing”), il quale fa riferimento all’esternalizzazione dei server e dello storage aziendale.

Non si tratta, però, semplicemente di affittare un locale, una superficie. Significa anche sfruttare strumenti di gestione e di supervisione quali software di business intelligence, monitoraggio delle risorse e supporto remoto – 24 ore su 24, 7 giorni su 7, 365 giorni l’anno – offerti dai servizi di colocation, oltre alle avanzate capacità di alimentazione e di raffreddamento messe a disposizione delle aziende, riducendo così i costi dell’intera infrastruttura.

Un’altra tendenza dell’ultimo decennio – e tuttora in essere – è la creazione di Software-Defined Data Center (SDDC),vale a dire di infrastrutture definite da software in grado di renderne virtuale la potenza di elaborazione e di archiviazione.

In breve sintesi, la “virtualizzazione” rimanda alla possibilità di astrarre le componenti hardware dei Data Center, allo scopo di renderle disponibili al software in forma di risorsa virtuale.

Non sono poche le aziende che, per motivi sicurezza, hanno scelto di abbandonare del tutto il cloud, passando, invece, a soluzioni di colocation oppure sfruttando l’infrastruttura software-defined per creare un “cloud privato” in server virtualizzati.

Tuttavia, l’esigenza di poter contare anche su servizi di cloud pubblico permane. Ed è proprio per rispondere a tale bisogno che i Data Center hanno sviluppato un’architettura cloud ibrida e soluzioni multicloud, che consentono di usufruire della potenza del cloud computing pubblico, ovvero dell’erogazione di servizi offerti attraverso la rete Internet – a partire da un insieme di risorse preesistenti, configurabili e disponibili da remoto – e in grado di assicurare un livello di sicurezza paragonabile a quello di una rete privata.

Ma, man mano che sempre più imprese si rivolgono a soluzioni di cloud computing, aumenta la domanda di infrastrutture capaci di supportarle e cioè di infrastrutture iperscalabili, più grandi della maggior parte dei Data Center aziendali, con la possibilità di ospitare migliaia e migliaia di server.

In particolare, queste strutture sono – e lo saranno sempre di più – fondamentali per gestire le enormi quantità di dati generati da realtà virtuale, big data, social media e dalle informazioni raccolte dai dispositivi IoT.

Si contano più di 500 data center classificati come iperscalabili alla fine del 2019 e altri 151 sono previsti entro la fine di questo 2020.

Edge computing - concept

Infine, una delle prossime tendenze del settore sarà data dall’edge computing, modello di calcolo distribuito capace diespandere la portata di una tipica rete cloud insistendo sulle funzioni di elaborazione ai margini della rete, ossia più vicino a dove i dati vengono prodotti e raccolti.

L’evoluzione delle tecnologie di raffreddamento e di storage

Il processo di raffreddamento dei Data Center – che, normalmente, avviene sfruttando i tradizionali impianti di condizionamento dell’aria – è responsabile di un elevato consumo energetico (fino al 40%).

Se poi consideriamo che i processori necessari ad alimentare, ad esempio, le applicazioni di intelligenza artificiale generano anche più calore di quanto possa gestire l’infrastruttura di raffreddamento tradizionale, capiamo come i Data Center siano costretti ad adottare nuovi approcci per soddisfare le proprie esigenze di raffreddamento.

A tale riguardo, grazie alla loro capacità di monitorare e di regolare dinamicamente l’ambiente, proprio i sistemi AI forniscono una soluzione ideale. Ne è un esempio Google, che, dopo una serie di test durati alcuni anni, ha trasferito a un programma di intelligenza artificiale il controllo del microclima di uno dei suoi Data Center.

Inoltre, rispetto ai sistemi di raffreddamento ad aria, la tecnologia di “raffreddamento a liquido” sta registrando risultati positivi, entrando così – insieme ai sistemi AI – nel novero delle soluzioni di raffreddamento alternative dei Data Center.

Ma le aziende stanno investendo molte risorse anche in nuove tecnologie di storage, necessarie, in particolare, a raccogliere l’enorme mole di dati generati dalle reti odierne.

Negli ultimi anni, i dati provenienti dai social media, da soli, hanno indotto le aziende a rivedere le proprie strategie in fatto di big data. E la sempre maggiore diffusione delle reti 5G e dei dispositivi IoT produrrà ancora più dati da archiviare.

Per molte imprese, tuttavia, lo storage è ancora in gran parte focalizzato sui requisiti di efficienza e di affidabilità, piuttosto che sulla ricerca della soluzione innovativa a tutti i costi: per tale motivo, i dischi rigidi tradizionali rappresentano ancora il supporto di archiviazione preferito, grazie al loro basso costo e alla loro elevata disponibilità. Anche se si prevede, a breve, un calo dei costi delle tecnologie alternative che, inevitabilmente, ridurrà la domanda di HDD – Hard-Disk Drive.

AI, machine learning e deep learning: le nuove sfide delle infrastrutture Data Center

Negli ultimi anni, si è assistito al proliferare di algoritmi e di sistemi di intelligenza artificiale, nonché di applicazioni di machine learning e di deep learning, in grado di estrapolare dai dati informazioni strategiche e di valore per ogni impresa.

Al punto che, oggi, la sfida, per le aziende, è proprio quella di garantire la quantità di potenza necessaria all’elaborazione dei dati nell’ambito di queste applicazioni, affidando così ai Data Center un ruolo importante nella continua crescita delle tecnologie AI.

E, a proposito di sfide, l’evoluzione delle architetture IT volta a sfruttare il valore di machine learning e deep learning, ne prevede numerose.

In particolare, le aziende devono tenere da conto che, nei prossimi anni, per riuscire a fare fronte a carichi di lavoro sempre più complessi, generati dagli algoritmi di machine learning e deep learning, i server standard delle infrastrutture Data Center convenzionali non saranno più sufficienti: occorrerà, infatti, disegnare infrastrutture in grado di prevedere, ad esempio, capacità computazionali e di funzionare come una un sorta di “ambiente di collaudo”, in cui sperimentare differenti modelli di intelligenza artificiale.

Insomma, l’infrastruttura Data Center tradizionale dovrà sapere trasformare se stessa, facendo spazio al nuovo e mutando in un’architettura eterogenea, capace di ospitare, a seconda delle specifiche necessità aziendali, differenti tipologie di acceleratori hardware.