0 risultati
video suggerito
video suggerito
11 Gennaio 2026
16:30

Cosa sono i data center, a cosa servono e come sono fatti

Scopriamo più da vicino com'è fatto un data center, una di quelle struttura che ospitano server, infrastrutture di archiviazione, di rete e molti altri componenti che permettono il funzionamento dei servizi Web che usate ogni giorno.

1 condivisione
Cosa sono i data center, a cosa servono e come sono fatti
Data center

Se per assurdo doveste decidere di costruire da zero un data center, avreste l'onere di pensare a una struttura capace di ospitare tutta l'infrastruttura IT necessaria per eseguire applicazioni, gestire dati e fornire servizi digitali in modo continuativo, sicuro ed efficiente.  Questo perché un data center è un edificio in cui trovano spazio server, sistemi di storage, apparecchiature di rete e infrastrutture di supporto che rendono il sistema complesso e funzionale. La sua funzione primaria è centralizzare le risorse informatiche di un'azienda o di un provider cloud, permettendo di ridurre i costi di gestione, aumentare la resilienza operativa e garantire continuità in caso di guasti o emergenze. Al suo interno, il calcolo è affidato a server di vari tipi – dai rack server ai blade fino ai mainframe – mentre lo storage può avvalersi di soluzioni locali (DAS), collegate in rete (NAS) o organizzate in sistemi più complessi come le SAN. La rete, composta da switch, router e cavi ad alta velocità, assicura la comunicazione tra server e utenti, mentre i sistemi di alimentazione ridondanti, come gruppi di continuità (UPS), generatori di riserva e impianti di raffreddamento, mantengono l'operatività costante nel tempo.

La gestione di un data center richiede anche strategie avanzate di sicurezza fisica e informatica, controlli ambientali su temperatura, umidità ed elettricità statica e strumenti di monitoraggio centralizzati. La progettazione deve rispettare standard di ridondanza e affidabilità definiti da enti internazionali che stabiliscono livelli crescenti di tolleranza ai guasti e capacità di intervento durante la manutenzione. Approfondiamo il tutto vedendo più da vicino com'è fatto un data center.

I componenti essenziali di un data center

Per costruire un data center da zero, la prima cosa da considerare è lo spazio fisico e la disposizione delle apparecchiature, che sono molteplici. Approfondiamo proprio questo aspetto vedendo un po' più da vicino com'è fatto un data center.

Server

I server, computer potenti che rappresentano il cuore del calcolo in un data center, possono essere di vario genere.

  • I rack server, che sono larghi e piatti (come i cartoni della pizza) sono impilati l'uno sull'altro in rack (ovvero in strutture modulari che servono a organizzare e proteggere componenti elettronici e informatici) e ognuno di questi server è dotato di porte di rete, alimentazione e sistemi di ventilazione.
  • I blade server permettono invece di concentrare più unità in uno stesso chassis, risparmiando ancora più spazio rispetto ai rack server e riducendo il consumo energetico.
  • Nei casi di carichi di lavoro estremamente intensivi, i mainframe offrono potenza di elaborazione superiore: basti pensare che possono elaborare miliardi di calcoli e transazioni in tempo reale andando, difatti, a sostenere il carico di lavoro di un'intera sala di server montati su rack o blade server.

Storage e infrastrutture di rete

Lo storage, ovvero l'infrastruttura di archiviazione, può essere locale su ogni server tramite DAS (Direct-Attached Storage), distribuito su NAS (Network-Attached Storage), che permette l'accesso condiviso ai file oppure di tipo SAN (Storage Area Network), reti di archiviazione a blocchi capaci di gestire grandi quantità di dati in modo centralizzato. L'infrastruttura di rete interna, sfruttando un ingente quantitativo di dispositivi di rete (es. cavi, switch, router e firewall) collega ogni server, dispositivo di storage e apparecchiatura di supporto, garantendo trasferimenti veloci sia all'interno del data center (tra server e storage, il cosiddetto “traffico est/ovest”) sia verso gli utenti finali o altre sedi aziendali (quindi tra server e client, trasferimento conosciuto anche come “traffico nord/sud”).

Per le installazioni hyperscale, la larghezza di banda richiesta può arrivare da decine di gigabit fino a diversi terabit al secondo. Per la cronaca, i data center hyperscale sono più grandi dei data center “tradizionali”, in quanto possono occupare una superficie di migliaia di metri quadrati e ospitare qualcosa come 5.000 server. I più grandi data center su cloud sono gestiti da grandi provider di servizi cloud, come i ben noti AWS (Amazon Web Services), Google Cloud Platform, IBM Cloud e Microsoft Azure.

Alimentazione e raffreddamento

Un elemento critico in ogni data center che si rispetti è la gestione dell'alimentazione e del raffreddamento. Ogni data center deve essere sempre operativo, e quindi dotato di doppia alimentazione, gruppi statici di continuità o UPS per proteggere da sbalzi o brevi interruzioni e generatori di riserva per i blackout prolungati. La ridondanza, in un data center, è fondamentale: componenti duplicati o multipli, sistemi di storage RAID, impianti di raffreddamento di backup e, per le grandi organizzazioni, data center in regioni geografiche separate, permettono di mantenere l'operatività anche in caso di guasti o disastri naturali che interessano certe zone geografiche. I sistemi di raffreddamento mantengono la temperatura dei server in intervalli ottimali attraverso sistemi ad aria o CRAC (Computer Room Air Conditioning) oppure tramite di sistemi di raffreddamento a liquido, sempre più diffusi per l'efficienza energetica. Umidità e elettricità statica sono monitorate per prevenire danni, e sistemi antincendio e di sicurezza fisica proteggono le risorse critiche.

Virtualizzazione

Dal punto di vista dell'architettura, i data center moderni sfruttano la virtualizzazione, separando il software dall'hardware e consentendo di raggruppare CPU, storage e rete in risorse flessibili e programmabili. Questa modalità permette di implementare infrastrutture definite dal software (SDI) o interamente software-defined (SDDC), ottimizzando costi e prestazioni, distribuendo rapidamente servizi e scalando l'infrastruttura senza la necessità di effettuare interventi fisici sull'hardware. I modelli cloud, sia privati sia pubblici, offrono infrastruttura, piattaforma o software come servizio (IaaS, PaaS, SaaS), mentre gli edge data center (EDC) portano le applicazioni più vicine agli utenti, riducendo latenza e migliorando le prestazioni di AI, big data e contenuti in streaming. La combinazione di virtualizzazione, SDI e gestione intelligente consente di utilizzare al meglio le risorse disponibili, distribuire rapidamente applicazioni, scalare in base alle esigenze e supportare lo sviluppo di applicazioni cloud-native.

Gli standard da rispettare nel progettare un data center

La progettazione di un data center deve rispettare standard internazionali di ridondanza e affidabilità. L'Uptime Institute, ad esempio, definisce questi standard in quattro livelli:

  1. Livello I: un data center di livello I fornisce componenti di base con capacità di ridondanza, come gruppi di continuità (UPS) e raffreddamento 24 ore su 24, 7 giorni su 7, così da poter supportare le operazioni IT in un ambiente d'ufficio e non solo. Nei data center di livello I è previsto un tempo di inattività annuale massimo di 29 ore.
  2. Livello II: a quanto già previsto nei data center di livello I, qui sono previsti ulteriori sottosistemi di alimentazione e raffreddamento ridondanti, come generatori e dispositivi di accumulo dell'energia, così da offrire una maggiore sicurezza contro le interruzioni. In questo livello è previsto un tempo di inattività annuale massimo di 22 ore.
  3. Livello III: come potete ben immaginare, salendo a questo livello viene offerta ancora più efficienza e un'operatività ancora più lunga, con un tempo di inattività annuale che scende a 1,6 ore all'anno. Un simile risultato è garantito dalla presenza di un maggior numero di componenti ridondanti. Inoltre, i data center di livello III non devono essere arrestate in caso di manutenzione o sostituzione dei componenti.
  4. Livello IV: con soli 26 minuti di inattività all'anno, questo livello offre un'operatività pressoché continua del data center. In questo livello abbiamo infatti una tolleranza ai guasti totale dovuta a diversi componenti di capacità ridondanti che sono indipendenti e fisicamente isolati, in modo tale che il guasto di un'apparecchiatura non abbia alcuna incidenza sulle operazioni IT.
Sfondo autopromo
Cosa stai cercando?
api url views