Hai già un account?

  •   Contenuti personalizzati
  •   Prodotti e supporto

Hai bisogno di un account?

Crea un account

Che cos'è un data center

Nella sua forma più semplice, un data center rappresenta una struttura fisica impiegata dalle organizzazioni per ospitare le loro applicazioni critiche e i dati. La progettazione di un data center è basata su una rete di risorse di elaborazione e di archiviazione che consentono la consegna di applicazioni condivise e dati. I componenti essenziali della progettazione di un data center includono: router, switch, firewall, sistemi di archiviazione, server e controller di distribuzione delle applicazioni.

Cosa contraddistingue un data center moderno?

I data center odierni sono decisamente diversi da quelli precedenti. L'infrastruttura si è spostata dai tradizionali server fisici on-premise alle reti virtuali che supportano applicazioni e carichi di lavoro su pool di infrastruttura fisica e in un ambiente multicloud.

In quest'era, i dati esistono e sono connessi tra più data center, la periferia e i cloud pubblici e privati. Il data center deve poter comunicare tra più siti, sia on-premise che nel cloud. Persino il cloud pubblico rappresenta una raccolta di data center. Quando le applicazioni sono gestite in hosting nel cloud, utilizzano le risorse del data center dal provider di servizi cloud.

Perché i data center sono essenziali per l'azienda?

Nel mondo dell'IT aziendale, i data center sono studiati per supportare le applicazioni aziendali e le attività tra cui:

  • E-mail e condivisione di file
  • Applicazioni di produttività
  • Customer Relationship Management (CRM)
  • Pianificazione delle risorse aziendali (ERP) e database
  • Big Data, intelligenza artificiale e apprendimento automatico
  • Desktop virtuali, servizi di comunicazione e collaborazione

Quali sono i componenti principali di un data center?

La progettazione del data center include router, switch, firewall, sistemi di archiviazione, server e controller di distribuzione delle applicazioni. Poiché questi componenti archiviano e gestiscono dati e applicazioni business-critical, la sicurezza del data center è cruciale ai fini della progettazione dello stesso. Insieme, forniscono:

Infrastruttura di rete. Connette i server (fisici e virtualizzati), i servizi del data center, l'archiviazione e la connettività esterna alle posizioni degli utenti finali.

Infrastruttura di storage. I dati rappresentano la benzina del data center moderno. I sistemi di archiviazione sono utilizzati per la conservazione di questo prezioso bene.

Risorse di elaborazione. Le applicazioni rappresentano il motore di un data center. Questi server forniscono l'elaborazione, la memoria, l'archiviazione locale e la connettività di rete che guidano le applicazioni.

Come funzionano i data center?

I servizi del data center in genere vengono implementati per proteggere le prestazioni e l'integrità dei componenti principali del data center.

Appliance di sicurezza di rete. Queste includono il firewall e la protezione dalle intrusioni per la tutela del data center.

Garanzia della distribuzione delle applicazioni. Per mantenere le prestazioni delle applicazioni, questi meccanismi offrono resilienza delle applicazioni e disponibilità tramite failover automatico e bilanciamento del carico.

Cosa contiene una struttura di data center?

I componenti del data center richiedono un'infrastruttura significativa per supportare l'hardware e il software del data center. Tra questi vi sono sottosistemi di alimentazione, UPS (Uninterruptible Power Supply), ventilazione, sistemi di raffreddamento, sistemi antincendio, generatori di backup e connessioni alle reti esterne.

Quali sono gli standard per l'infrastruttura dei data center?

Lo standard più ampiamente accettato per la progettazione dei data center e per l'infrastruttura dei data center è ANSI/TIA-942. Include lo standard per la certificazione ANSI/TIA-942-ready, che assicura conformità a una delle quattro categorie di livelli di data center, classificati per i livelli di ridondanza e di tolleranza ai guasti.

Livello 1: infrastruttura del sito di base. Un data center di livello 1 offre una protezione limitata dagli eventi fisici. Offre componenti dalla capacità singola e un percorso di distribuzione unico e non ridondante. 

Livello 2: infrastruttura del sito con componenti dalla capacità ridondante. Questo data center presenta una protezione migliorata dagli eventi fisici. Offre componenti dalla capacità ridondante e un percorso di distribuzione unico non ridondante. 

Livello 3: infrastruttura del sito con manutenzione concorrente. Questo data center protegge praticamente da quasi tutti gli eventi fisici, fornendo componenti dalla capacità ridondante e percorsi di distribuzione indipendente multipli. Ciascun componente può essere rimosso o sostituito senza interruzioni di servizi agli utenti finali. 

Livello 4: infrastruttura del sito tollerante ai guasti. Questo data center offre i livelli più elevati di tolleranza ai guasti e di ridondanza. I componenti con capacità ridondante e percorsi di distribuzione indipendente multipla consentono una manutenzione concorrente e il verificarsi di un guasto in qualsiasi punto dell'installazione, senza causare interruzione dell'operatività.

Tipi di data center

Esistono numerosi tipi di data center e di modelli di servizio. La loro classificazione dipende dal fatto che siano di proprietà di una o più organizzazioni, dal modo in cui si adattano (se ciò accade) all'interno della topologia di altri data center, da quali tecnologie usano per l'elaborazione e l'archiviazione e persino dalla loro efficienza energetica. Esistono quattro tipi principali di data center:

Data center aziendali

Sono costruiti, detenuti e gestiti da aziende, che li ottimizzano per i propri utenti finali. Il più delle volte sono ospitati nel campus aziendale.


Data center di servizi gestiti

Questi data center sono gestiti da una terza parte (o da un provider di servizi gestiti) per conto di un'azienda. L'azienda prende in leasing le attrezzature e l'infrastruttura, anziché acquistarle.


Data center in co-locazione

Nei data center in co-locazione ("colo"), un'azienda affitta uno spazio all'interno di un data center di proprietà di terze parti che si trova lontano dall'azienda. Il data center in co-locazione gestisce in hosting l'infrastruttura, occupandosi di: creazione, raffreddamento, larghezza di banda, sicurezza e così via, mentre l'azienda fornisce e gestisce i componenti, tra cui server, archiviazione e firewall.


Data center su cloud

In questa forma off-premise di data center, dati e applicazioni sono gestiti in hosting da provider di servizi cloud quali Amazon Web Services (AWS), Microsoft (Azure) o IBM Cloud o un altro provider di cloud pubblico.

Scopri di più sui data center e cosa ha in serbo il futuro per loro e per la tua rete.


Evoluzione dell'infrastruttura: dai mainframe alle applicazioni cloud

L'infrastruttura informatica ha subito tre macro "ondate di evoluzione" negli ultimi 65 anni:

  • La prima ha visto il passaggio dai mainframe proprietari ai server basati su x86, on-premise e gestiti da team IT interni.
  • La seconda ha visto la diffusa virtualizzazione delle infrastrutture che supportavano le applicazioni. Ciò ha consentito un uso migliore delle risorse e la mobilità dei carichi di lavoro tra pool di infrastrutture fisiche.
  • La terza ondata è quella attuale, dove assistiamo al passaggio a cloud, cloud ibrido e cloud nativo, l'ultimo dei quali denota le applicazioni nate nel cloud.

Rete distribuita delle applicazioni

Questa evoluzione ha dato luogo all'elaborazione distribuita. Qui le applicazioni e i dati vengono distribuiti tra diversi sistemi, connessi e integrati da servizi di rete e standard di interoperabilità affinché funzionino come un unico ambiente. Significa che il termine "data center" ora viene utilizzato per fare riferimento al reparto responsabile di questi sistemi indipendentemente da dove si trovino.

Le aziende possono scegliere di creare e mantenere i propri data center di cloud ibrido, affittare uno spazio all'interno di strutture di co-locazione ("colos"), usare servizi di elaborazione e archiviazione condivisi o utilizzare servizi basati su cloud pubblico. Il risultato finale è che oggi le applicazioni non risiedono più in un solo luogo. Vengono eseguite in diversi cloud pubblici e privati, in soluzioni gestite e ambienti tradizionali. In questa era "multicloud", il data center è diventato vasto e complesso, pensato per favorire l'esperienza dell'utente finale.