Haben Sie bereits einen Account?

  •   Personalisierte Inhalte
  •   Ihre Produkte und Ihr Support

Benötigen Sie einen Account?

Einen Account erstellen

Was ist ein Rechenzentrum?

In seiner einfachsten Form ist das Rechenzentrum eine physische Anlage, die Unternehmen zur Aufbewahrung kritischer Anwendungen und Daten nutzen. Sein Design basiert auf dem Netzwerk aus Computing- und Speicherressourcen, die eine Bereitstellung von freigegebenen Anwendungen und Daten ermöglichen. Die wichtigsten Komponenten eines Rechenzentrums sind Router, Switches, Firewalls, Speichersysteme, Server und Controller für die Anwendungsbereitstellung.

Was macht ein modernes Rechenzentrum aus?

Moderne Rechenzentren unterscheiden sich mittlerweile deutlich von ihren Vorgängern. Die Infrastruktur wurde von herkömmlichen lokalen physischen Servern auf virtuelle Netzwerke umgestellt, die Anwendungen und Workloads in diversen physischen Infrastrukturen und in Multicloud-Umgebungen unterstützen.

In der heutigen Zeit befinden sich Daten in mehreren Rechenzentren, am Edge und in Public und Private Clouds und sind miteinander vernetzt. Das Rechenzentrum muss über mehrere Standorte hinweg (vor Ort und in der Cloud) kommunizieren können. Selbst die Public Cloud ist eine Ansammlung von Rechenzentren. Wenn Anwendungen in der Cloud gehostet werden, nutzen sie Rechenzentrumsressourcen von Cloud-Providern.

Warum sind Rechenzentren für das Geschäft so wichtig?

In der Unternehmens-IT sind Rechenzentren so konzipiert, dass sie Geschäftsanwendungen und -aktivitäten unterstützen, wie:

  • E-Mail und Dateifreigabe
  • Produktivitätsanwendungen
  • Customer Relationship Management (CRM)
  • Enterprise Resource Planning (ERP) und Datenbanken
  • Big Data, künstliche Intelligenz und Machine Learning
  • Virtuelle Desktops, Kommunikations- und Collaboration-Services

Welches sind die Kernkomponenten eines Rechenzentrums?

Ein Rechenzentrum besteht aus Routern, Switches, Firewalls, Speichersystemen, Servern und Controllern für die Anwendungsbereitstellung. Da diese Komponenten geschäftskritische Daten und Anwendungen speichern und verwalten, spielt die Sicherheit von Rechenzentren beim Design eine entscheidende Rolle. Zusammen bieten die Komponenten Folgendes:

Die Netzwerkinfrastruktur. Diese verbindet Server (physisch und virtualisiert), Rechenzentrumsservices, Speicher und externe Netzwerkverbindungen mit den Standorten von Endnutzern.

Storage-Infrastruktur. Daten sind der Treibstoff des modernen Rechenzentrums und Speichersysteme werden dazu verwendet, dieses wertvolle Gut aufzubewahren.

Computing-Ressourcen. Anwendungen sind der Motor eines Rechenzentrums. Diese Server bieten Datenverarbeitung, Arbeitsspeicher, lokalen Speicher und Netzwerkverbindungen, die Anwendungen antreiben.

Wie arbeiten Rechenzentren?

Rechenzentrumsservices werden normalerweise bereitgestellt, um die Leistung und Integrität der wichtigsten Rechenzentrumskomponenten zu gewährleisten.

Netzwerksicherheits-Appliances. Diese umfassen Firewalls und Schutz vor Sicherheitsrisiken, um das Rechenzentrum abzusichern.

Sichere Anwendungsbereitstellung. Um die Anwendungsleistung aufrechtzuerhalten, bieten diese Mechanismen Ausfallsicherheit und Verfügbarkeit von Anwendungen mittels automatischem Failover und Lastverteilung.

Was ist eine Rechenzentrumsanlage?

Rechenzentrumskomponenten benötigen zur Unterstützung ihrer Hardware und Software eine beachtliche Infrastruktur. Diese umfasst Subsysteme, eine unterbrechungsfreie Stromversorgung (USV), Lüftungs- und Kühlsysteme, Brandschutzanlagen, Ersatzgeneratoren und Verbindungen zu externen Netzwerken.

Welche Standards gelten für die Rechenzentrumsinfrastruktur?

Der für das Design und die Rechenzentrumsinfrastruktur am häufigsten verwendete Standard ist ANSI/TIA-942. Er umfasst Standards für die ANSI/TIA-942-Ready-Zertifizierung, welche die Einhaltung von einer der vier Rechenzentrumskategorien für Redundanz und Fehlertoleranz sicherstellt.

Tier 1: Einfache Standortinfrastruktur. Ein Tier-1-Rechenzentrum bietet begrenzten Schutz gegen physische Ereignisse. Es verfügt über einzelne Komponenten und einen einzigen, nicht redundanten Verteilungspfad. 

Tier 2: Standortinfrastruktur mit redundanten Komponenten. Ein Tier-2-Rechenzentrum bietet einen verbesserten Schutz gegen physische Ereignisse. Es verfügt über redundante Komponenten und einen einzelnen, nicht redundanten Verteilungspfad. 

Tier 3: Während des Betriebs wartbare Standortinfrastruktur. Dieses Rechenzentrum bietet Schutz gegen virtuelle und physische Ereignisse und verfügt über redundante Komponenten und mehrere unabhängige Verteilungspfade. Jede Komponente kann entfernt oder ausgetauscht werden, ohne dass Endnutzer Serviceunterbrechungen feststellen. 

Tier 4: Fehlertolerante Standortinfrastruktur. Dieses Rechenzentrum bietet ein sehr hohes Mass an Fehlertoleranz und Redundanz. Redundante Komponenten und mehrere unabhängige Verteilungspfade erlauben die Wartung im laufenden Betrieb und während der Installation auftretende Fehler führen nicht zu Ausfallzeiten.

Arten von Rechenzentren

Es gibt zahlreiche Rechenzentrumstypen und Servicemodelle. Ihre Klassifizierung hängt davon ab, ob sie einem oder mehreren Unternehmen gehören, wie (und ob) sie sich in die Topologie von anderen Rechenzentren einfügen, welche Technologien sie für Computing und Speicher verwenden und sogar wie energieeffizient sie sind. Vier Hauptarten von Rechenzentren werden unterschieden:

Unternehmensrechenzentren

Diese gehören Unternehmen und werden von ihnen erstellt, betrieben und für deren Endnutzer optimiert. Sie befinden sich häufig am Unternehmensstandort.


Managed Services-Rechenzentren

Diese Rechenzentren werden im Auftrag eines Unternehmens von Dritten (oder einem Managed Services-Anbieter) verwaltet. Das Unternehmen least die Ausrüstung und Infrastruktur, anstatt sie zu kaufen.


Colocation-Rechenzentren

Bei Colocation-Rechenzentren mietet ein Unternehmen freie Flächen in einem Rechenzentrum, das jemand anderem gehört und sich ausserhalb des Unternehmensstandorts befindet. Das Colocation-Rechenzentrum hält die Infrastruktur bereit, etwa das Gebäude, Kühlsysteme, Bandbreite, Sicherheitseinrichtungen, und das Unternehmen stellt die Komponenten, einschliesslich Server, Speicher und Firewalls, und verwaltet diese.


Cloud-Rechenzentren

Bei diesen externen Rechenzentren werden Daten und Anwendungen von einem Cloud-Services-Provider wie Amazon Web Services (AWS), Microsoft (Azure), IBM Cloud oder einem anderen Public Cloud-Provider gehostet.

Erfahren Sie mehr über Rechenzentren und darüber, was die Zukunft für sie und Ihr Netzwerk bereithält.


Weiterentwicklung der Infrastruktur: von Mainframes zu Cloud-Anwendungen

In den vergangen 65 Jahren hat die Computing-Infrastruktur drei grössere Entwicklungsphasen durchgemacht:

  • In der ersten Phase erfolgte der Wandel von proprietären Grossrechnern hin zu x86-basierten Servern, die lokal installiert und von internen IT-Teams verwaltet wurden.
  • In der zweiten Phase erfolgte eine umfassende Virtualisierung der Infrastruktur, die Anwendungen unterstützte. Dies ermöglichte eine bessere Nutzung von Ressourcen und die Mobilität von Workloads über mehrere verschiedene physische Infrastrukturen hinweg.
  • Im Moment befinden wir uns in der dritten Phase, in der wir eine Verschiebung hin zur Cloud, zur Hybrid Cloud und zu Cloud-nativen Anwendungen beobachten. Letzteres sind Anwendungen, die speziell für die Cloud konzipiert sind.

Verteiltes Netzwerk aus Anwendungen

Diese Entwicklung hat zur verteilten Datenverarbeitung geführt. Hierbei werden Daten und Anwendungen auf unterschiedliche Systeme verteilt, verbunden und durch Netzwerkservices und Interoperabilitätsstandards integriert, damit sie als eine Umgebung agieren. Der Begriff „Rechenzentrum“ wird heute dazu verwendet, um auf die Abteilung zu verweisen, die für diese Systeme verantwortlich ist. Dabei spielt es keine Rolle, wo sich die Systeme befinden.

Unternehmen können entscheiden, ob sie ihre eigenen Hybrid Cloud-Rechenzentren erstellen und pflegen, Räume in Colocation-Einrichtungen anmieten, oder gemeinsame Computing- und Speicherservices oder Public Cloud-basierte Services nutzen. Das alles hat zur Folge, dass sich Anwendungen heutzutage nicht mehr nur an einem Ort befinden. Sie werden in mehreren Public und Private Clouds, verwalteten Lösungen und herkömmlichen Umgebungen ausgeführt. Im Zeitalter der „Multicloud“ ist das Rechenzentrum riesig und komplex geworden und soll Benutzern eine ultimative Benutzerfreundlichkeit bescheren.