Was ist ein Rechenzentrum?

Ein Rechenzentrum ist ein physischer Standort, an dem Computermaschinen und die dazugehörige Hardwareausrüstung aufbewahrt werden. Es enthält die Computerinfrastruktur, die IT-Systeme benötigen, wie Server, Datenspeicherlaufwerke und Netzwerkgeräte. Es ist die physische Einrichtung, in der die digitalen Daten eines Unternehmens gespeichert werden.

Warum sind Rechenzentren wichtig?

Jedes Unternehmen benötigt Computerausrüstung, um seine Webanwendungen auszuführen, Kunden Services anzubieten, Produkte zu verkaufen oder interne Anwendungen für Konten, Personalwesen und Betriebsverwaltung auszuführen. Wenn das Unternehmen wächst und der IT-Betrieb zunimmt, nehmen auch Umfang und Menge der erforderlichen Ausrüstung exponentiell zu. Geräte, die über mehrere Niederlassungen und Standorte verteilt sind, sind schwer zu warten. Stattdessen nutzen Unternehmen Rechenzentren, um ihre Geräte an einen zentralen Ort zu bringen und kostengünstig zu verwalten. Anstatt es On-Premises zu halten, können sie auch Rechenzentren von Drittanbietern nutzen.

Rechenzentren bringen mehrere Vorteile mit sich, wie zum Beispiel: 

  • Ersatz-Netzteile zur Bewältigung von Stromausfällen
  • Datenreplikation über mehrere Maschinen für Notfallwiederherstellung
  • Temperaturgeregelte Einrichtungen zur Verlängerung der Lebensdauer der Ausrüstung
  • Einfachere Umsetzung von Sicherheitsmaßnahmen zur Einhaltung von Datenschutzgesetzen 

Wie haben sich moderne Rechenzentren entwickelt?

Rechenzentren entstanden erstmals in den frühen 1940er Jahren, als Computerhardware komplex zu betreiben und zu warten war. Frühe Computersysteme erforderten viele große Komponenten, die Bediener mit vielen Kabeln verbinden mussten. Sie verbrauchten auch viel Strom und mussten gekühlt werden, um eine Überhitzung zu vermeiden. Um diese Computer, Mainframes genannt, zu verwalten, platzierten Unternehmen die gesamte Hardware in der Regel in einem einzigen Raum, dem sogenannten Rechenzentrum. Jedes Unternehmen investierte in ein eigenes Rechenzentrum und unterhielt es.

Im Laufe der Zeit reduzierten Innovationen in der Hardwaretechnologie die Größe und den Leistungsbedarf von Computern. Gleichzeitig wurden die IT-Systeme jedoch komplexer, beispielsweise in folgender Weise: 

  • Die Menge der von Unternehmen generierten und gespeicherten Daten stieg exponentiell an.
  • Virtualisierungstechnologie trennt Software von der zugrunde liegenden Hardware.
  • Innovationen im Netzwerkbereich machten es möglich, Anwendungen auf entfernter Hardware auszuführen.

Moderne Rechenzentren

Das Design moderner Rechenzentren wurde entwickelt, um die IT-Komplexität besser zu verwalten. Unternehmen nutzten Rechenzentren, um physische Infrastruktur an einem zentralen Ort zu speichern, auf den sie von überall aus zugreifen konnten. Mit dem Aufkommen von Cloud-Computing verwalten und warten Drittunternehmen Rechenzentren und bieten Infrastruktur als Service für andere Organisationen an. Als weltweit führender Anbieter von Cloud-Services hat AWS rund um den Globus innovative Cloud-Rechenzentren geschaffen.

Was befindet sich in einem Rechenzentrum?

Die meisten Rechenzentrums-Infrastrukturen von Unternehmen lassen sich in drei große Kategorien einteilen:

  • Computing
  • Speicher
  • Netzwerk

Außerdem umfasst die Ausrüstung des Rechenzentrums eine unterstützende Infrastruktur wie Stromversorgungssysteme, die dazu beitragen, dass die Hauptausrüstung effektiv funktioniert.

Computing-Infrastruktur

Zu den Computing-Ressourcen gehören verschiedene Arten von Servern mit unterschiedlichem internen Speicher, unterschiedlicher Verarbeitungsleistung und anderen Spezifikationen. Im Folgenden geben wir einige Beispiele.

Rack-Server

Rack-Server haben ein flaches, rechteckiges Design und können in Racks oder Regalen in einem Serverschrank gestapelt werden. Der Schrank verfügt über spezielle Merkmale wie Gittertüren, verschiebbare Regale und Platz für andere Rechenzentrums-Ressourcen wie Kabel und Lüfter.

Blade-Server

Ein Blade-Server ist ein modulares Gerät und Sie können mehrere Server auf kleinerem Raum stapeln. Der Server selbst ist physisch dünn und verfügt normalerweise nur über Speicher, CPUs, integrierte Netzwerkcontroller und einige integrierte Speicherlaufwerke. Sie können mehrere Server in eine als Chassis bezeichnete Speichereinheit schieben. Das Chassis erleichtert alle zusätzlichen Komponenten, die die darin enthaltenen Server benötigen. Blade-Server nehmen weniger Platz ein als Rack-Server und bieten eine höhere Verarbeitungsgeschwindigkeit, minimale Verkabelung und einen geringeren Stromverbrauch.

Speicherinfrastruktur

Im Folgenden sind zwei Arten von Speichersystemen für Rechenzentren aufgeführt.

Blockspeichergeräte 

Blockspeichergeräte wie Festplatten und Solid-State-Laufwerke speichern Daten in Blöcken und bieten viele Terabyte an Datenkapazität. Storage Area Networks (SANs) sind Speichereinheiten, die mehrere interne Laufwerke enthalten und als große Blockspeichersysteme fungieren. 

Dateispeicher-Geräte

Dateispeichergeräte wie netzgebundener Speicher (NAS) können eine große Menge an Dateien speichern. Sie können damit Bild- und Videoarchive erstellen.

Netzwerkinfrastruktur

Eine große Anzahl von Netzwerkgeräten wie Kabel, Switches, Router und Firewalls verbinden andere Rechenzentrumskomponenten miteinander und mit Endbenutzerstandorten. Sie bieten eine reibungslose Datenbewegung und Konnektivität im gesamten System.

Unterstützungs-Infrastruktur

Rechenzentren enthalten auch diese Komponenten:

  • Stromsubsysteme
  • Unterbrechungsfreie Stromversorgungen (USV)
  • Notstromaggregate
  • Lüftungs- und Kühlgeräte
  • Brandbekämpfungssysteme
  • Gebäudesicherheitssysteme 

Diese Rechenzentrumskomponenten unterstützen die Hauptausrüstung, sodass Sie die Einrichtungen des Rechenzentrums ohne Unterbrechung nutzen können.

Was sind die Standards im Rechenzentrums-Design?

Als Rechenzentren an Größe und Komplexität zunahmen und begannen, vertrauliche und kritische Informationen zu speichern, wurden Ihnen von Regierungen und anderen Organisationen Vorschriften auferlegt. Die Telecommunications Industry Association (TIA) hat vier Ebenen oder Standards festgelegt, die alle Aspekte des Rechenzentrums-Designs abdecken, darunter:

  • Architektur und Topologie
  • Umweltgestaltung
  • Strom- und Kühlsysteme und -verteilung
  • Verkabelungssysteme, Pfade und Redundanz
  • Sicherheit und physische Sicherheit

In ähnlicher Weise hat das Uptime Institute vier Stufen eingerichtet, um die Standortleistung objektiv zu vergleichen und Infrastrukturinvestitionen an den Geschäftszielen auszurichten. Wir listen die vier Rechenzentrums-Stufen unten auf. 

Stufe I

Ein Rechenzentrum der Stufe I ist die grundlegende Kapazitätsstufe zur Unterstützung von IT-Systemen für eine Büroumgebung und darüber hinaus. Einige der Anforderungen für eine Einrichtung der Stufe I umfassen:

  • Unterbrechungsfreie Stromversorgung (USV) für Stromausfälle und Spannungsspitzen
  • Einen physischer Bereich für IT-Systeme
  • Spezielle Kühlgeräte, die rund um die Uhr laufen
  • Einen Notstromgenerator

Stufe I schützt vor Serviceunterbrechungen durch menschliches Versagen, aber nicht vor unerwarteten Fehlern oder Ausfällen. Sie können auch mit einer jährlichen Ausfallzeit von 29 Stunden in Rechenzentren der Stufe I rechnen.

Stufe II

Einrichtungen der Stufe II bieten zusätzliche Kühlkomponenten für eine bessere Wartung und Sicherheit vor Störungen. Diese Rechenzentren müssen beispielsweise über Folgendes verfügen:

  • Motorgeneratoren
  • Kühler
  • Kühleinheiten
  • Pumpen

Obwohl Sie Komponenten aus Rechenzentren der Stufe II entfernen können, ohne sie herunterzufahren, können unerwartete Ausfälle dennoch das System beeinträchtigen. Sie können auch mit einer jährlichen Ausfallzeit von 22 Stunden in Rechenzentren der Stufe II rechnen.

Stufe III

Rechenzentren der Stufe III bieten eine größere Datenredundanz, und Sie können Geräte warten oder ersetzen, ohne das System herunterzufahren. Sie implementieren auch Redundanz bei Supportsystemen wie Strom- und Kühleinheiten, um eine jährliche Ausfallzeit von nur 1,6 Stunden zu garantieren.

Stufe IV

Rechenzentren der Stufe IV enthalten mehrere physisch isolierte Systeme, um Störungen durch geplante und ungeplante Ereignisse zu vermeiden. Sie sind vollständig fehlertolerant mit vollständig redundanten Systemen und können eine Ausfallzeit von nur 26 Minuten pro Jahr garantieren.

Welche Arten von Rechenzentrum-Services gibt es?

Je nach Ihren Anforderungen können Sie aus vielen Arten von Rechenzentrum-Services wählen.

On-Premises-Rechenzentren

On-Premises-Rechenzentren sind vollständig im Besitz des Unternehmens befindliche Rechenzentren, in denen sensible Daten und kritische Anwendungen für dieses Unternehmen gespeichert werden. Sie richten das Rechenzentrum ein, verwalten den laufenden Betrieb und kaufen und warten die Geräte.

Vorteile: Ein Unternehmens-Rechenzentrum kann eine bessere Sicherheit bieten, da Sie Risiken intern verwalten. Sie können das Rechenzentrum an Ihre Anforderungen anpassen.

Einschränkungen: Es ist kostspielig, ein eigenes Rechenzentrum einzurichten und die laufenden Personal- und Betriebskosten zu verwalten. Sie benötigen auch mehrere Rechenzentren, da nur eines zu einem einzigen Ausfallpunkt mit hohem Risiko werden kann.

Co-Location-Rechenzentren

Co-Location-Einrichtungen sind große Rechenzentrums-Einrichtungen, in denen Sie Platz mieten können, um Ihre Server, Racks und andere Computerhardware zu lagern. Das Co-Location-Center stellt in der Regel Sicherheits- und Support-Infrastruktur wie Kühlung und Netzwerkbandbreite bereit.

Vorteile: Co-Location-Einrichtungen reduzieren die laufenden Wartungskosten und bieten monatliche Fixkosten für die Unterbringung Ihrer Hardware. Sie können die Hardware auch geografisch verteilen, um die Latenz zu minimieren und näher an Ihren Endbenutzern zu sein.  

Einschränkungen: Es kann schwierig sein, Co-Location-Einrichtungen auf der ganzen Welt und in verschiedenen geografischen Zielgebieten zu finden. Die Kosten können sich auch schnell summieren, wenn Sie expandieren.

Cloud-Rechenzentren

In einem Cloud-Rechenzentrum können Sie sowohl Platz als auch Infrastruktur mieten. Cloud-Anbieter unterhalten große Rechenzentren mit voller Sicherheit und Compliance. Sie können auf diese Infrastruktur zugreifen, indem Sie verschiedene Services nutzen, die Ihnen mehr Flexibilität bei der Nutzung und Bezahlung bieten.

Vorteile: Ein Cloud-Rechenzentrum reduziert sowohl die Hardwareinvestitionen als auch die laufenden Wartungskosten jeder Infrastruktur. Es bietet mehr Flexibilität in Bezug auf Nutzungsoptionen, gemeinsame Nutzung von Ressourcen, Verfügbarkeit und Redundanz.

Wie verwaltet AWS seine Rechenzentren?

Bei AWS sprechen wir oft von Regionen, einem physischen Standort, an dem wir Rechenzentrums-Cluster betreiben. Eine logische Gruppe von Rechenzentren heißt bei uns Availability Zone (AZ). Jede AWS-Region besteht aus mehreren isolierten und physisch getrennten AZs innerhalb eines geographischen Bereichs. Jede AZ besteht aus einem oder mehreren physischen Rechenzentren, und wir konzipieren jede AZ so, dass sie in Bezug auf Standort, Strom- und Wasserversorgung vollständig von den anderen AZs isoliert ist.

Im Gegensatz zu anderen Cloud-Anbietern, die eine Region oft als ein einziges Rechenzentrum definieren, bietet das multiple AZ-Design jeder AWS-Region zusätzliche Vorteile für unsere Kunden, wie z. B. Zuverlässigkeit, Skalierbarkeit und geringstmögliche Latenz. Zum Beispiel:

  • AZs ermöglichen die Partitionierung von Anwendungen für hohe Verfügbarkeit. Wenn die Partition einer Anwendung auf mehrere AZs verteilt ist, sind Unternehmen besser vor Naturereignissen wie Stromausfällen, Blitzeinschlägen, Tornados, Erdbeben usw. isoliert und geschützt.
  • AZs in einer AWS-Region sind mit einem Netzwerk mit hoher Bandbreite und niedriger Latenz über eine vollständig redundante, dedizierte Metro-Glasfaser-Leitung miteinander verbunden, die einen hohen Durchsatz und eine niedrige Latenz zwischen den AZs ermöglicht.
  • Der Datenverkehr zwischen AZs wird verschlüsselt. Die Netzwerkleistung ist ausreichend, um eine synchrone Replikation zwischen AZs zu erreichen.

Darüber hinaus bietet AWS Rechenzentrums-Sicherheit in vier Schichten oder Ebenen. 

Perimeterebene

Perimeter-Sicherheitsmaßnahmen bieten Zugriffskontrolle auf die physische Ausrüstung durch Verwendung von:

  • Sicherheitskräften
  • Einzäunung
  • Sicherheitsfeeds
  • Technologien zur Einbruchserkennung
  • Zutrittskontrolle und Überwachung

Ebene der Infrastruktur

Die Sicherheit auf Infrastrukturebene schützt die Ausrüstung vor Beschädigung und Überhitzung. Sie umfasst Maßnahmen wie:

  • Erstklassige Kühlsysteme und Brandbekämpfungsausrüstung
  • Notstromausrüstung
  • Regelmäßige Wartung und Diagnose der Maschine
  • Sicherungen für Wasser, Strom, Telekommunikation und Internetverbindungen 

Datenebene

Die Sicherheit der Datenebene schützt die Daten selbst vor unbefugtem Zugriff und Verlust. Typische Maßnahmen in dieser Ebene sind:

  • Bedrohungserkennungs- und elektronische Angriffserkennungs-Systeme im Rechenzentrum
  • Elektronische Steuergeräte an Zugangspunkten zu Serverräumen
  • Externe Überprüfung von mehr als 2 600 Anforderungen im Laufe des Jahres 

Umweltebene

Die Umweltebene ist Umweltkontrollmaßnahmen gewidmet, die die Nachhaltigkeit unterstützen. Dies sind einige ihrer Maßnahmen: 

  • Sensoren und reaktionsschnelle Geräte, die Überschwemmungen, Brände und andere Naturkatastrophen automatisch erkennen
  • Ein Betriebsablauf-Leitfaden, der beschreibt, wie Unterbrechungen aufgrund von Naturkatastrophen vermieden und verringert werden können

100 % erneuerbare Energie und ökologische Skaleneffekte

Was sind AWS-Hybrid-Cloud-Services?

AWS-Hybrid-Cloud-Services bieten ein konsistentes AWS-Erlebnis sowohl in On-Premises- als auch in Cloud-Rechenzentren. Sie können aus einer breiten Palette von Services für Computing, Netzwerk, Speicher, Sicherheit, Identität, Datenintegration, Verwaltung, Überwachung und Betrieb wählen, um hybride Architekturen aufzubauen, die Ihren spezifischen Anforderungen und Anwendungsfällen entsprechen. Sie könnten sich beispielsweise für die Nutzung dieser Services entscheiden:

  • AWS Outposts ist ein vollständig verwalteter Service, der die gleiche AWS-Infrastruktur, -Services und -Tools für praktisch jedes Rechenzentrum, jeden Co-Location-Bereich oder jede On-Premises-Einrichtung bietet, wodurch ein konsistentes Hybrid-Erlebnis ensteht.
  • AWS Direct Connect verbessert die Leistung, indem es Ihr Netzwerk direkt mit AWS verbindet und das öffentliche Internet umgeht. Diese Verbindungen werden an über 100 Standorten weltweit hergestellt, mit Geschwindigkeiten von 50 Mbit/s bis zu 100 Gbit/s.
  • AWS-Snow-Family-Geräte sammeln und verarbeiten Daten zwischen Edge und AWS, damit Ihre Apps selbst unter extremsten Bedingungen ausgeführt werden können.
  • AWS Wavelength bettet AWS-Rechen- und Speicherservices am Edge von 5G-Netzwerken ein, um die Anwendungs-Reaktionszeit zu verkürzen.

Beginnen Sie mit einer erstklassigen Rechenzentrums-Infrastruktur, indem Sie noch heute ein kostenloses AWS-Konto erstellen.

AWS Rechenzentrum - nächste Schritte

Zusätzliche produktbezogene Ressourcen ansehen
Erfahren Sie mehr über AWS Rechenzentren 
Registrieren Sie sich für ein kostenloses Konto

Sie erhalten sofort Zugriff auf das kostenlose Kontingent von AWS.

Registrieren 
Mit der Entwicklung in der Konsole starten

Starten Sie mit der Entwicklung in der AWS-Managementkonsole.

Anmelden