Rechenzentren verstehen – Fachbegriffe einfach erklärt
Von: 2025
Bei Taylor Wessing begleiten wir Unternehmen, Investoren und Betreiber dabei, ihre Data Center Projekte rechtssicher und erfolgreich umzusetzen. Unsere spezialisierten Anwältinnen und Anwälte bieten fundierte Beratung bei Regulatorik und kommerziellen Angelegenheiten, insbesondere in Fragen der IT- & Dateninfrastruktur, Nachhaltigkeit und Erneuerbare Energien sowie im Immobilien-, Bau-, Umwelt- und Planungsrecht.
Mit diesem Glossar möchten wir Ihnen einen kompakten Einstieg in die wichtigsten Begrifflichkeiten der komplexen Data Center Welt an die Hand geben.
Haben Sie Fragen zu Ihrem Rechenzentrumsvorhaben? Wir begleiten Sie bei allen Herausforderungen im Data Center Bereich, sprechen Sie uns an.
The Legal 500 Germany 2025
Durch den Betrieb der Server und anderer Komponenten werden in einem Rechenzentrum große Mengen an Wärme produziert, die teilweise ungenutzt, mit einem zusätzlichen Aufwand an die Außenluft abgegeben werden. Die Abwärme aus einem Rechenzentrum wird traditionell durch Kühlungssysteme abgeführt, was jedoch den Energiebedarf eines Rechenzentrums erheblich steigert. Die Abwärme von Rechenzentren gehört zu den Wärmequellen minderer Qualität, birgt jedoch großes Potenzial zur Verbesserung der Energieeffizienz und zur Verwirklichung eines nachhaltigen Energiemanagements.
Ein AI Data Center (oder auch KI-Rechenzentrum) ist ein Rechenzentrum, das den enormen Strom-, Speicher- und Kühlanforderungen der AI-Technologie gerecht wird. Es verfügt über beispiellose Rechenressourcen, um das ressourcenintensive Training und die Bereitstellung komplexer Modelle und Algorithmen des maschinellen Lernens zu bewältigen.
AI Workloads (auch KI-Workloads) sind Rechenaufgaben und -prozesse, die mit der Entwicklung, dem Training und der Ausführung von KI-Modellen zusammenhängen. Dies umfasst die Datenvorverarbeitung, das Modelltraining, das Hyperparameter-Tuning, die Inferenz und die Modellbereitstellung von z.B. Modellen des maschinellen Lernens (ML), Deep Learning Modellen (DL) oder Modellen der natürlichen Sprachverarbeitung (NLP). Damit ist typischerweise die Verarbeitung großer Datenmengen und die Durchführung komplexer Berechnungen verbunden. Damit große Datensätze und komplexe Algorithmen effizient verarbeitet werden können, setzen die ressourcenintensiven AI Workloads beträchtliche Rechenleistung, Speicher und Speicherplatz voraus.
Public Cloud-Anbieter betreiben ihre Dienste meist aus verschiedenen, geographisch verteilten Rechenzentren heraus. Diese Standorte werden zu Availability Zones (Verfügbarkeitszonen) und Regionen zusammengefasst. Availability Zones sind isolierte oder physisch getrennte Rechenzentren innerhalb bestimmter Regionen. Je Availability Zone gibt es mindestens ein Rechenzentrum, mit eigenständiger Stromversorgung, Kühlung und Netzwerkanbindung. In einer Region werden verschiedene Availability Zones, die über dedizierte Netzwerke verknüpft sind, zusammengefasst. Mithilfe dieser Availability Zones können Produktionsanwendungen und Datenbanken betrieben werden, die eine höhere Verfügbarkeit aufweisen, fehlertoleranter und skalierbarer sind, als dies von einem einzigen Rechenzentrum aus möglich wäre.
Der Black-Building-Test (Schwarzschaltung) stellt ein Verfahren dar, bei dem die gesamte Stromversorgung eines Rechenzentrums absichtlich abgeschaltet wird. Ziel dieses Tests ist es, die Funktionsfähigkeit der Notstromsysteme (emergency power systems), wie USV-Anlagen (USV - unterbrechungsfreie Stromversorgung) und Dieselgeneratoren, zu überprüfen und sicherzustellen, dass diese im Ernstfall zuverlässig den Betrieb aufrechterhalten können. Dies gewährleistet, dass kritische Systeme auch bei einem Stromausfall mit der Netzersatzanlage weiterhin betriebsbereit bleiben und Datenintegrität sowie -verfügbarkeit gesichert sind.
Breakered Amp Power ist ein allgemeiner Begriff, der im Einzelhandels-Colocation-Leasing verwendet wird, um das Wirtschaftsmodell zu beschreiben, nach dem Kunden Stromgebühren berechnet werden. In einem Breakered Amp Colocation-Modell erhält der Kunde eine bestimmte Leistungsschaltergröße und Spannung und zahlt den gleichen Preis für die Stromverteilung, unabhängig davon, ob er sie nutzt oder nicht.
Bei dem Build to Suit Konzept handelt es sich um ein maßgeschneidertes Rechenzentrum, das nach den spezifischen Anforderungen eines Kunden entworfen und gebaut wird. Dabei werden technische Spezifikationen, Energieversorgung, Kühlung und Sicherheitsanforderungen exakt nach den Bedürfnissen des Kunden, meist große Unternehmen, umgesetzt.
Bei BCR Planning handelt es sich um Strategien und Maßnahmen, die den unterbrechungsfreien Betrieb eines Rechenzentrums sicherstellen und eine schnelle Wiederherstellung im Störfall ermöglichen. Dazu gehören Notfallpläne, Redundanzsysteme und regelmäßige Tests, um Ausfallzeiten zu minimieren und kritische IT-Dienste zu schützen.
Ein carrierneutrales Rechenzentrum, in der Regel Colocation- oder Hyperscale-Rechenzentren, werden unabhängig von den am Standort ansässigen Telekommunikationsanbietern betrieben. Dadurch können Verbindungen zu verschiedenen Telekommunikations-Carriern und/oder Colocation-Providern hergestellt werden. Durch die Nutzung dieser Art von Rechenzentren können Unternehmen kostspielige IT-Prozesse auslagern.
Die Cloud-Infrastruktur besteht aus einer Vielzahl von Hardware- und Softwareressourcen, die die Cloud bilden. Cloud-Anbieter betreiben globale Rechenzentren, die aus unzähligen IT-Infrastrukturkomponenten bestehen, darunter Server, physische Speichergeräte und Netzwerkgeräte . Sie konfigurieren die physischen Geräte mit verschiedenen Betriebssystemen und installieren weitere Software, die zur Ausführung von Anwendungen notwendig ist.
Cloud-Computing ist ein Bereitstellungsmodell, welches über das Internet Zugriff auf Speicher, Server, Datenbanken, Netzwerke, Software, Analysen und Anwendungen ermöglicht. Diese Ressourcen werden üblicherweise on demand im Rahmen eines As-a-Service-Modells mit nutzungsabhängiger Bezahlung angeboten. Dadurch können Unternehmen auf virtuelle Computing-, Netzwerk- und Speicherressourcen zugreifen, ohne sich um die Wartung eigener Hardware kümmern zu müssen.
Unter CloudOps oder Cloud Operations (Management) ist die operative Verwaltung von Cloud-Ressourcen, einschließlich Servern, Datenspeicher, Netzwerk und Anwendungen zu verstehen, um sicherstellen zu können, dass diese innerhalb der Cloud-Umgebung effizient und wirksam funktionieren. Unternehmen, deren Geschäftsbetrieb auf einer Cloud aufbaut, benötigen CloudOps zur Gewährleistung einer lückenlosen Benutzerverfügbarkeit ihrer Anwendungen sowie der Anpassungsfähigkeit an sich verändernde Anforderungen.
Ein Cloud-Rechenzentrum ist für die Bereitstellung von Cloud-Diensten optimiert. Es ermöglicht Nutzern den Zugriff auf virtuelle Ressourcen wie Rechenleistung, Speicher und Anwendungen über das Internet, und damit die Nutzung von Ressourcen wie Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) Kunden können je nach Bedarf skalieren und zahlen nur für die tatsächlich genutzten Ressourcen. Bei Cloud-Rechenzentren wird zwischen Public Cloud und Private Cloud unterschieden.
Cold Aisles sind ein zentraler Bestandteil moderner Klimatisierungskonzepte, bei denen kühle Zuluft gezielt in die vorderen Bereiche der Serverracks geleitet wird. Sie dienen der optimierten Kühlung der Hardware-Einrichtungen. Durch die Trennung von kalter und warmer Luft wird die Kühlung effizienter und der Energieverbrauch reduziert.
Colocation-Rechenzentren sind von Kunden gemeinsam genutzte Rechenzentren. Colocation-Anbieter stellen Mietern Rechenzentrumsflächen, primäre infrastrukturelle Services und Betriebsunterstützung (Klimatisierung, Energieversorgung, Netzwerkanschluss) sowie Servicearbeiten, Patch Services etc. und die physische Sicherheit zur Verfügung. Oft mieten mehrere Kunden Bereiche, um die eigene IT-Infrastruktur (Server, Speicher- und Netzwerkhardware) eigenständig zu installieren und zu hosten.
Compute bezeichnet die Rechenkapazitäten und -ressourcen in einem Rechenzentrum, die für die Verarbeitung von Daten und Ausführung von Anwendungen benötigt werden. Dazu gehören Prozessoren (CPUs), Arbeitsspeicher (RAM) und andere Hardware-Komponenten, die zusammenarbeiten, um Berechnungen durchzuführen und IT-Services bereitzustellen. Die Rechenleistung wird durch Prozessorleistung, Speicher und Netzwerkkapazität bestimmt und ist bspw. entscheidend für Anwendungen wie Cloud-Computing und Künstliche Intelligenz.
Die Computing Power ist die Rechenleistung eines Systems, gemessen in Geschwindigkeit und Kapazität der Datenverarbeitung. Sie wird durch Faktoren wie Prozessoranzahl, Taktfrequenz, Speicher und Parallelverarbeitung bestimmt und ist entscheidend für die Leistungsfähigkeit von Rechenzentren. Durch die Zunahme von generativer künstlicher Intelligenz und anderen datenintensiven Anwendungen, ist der Bedarf an High-Performance-Computing-Umgebungen signifikant gestiegen.
CDUs sind Komponenten in flüssigkeitsgekühlten Rechenzentren. Konkret handelt es sich um Kühlmittelverteiler bzw. Kühlverteiler / Kühlmittelverteilungseinheiten zur effizienten Wärmeabführung in Rechenzentren. Mithilfe der direkten Flüssigkeitskühlung wird die von den Prozessoren erzeugte Wärme abgeführt.
Ein Cross-Connect ist eine physische oder virtuelle Verbindung innerhalb eines Rechenzentrums zwischen zwei verschiedenen Parteien oder Netzwerken. Diese Verbindung ermöglicht eine schnelle, sichere und direkte Datenübertragung zwischen Servern, Netzwerken oder Colocation-Kunden, ohne dass der Datenverkehr über externe Netzwerke geleitet werden muss. Cross-Connects werden häufig genutzt, um Latenzen zu minimieren bzw. die Sicherheit und die Performance im Vergleich zu externen Netzwerkverbindungen zu verbessern.
Bei der Virtualisierung von Rechenzentren wird aus herkömmlichen physischen Servern ein virtueller Server erstellt, der bspw. auch als softwaredefiniertes Rechenzentrum bezeichnet wird. Durch Software-gestützte Lösungen können IT-Ressourcen dynamisch zugewiesen, Kosten gesenkt und die Ausfallsicherheit erhöht werden.
Die Data Hall ist der zentrale Bereich eines Rechenzentrums, in dem IT-Infrastruktur wie Server-Racks, Speicher- und Netzwerkgeräte untergebracht sind. Die Data Hall ist für optimierte Klimatisierung, Stromversorgung und Sicherheitssysteme ausgelegt, um einen effizienten und sicheren Betrieb der IT-Lasten zu gewährleisten
In einer abgeschlossenen, eigenen Suite in einem Rechenzentrum definiert der Kunde den Schutz für seine Hardware. Die Suiten werden durch Wände oder Stahlgitter mit Sichtschutz voneinander abgetrennt. Dabei können Kunden die individuelle Einrichtungs- und Ausbauoption wählen, die exakt ihren Anforderungen entspricht.
Bei DC Containment handelt es sich um ein System zur Trennung von kalter und warmer Luft in Rechenzentren, zur Maximierung der Kühlungseffizienz. DC Containment reduziert den Energieverbrauch, verbessert die Kühlleistung und erhöht die Effizienz der Server.
Es gibt zwei Hauptarten:
Als Disaster Recovery Sites werden spezielle alternative Standorte bezeichnet, die dazu dienen, IT- und Datenverarbeitungsdienste im Falle eines katastrophenbedingten Ausfalls des primären Rechenzentrums aufrechtzuerhalten. Diese Einrichtungen sind so konstruiert, dass sie bspw. bei Naturkatastrophen, technischen Störungen oder weiteren schwerwiegenden Vorfällen schnell als Ersatz für das Hauptrechenzentrum einspringen und dahingehend die Resilienz von Unternehmen gewährleisten können. Dies umfasst die Wiederherstellung der IT-Infrastruktur und der Daten, um den Geschäftsbetrieb möglichst unterbrechungsfrei fortzuführen.
Disaster Recovery Sites verfügen typischerweise über redundante Systeme und Netzwerkanbindungen und bedürfen regelmäßigen Backups und Tests zur Sicherstellung ihrer Funktionsfähigkeit im Ernstfall. Sie sind ein wesentlicher Bestandteil einer umfassenden Business-Continuity-Planung (BCP / BCR).
Bei Edge-Rechenzentren handelt es sich um kleinere dezentrale Rechenzentren, die näher am Endbenutzerstandort lokalisiert sind, um Latenzen zu verringern und eine schnellere Datenverarbeitung, insbesondere zeitkritischer Daten, zu ermöglichen – bspw. für IoT und Streaming.
Enterprise-Rechenzentren sind im Besitz eines Unternehmens und befinden sich meist auf deren Firmengelände. Sie werden für den internen Gebrauch betrieben. Die Wartung und Verwaltung der IT-Infrastruktur und der Komponenten liegen in den Händen des Unternehmens. Es bietet volle Kontrolle über Sicherheit, Leistung und Skalierbarkeit, erfordert jedoch hohe Investitionen und laufende Betriebskosten.
FLAP-D ist ein Akronym für Frankfurt, London, Amsterdam, Paris und Dublin. Diese als „FLAP-D Märkte“ bezeichneten Städte, stellen die führenden und bedeutsamsten Rechenzentrum-Hubs Europas dar.
Flexible Connection Agreements sind Verträge, die es Rechenzentrumsnutzern ermöglichen, ihre Netzwerkkapazitäten flexibel anzupassen, um auf schwankende Anforderungen oder Wachstum zu reagieren.
Die German Data Center Association ist ein Verband, der zu den führenden Branchenorganisationen im Bereich digitaler Infrastrukturen zählt und vereint unter ihrem Dach namhafte und marktrelevante Akteure aus allen Bereichen des „Ökosystems Rechenzentrum". Der 2018 in Frankfurt am Main gegründete Verband bietet eine Plattform für Betreiber und Eigentümer von Rechenzentren sowie für Vertreter aus Politik, Kommunen, Immobilienwirtschaft und beratende Dienstleister. Der GDA zählt 130 Unternehmen zu seinen Mitgliedern. Taylor Wessing ist seit 2023 aktives Mitglied.
Mit High Performance Computing ist das Aggregieren von Rechenleistung gemeint. Es werden große Datenmengen mit sehr hoher Geschwindigkeit verarbeitet, indem mehrere Computer und Storage-Geräte zusammengeführt werden. So können komplexe und leistungsintensive Probleme gelöst werden.
Hot Aisles bzw. Wärmegänge sind Bestandteil eines Designkonzepts zur Optimierung der Kühlleistung von Rechenzentren. Hierbei werden die Rückseiten der Server-Racks, aus denen heiße Abluft strömt, in speziellen Gängen (den Hot Aisles) zusammengeführt. Diese Wärmegänge, aus denen die Abluft gezielt abgeführt wird, sind von den kalten Bereichen (Cold Aisles), in denen kühle Luft zu den Vorderseiten der Server-Racks strömt, getrennt. Mithilfe dieser Trennung wird eine effiziente Kühlung ermöglicht und die thermische Belastung der Geräte reduziert.
Hyperscale-Rechenzentren sind die größten Cloud-Rechenzentren. Sie werden von Cloud-Service-Providern wie Amazon Web Services (AWS), Google Cloud oder Microsoft Azure betrieben. Sie bieten eine enorme Skalierbarkeit sowie Effizienz für Cloud-Dienste und bieten den Raum, die Kühlung und die technische Infrastruktur, um den massiven Anforderungen von Daten- und Cloud-Computing gerecht zu werden. Hyperscale-Rechenzentren haben eine Fläche von mehr als 10.000 m2, beherbergen bis zu 5.000 Server und haben eine Leistung von durchschnittlich mehr als 25 MW.
Verwechslungsgefahr „Hyperscaler“: Der Begriff „Hyperscaler“ wird häufig als Spitzname für Hyperscale-Rechenzentren verwendet. Ebenso häufig wird er aber auch für Cloud-Service-Provider verwendet. Um nicht für Verwechslungsgefahr zu sorgen, ist trennscharf zwischen der Rechenzentrumsart und den auf Hyperscale-Computing spezialisierten Unternehmen zu differenzieren.
Infrastructure-as-a-Service (IaaS) ist ein Cloud-Service-Modell, bei dem Unternehmen IT-Infrastruktur wie Rechenleistung, Speicher und Netzwerke bedarfsgerecht nutzen können, ohne eigene Hardware zu betreiben
Ein Internetknotenpunkt / Internet Exchange Point ist ein physischer Standort, über den Internet-Infrastrukturunternehmen, wie Hosting- und Cloud-Unternehmen, Internet Service Provider und Rechenzentren und Colocation-Anbieter, miteinander verbunden sind. Diese Austauschpunkte für Datenverkehr befinden sich an der Edge verschiedener Netzwerke und ermöglichen Netzwerk-Providern den gemeinsamen Transit außerhalb ihres eigenen Netzwerks. Im Wesentlichen besteht ein Internet Exchange Point aus einem oder mehreren physischen Standorten mit Netzwerk-Switches, die als Kopplungselement dienen und den Traffic zwischen den verschiedenen Mitgliedernetzwerken weiterleiten.
Zu den größten Internetknotenpunkte in Europa zählen:
Rechenzentren lassen sich anhand ihrer jeweiligen Kapazität im Sinne der Energieversorgung (Power Capacity) in Megawatt (MW) in verschiedene Kategorien einordnen. Diese Einstufung beeinflusst Standortwahl, Infrastrukturplanung und Skalierbarkeit.
Kleine Rechenzentren:
Mittelgroße Rechenzentren:
Große Rechenzentren:
Hyperscale-Rechenzentren:
Als Kritische Last (oder auch Critical Power / IT Load / Critical Load) bezeichnet man die maximale elektrische Leistungsaufnahme, die ein Rechenzentrum gesichert und zuverlässig bewältigen kann. Diese Last umfasst alle wesentlichen Stromverbraucher wie Server, IT/Netzwerkausrüstung, Kühlsysteme und Beleuchtung. Die exakte Bestimmung der Kritischen Last ist entscheidend für die Planung und den Betrieb eines Rechenzentrums, um Überlastungen zu verhindern und eine kontinuierliche Verfügbarkeit der IT-Services sicherzustellen.
Die Kritische Infrastruktur oder auch Kritische Anlageeinrichtungen sind sämtliche wesentlichen Infrastrukturkomponenten, die für den sicheren und zuverlässigen Betrieb eines Rechenzentrums erforderlich sind. Hierzu zählen insbesondere:
In Rechenzentren ist die Kühlung der eingesetzten Hardware erforderlich, um die Betriebstemperaturen zu kontrollieren und eine Überhitzung zu vermeiden.
Bei der Latenz handelt es sich um die Zeitverzögerung bei der Übertragung von Daten in Netzwerken. Ursächlich für diese Verzögerung können verschiedene Faktoren sein, bspw. die Entfernung zwischen den beteiligten Geräten, Zwischenschritte im Netzwerk oder die Leistungsfähigkeit der Software und Hardware. Im Kontext eines Rechenzentrums ist eine niedrige bzw. minimale Latenz von entscheidender Bedeutung für die Leistung und Effizienz vieler Anwendungen, wie zum Beispiel der datenintensiven KI-Technologie oder Echtzeitanwendungen wie Streaming.
Beide Begrifflichkeiten stellen Kühlverfahren der Rechenzentrumshardware dar. Bei der Liquid-to-Liquid-Kühlung wird die Wärme bspw. der Prozessoren direkt mithilfe einer Flüssigkeit (meistens Wasser) abgeführt und an das primäre Wasserkühlsystem des Gebäudes oder externen Wärmenutzern weitergeleitet. So wird eine effiziente Kühlung erzielt, bei der die Wärme mit höherer Temperatur abgeführt werden kann – insbesondere positiv hinsichtlich der Abwärmenutzung und Einhaltung regulatorischer Anforderungen wie dem Energieeffizienzgesetz.
Bei der Liquid-to-Air-Kühlung wird zur Wärmeabfuhr ebenfalls Flüssigkeit genutzt. Diese Wärme wird anschließend jedoch über Luftkühler an die Umgebungsluft abgegeben. Dieser Ansatz bietet trotz der ineffizienteren Kühlung den Vorteil der einfacheren Implementierung in bestehende Rechenzentren.
Long Lead Items sind Komponenten, Bauteile oder Materialien, die eine lange Beschaffungszeit haben und frühzeitig bestellt werden müssen. Sie spielen insb. bei Rechenzentren eine kritische Rolle in der Planung und Realisierung, da ihre Verfügbarkeit den gesamten Projektfortschritt beeinflussen kann.
Beispiele:
Die Netzanschlussleistung bezieht sich auf die maximale elektrische Leistung, die einem Rechenzentrum vom öffentlichen Stromversorgungsnetz zugeführt werden kann und zur Verfügung steht. Diese Kapazität ist entscheidend für den Betrieb eines Rechenzentrums, da sie bestimmt, wie viele Server und andere IT-Infrastrukturen gleichzeitig betrieben werden können.
Ein hoher Bedarf an Strom ist typisch für Rechenzentren, die erhebliche Mengen an Energie benötigen, um ihre umfangreichen Serverfarmen zu versorgen. Damit ist die Netzanschlussleistung ein kritischer Faktor für den reibungslosen Betrieb und die Skalierbarkeit des Rechenzentrums.
Die OHSAS 18001:2007 (Occupational Health and Safety Assessment Series) ist eine internationale Norm, die Anforderungen an Arbeitsschutzmanagementsysteme (AMS) festlegt. Sie zielt darauf ab, Arbeitsunfälle und -krankheiten zu reduzieren sowie ein sicheres und gesundes Arbeitsumfeld zu fördern. Im Kontext von Rechenzentren spielt die OHSAS 18001:2007 eine wesentliche Rolle bei der Gewährleistung der Sicherheit und Gesundheit der Mitarbeitenden. Rechenzentren sind komplexe technische Einrichtungen mit hohen Anforderungen an Elektrik, Klimatisierung und mechanische Systeme. Diese Bedingungen erfordern strenge Sicherheitsvorkehrungen und regelmäßige Überprüfungen, um Risiken zu minimieren. Die Norm wird zunehmend durch die ISO 45001 Norm ersetzt.
On-Site Power Generation umfasst Stromversorgungslösungen, bei denen ein Rechenzentrum vor Ort eigene Energiequellen nutzt. Dazu gehören Dieselgeneratoren, Gas- oder Biokraftstoffe sowie erneuerbare Energien, um die Energieversorgung unabhängig vom öffentlichen Netz sicherzustellen.
Bei der Multi-Fuel Power Generation handelt es sich im Kontext von Rechenzentren um Stromversorgungssysteme, die mehrere Energiequellen nutzen können. Dies hat eine besondere Relevanz für Rechenzentren und deren dauerhaft sichergestellte und ausfallsichere Stromversorgung.
Das Open Compute Project (OCP) ist eine Initiative zur Entwicklung offener, standardisierter Hardware- und Rechenzentrumsdesigns. Ziel ist es, die Investitions- und Betriebskosten, den Energieverbrauch und die Umweltbelastungen von Rechenzentren durch innovative, vollständig standardisierte IT-Architekturen zu reduzieren.
Ein POP bei einem Rechenzentrum ist ein physischer Standort, ein sogenannter Netzwerkknotenpunkt, um den Datenaustausch zwischen verschiedenen Netzwerken zu ermöglichen. Ein POP umfasst in der Regel Geräte wie Router, Switches und andere Netzwerkkomponenten und ist entscheidend für niedrige Latenzen und leistungsstarke Internetanbindungen.
Unter Power Densities versteht man die Menge an elektrischer Leistung, die pro Flächeneinheit bereitgestellt wird. Dieser Wert der elektrischen Leistungsdichte ist ein entscheidender Faktor für das Design und den Betrieb eines Rechenzentrums, da er angibt, wie viel elektrische Energie für die Server und andere Geräte benötigt wird – gemessen in Kilowatt pro Quadratmeter oder pro Rack.
Eine Power Distribution Unit (PDU) in einem Rechenzentrum ist ein Gerät, das zur Verteilung elektrischer Energie an Server und andere IT-Geräte verwendet wird. Eine PDU nimmt die elektrische Energie von der Hauptstromversorgung des Rechenzentrums auf und verteilt sie sicher und effizient an die verschiedenen IT-Komponenten innerhalb eines Racks oder einer Reihe von Racks.
Power over Ethernet (PoE) ist eine Technologie, die es ermöglicht, elektrische Energie zusammen mit Daten über ein Ethernet-Kabel zu übertragen. In einem Rechenzentrum führt PoE zur Effizienzsteigerung bei der Installation und Verwaltung von netzwerkbasierten Geräten.
Power Purchase Agreements (PPAs) sind individuell ausgehandelte, langfristige Stromlieferverträge, insbesondere für Erneuerbare Energien. In der Regel handelt es sich um Verträge zwischen einem Stromerzeuger und einem Stromabnehmer, hier dem Rechenzentrumsbetreiber, bei denen der Abnehmer sich verpflichtet, den erzeugten Strom über einen längeren Zeitraum zu kaufen. Langfristige Vereinbarungen zum Erwerb von durch erneuerbare Energien erzeugtem grünen Strom können dazu beitragen, verschiedene Risiken sowohl für Abnehmer als auch Erzeuger zu mindern und unternehmerische Chancen zu kreieren: Preissicherheit, Versorgungssicherheit, Minimierung von regulatorischen Risiken und die Minimierung von Umweltrisiken.
Der PUE-Wert zeigt an, wie effizient die zugeführte Energie in einem Rechenzentrum verbraucht wird und stellt somit ein Maß für die Energieeffizienz eines Rechenzentrums dar. Ein niedrigerer PUE-Wert bedeutet eine höhere Effizienz. Je näher der Wert an 1,0 liegt, desto energieeffizienter arbeitet das Rechenzentrum und desto besser ist die Energiebilanz. Zur Berechnung des Wertes wird die gesamte zugeführte Energie durch die vom IT-Equipment verbrauchte Energie geteilt.
Powered Shell Data Centers sind vorgefertigte Rechenzentren mit abgeschlossener Außenkonstruktion, installierter Energie- und Kühlinfrastruktur und Konnektivität. Der Innenraum ist noch in seiner “Rohfassung” und kann vom Kunden im Hinblick auf die individuellen operativen Anforderungen gestaltet und ausgestattet werden. Gleiches gilt für Turnkey bzw. schlüsselfertige Rechenzentren. So können Stockwerke / Abschnitte oder ein ganzes Gebäude an einen Kunden übergeben werden. Diese Lösung ermöglicht eine schnellere Inbetriebnahme als ein Neubau.
Eine Private Cloud ist ein Clouddienst, der ausschließlich einer einzigen Organisation zur Verfügung steht und jeglichen „Fremdzugriff“ ausschließt. Durch Verwendung einer privaten Cloud kann eine Organisation von den Vorteilen des Cloud-Computings profitieren, ohne Ressourcen mit anderen Organisationen zu teilen. Cloud Computing Services und die Infrastruktur werden im virtuellen Rechenzentrum gehostet. Für das Management, die Wartung und den Betrieb ist das Unternehmen selbst verantwortlich.
Public Cloud ist die häufigste Bereitstellungsform von Cloud-Computing. Ein externer Cloud Provider stellt mehreren Kunden eine virtuelle Hardware, Software oder andere unterstützende Infrastruktur zur Verfügung, auf welche diese über eine Internetverbindung zugreifen können. Die Infrastruktur ist im Besitz und wird durch den Cloud Provider verwaltet.
Bei einem Rack handelt es sich um ein standardisiertes Gehäuse oder Gestell, welches zur Beherbergung und Organisation von IT-Geräten wie Servern, Netzwerkkomponenten, Speichersystemen und andere Elektronikgeräten dient. Ein Rack bietet eine strukturierte Möglichkeit, diese Geräte zu montieren und miteinander zu verbinden.
Rechenzentrum-Tiers sind ein System zur einheitlichen Beschreibung bestimmter Arten von Rechenzentrumsinfrastrukturen. Tier 1 ist die einfachste Infrastruktur, während Tier 4 die komplexeste ist und über die meisten redundanten Komponenten verfügt.
Unter Secondary Markets fallen Gebiete, welche nicht als FLAPD-Märkte gewertet werden, sich die Gesamtkapazität der Rechenleistung jedoch im starken Wachstum befindet. Darunter fallen in Europa Madrid, Berlin, Warschau und Barcelona.
Unter einem Service Level Agreement (SLA) bei einem Rechenzentrum versteht man eine vertragliche Vereinbarung zwischen dem Dienstleister und dem Kunden, die die erwarteten und garantierten Leistungsstandards, Betriebszeiten und Servicequalität detailliert festlegt.
Software-as-a-Service (SaaS) ist ein Cloud-Service-Modell, bei dem Softwareanwendungen über das Internet bereitgestellt und genutzt werden. Nutzer greifen auf die Software zu, ohne sie lokal installieren oder warten zu müssen. Wartung, Updates und Skalierung werden vom Anbieter übernommen.
Bei einem softwaredefinierten Rechenzentrum werden die Infrastrukturkomponenten (Server, Speicher, Netzwerke) softwaregesteuert und automatisiert verwaltet.
Unter einer Standardized DC Busbar versteht man eine standardisierte Stromschiene, die in Rechenzentren zur Verteilung von Gleichstrom verwendet wird. Diese Stromschienen sind darauf ausgelegt, eine effiziente und zuverlässige Energieverteilung zu gewährleisten und gleichzeitig den Verkabelungsaufwand zu minimieren.
Ein TCS (Technical Control System) und ein FWS (Facility Wiring System) sind zentrale Komponenten in der Infrastruktur eines Rechenzentrums. TCS dient der Überwachung und steuert die technischen Betriebsbedingungen eines Rechenzentrums. Dies umfasst Systeme zur Überwachung von Temperatur, Luftfeuchtigkeit, Stromversorgung und anderen Umgebungsparametern. FWS bezieht sich auf die Verkabelungsinfrastruktur innerhalb des Rechenzentrums, einschließlich Strom- und Netzwerkverkabelung.
Ein Unterbrechungsfreies Stromversorgungssystem (USV) / Uninterruptible Power Supply dient dazu, die kontinuierliche Stromversorgung der IT-Infrastruktur sicherzustellen, auch bei Stromausfällen oder Schwankungen im Stromnetz.
Unter einem “Whitespace” versteht man die ungenutzte oder frei verfügbare Fläche innerhalb des Rechenzentrums. Diese Fläche ist weder mit Server-Racks noch mit anderen IT-Infrastrukturen belegt. Whitespace kann für zukünftige Erweiterungen oder zur Installation zusätzlicher Geräte genutzt werden.
Ein Workload bezeichnet die Art und den Umfang der Verarbeitung, welche die Computing-Ressourcen durchführen, um Aufgaben zu erledigen oder Ergebnisse zu erzielen.
Effizienzvorgaben für Rechenzentren
Power Play: Renewable Energy Update
von mehreren Autoren
Tech Predictions 2024: Der Jahresausblick für die Tech-Branche
Sie wollen wissen, welche Trends und Themen im Jahr 2024 auf Sie zukommen? Dann dürfen Sie die Video-Serie „Tech Predictions 2024“ auf keinen Fall verpassen.
von mehreren Autoren
Taylor Wessing ist Mitglied der German Datacenter Association
von Dr. Carsten Schulz und Dr. Sabine Kaben
Verabschiedung des Energieeffizienzgesetzes im Bundestag – Pflichten für Betreiber und Entwickler von Rechenzentren
Power Play: Renewable Energy Update
von mehreren Autoren