Gesunkener Stromverbrauch

Energieeffizienz steht ganz oben auf der Prioritätenliste, auch weil sie gesellschaftspolitisch ein sehr relevantes Thema darstellt. Energieeffizienz ist extrem vielschichtig und reicht von optimierten Betriebsmodellen über stromsparende Kühlungsvarianten bis hin zur Verwendung effizienter Komponenten in Server-Netzteilen. Rechenzentrumsbetreiber wissen dies offensichtlich: Nach dem CDW Energy Efficient IT Report 2012 haben 46 Prozent der Studienteilnehmer auf Low-Power-Prozessoren umgerüstet, 44 Prozent haben ihre Altgeräte durch Energy-Star-kompatible Geräte ersetzt, und 31 Prozent haben ihr Netzwerkequipment auf energieeffiziente Komponenten umgestellt. Für 43 Prozent der befragten IT-Verantwortlichen sind Energieeinsparungen ein wesentlicher Treiber für Konsolidierungsinitiativen im Rechenzentrum. Noch vor zwei Jahren waren es nur 34 Prozent.

Solche Bestrebungen zeigen Wirkung. Während Analysten noch vor einigen Jahren einen stark ansteigenden Stromverbrauch für Rechenzentren erwarteten, sieht die Situation mittlerweile anders aus. Nach einer Berechnung des Borderstep-Instituts aus dem Mai 2012 lag der Stromverbrauch von Servern und Rechenzentren in Deutschland im Jahr 2011 bei 9,7 Terawattstunden (TWh). Damit liegt er um rund vier Prozent unter dem Strombedarf des Jahres 2008 – trotz steigender Zahl der installierten Server. Der Stromverbrauch liegt um etwa 1,4 TWh unter dem Verbrauch, mit dem im „Business as usual“-Szenario gerechnet worden war.

 

PUE zeigt Einsparerfolge

Die Fortschritte in der Effizienz lassen sich auch am Power-Usage-Effectiveness-Wert (PUE) ablesen. In ihrem Report zur Energieeffizienz von Rechenzentren aus dem Jahr 2007 erklärte die Environmental Protection Agency (EPA), dass 2011 mit einem durchschnittlichen PUE von 1,9 zu rechnen war. Best-Practice-Anwender sollten einen PUE von 1,3 erreichen und absolute State of the Art war 2011 ein PUE von 1,2. Doch beim letztjährigen European Code of Conduct for Datacentres erhielt Google einen Preis für das neue Rechenzentrum in Belgien, das mit einem PUE von nur 1,1 auskommt. Rittal garantiert für sein neues modulares standardisiertes Rechenzentrum Rimatrix S einen PUE von bis zu 1,15, wenn die Server-Module zusammen mit einer hauseigenen Kühleinheit arbeiten.

Die Verbesserungen finden auf allen Ebenen statt, von der Mikroarchitektur der Server bis hin zur Standortwahl der Rechenzentren selbst. So nutzte ein 1-GByte-DDR2-Arbeitsspeicher mit 60nm-Strukturen bis zu 102 Watt Leistung, während aktuelles DDR3 RAM mit 4 GByte und 30nm-Strukturen nur noch 14 Watt beansprucht. Das Gleiche gilt für die Netzteile, bei denen Anwender immer häufiger auf 80+-Geräte achten, die – abhängig von der Güte – einen Wirkungsgrad zwischen 80 und 92 Prozent aufweisen können.

 

Weg vom 19-Zoll-Format?

Wenn man schon die Netzteile verändert, warum dann nicht gleich die Server selbst? Große Server-Hersteller und potente Anwender wie Facebook experimentieren damit, Server aus dem klassischen 19-Zoll-Format herauszulösen. Ein Weg dahin ist, Motherboards komplett zu kapseln und von einem nicht-leitenden Kühlmittel umfließen zu lassen. CPU, RAM, Netzwerk- und Grafikchips geben ihre Wärme direkt an das Kühlmittel ab, zwei Ventile am Gehäuse sorgen für Zu- und Abfluss der Flüssigkeit. Speziell gestaltete Racks nehmen die Module auf und stellen die elektrischen und hydraulischen Verbindungen sicher. Radikale Konzepte wie dieses benötigen jedoch standardisierte, homogene Umgebungen mit extrem hoher Skalierung, damit sich die Kosten in einem überschaubaren Zeitrahmen amortisieren.

Das Open-Compute-Projekt setzt ebenfalls am 19-Zoll-Format an. Dabei kommen Module mit 21 Zoll Breite zum Einsatz, und die größere Fläche dient dazu, die Server thermisch besser zu designen. Das Außenmaß der Schränke bleibt dennoch identisch mit dem von 19-Zoll-Racks, sodass im Rechenzentrum kein zusätzlicher Platz eingeplant werden muss. Darüber hinaus adressiert das Open-Compute-Projekt, übrigens von Facebook initiiert, die Spannungsversorgung mit einem 12,5V-Netzteil und 277V-Eingangsspannung sowie einem Eingang für ein 48V-Batterie-Backup.

 

 

Klimawandel bei der Wohlfühltemperatur

Auch ohne solche drastischen Änderungen an der Computerhardware lassen sich die Rahmenbedingungen für den Betrieb deutlich verbessern, vor allem bei aktueller Hardware. Wichtigste Stellschraube ist die Temperatur der zugeführten Luft. Während dabei noch vor wenigen Jahren Werte um die 20 °C Standard waren, sind heute bis zu 40 °C anzutreffen. Die American Society of Heating, Refrigerating and Air-Conditioning Engineers (Ashrae) hat die zulässigen Eckdaten in ihren Richtlinien für den Betrieb von Rechenzentren im Jahr 2008 erheblich gelockert. Sowohl die Bandbreite der Temperaturen als auch der Luftfeuchte ist gewachsen, was viele Firmen bereitwillig ausnutzen. Hersteller wie Dell oder SGI haben die Garantiebereiche ihrer Server an die veränderten Vorgaben angepasst, sodass Betreiber die höheren Temperaturen in den Rechenzentren nutzen dürfen.

Ein breites Feuchtigkeits- und Temperaturspektrum erlaubt die häufigere Verwendung von Außenluft zur Kühlung, die so genannte freie Kühlung, entweder indirekt mit Wasser als Transportmedium oder direkt über gefilterte Außenluft als einziges Medium. Mit den angepassten Ashrae-Angaben aus dem Jahr 2008 ist in Mittel und Nordeuropa fast das ganze Jahr über freie Kühlung möglich, ohne – bis auf wenige Tage im Jahr – einen zusätzlichen und stromintensiven Chiller nutzen zu müssen.

 

Dem Strom hinterher

Wenn es günstiger ist, die Außentemperatur zur Kühlung heranzuziehen, dann ist es folglich am sinnvollsten, ein Rechenzentrum dort zu betreiben, wo es beständig kühle Luft gibt. In den skandinavischen Ländern entstehen deshalb zurzeit zahlreiche neue große Rechenzentren. Facebook hat gerade eine Anlage in Schweden eröffnet, die komplett mit Freikühlung auskommt. Google kühlt seine Server in Finnland mit Meerwasser. Im Fall von Facebooks schwedischer Anlage in Luleå spielt auch der dort verfügbare günstige Ökostrom eine Rolle. Dies wird auch in Deutschland die Rechenzentrumswelt verändern.

 

Standardisierung statt Detailaufwand

Die Frage, aus welchen Komponenten ein möglichst effizientes Rechenzentrum aufgebaut sein muss, beschäftigt die Entwickler schon lange. Große Anwender wie Microsoft glauben, dass die Standardisierung eine entscheidende Maßnahme ist, um Kosten und Effizienz in den Griff zu bekommen. Die neuen Rechenzentren des Softwaregiganten nutzen eine Tier-1-Infrastruktur, also ein RZ mit minimalen Klima-, Redundanz- und Sicherheitsvorkehrungen. Die Redundanz entsteht auf Applikationsebene. Gemeinsame Massenspeicher, virtualisierte Server und die entsprechende Hochverfügbarkeits-Software sorgen im Ernstfall dafür, dass sich Prozesse und Daten von einem defekten Gerät auf ein Ersatzsystem verschieben lassen.

 

Verbrauchskontrolle wird Pflicht

Was Rechenzentrumsbetreiber in den letzten Jahren häufig vernachlässigt haben, wird in Zukunft unumgänglich sein: Jederzeit genaue Daten über ihr Rechenzentrum zu besitzen und auszuwerten. Eine Online-Befragung des Branchenverbands Eco e.V. ergab, dass nur 33 Prozent aller Rechenzentrumsbetreiber über Personal verfügten, das sich mit dem Thema Energieeffizienz beschäftigte, und 37,5 Prozent der Rechenzentrumsbetreiber kamen ohne einen Ansprechpartner aus, der die Stromkosten für die IT im Rechenzentrum verantwortet.

 

Submit to DeliciousSubmit to DiggSubmit to FacebookSubmit to Google PlusSubmit to StumbleuponSubmit to TechnoratiSubmit to TwitterSubmit to LinkedIn