Stromverbrauch von US-Rechenzentren stagniert

Nach einer neuen Studie des US-Energieministeriums und des Lawrence Berkeley Livermore Lab, auf die Datacentres.com verweist, steigt der Verbrauch US-amerikanischer Rechenzentren nicht mehr, sondern stagniert bei rund 2 Prozent des US-Stromverbrauchs oder 70 Milliarden Kilowattstunden. Die Studie macht laut Datacentres.com für den Effekt vor allem sehr effiziente Hyperscale-Rechenzentren verantwortlich, während viele Unternehmens-Datenzentren noch immer unwirtschaftlich arbeiten würden. <bessere Kühltechnik, bei geringer Belastung abschaltbare Server und Virtualisierung seien für das Erreichen des Plateaus verantwortlich.

Neue Heimat gefunden und gleich ein paar News

Nach mehrmonatigem Stillstand wegen Umzugs hat nachhaltige-it endlich eine neue Heimat gefunden und wird dort hoffentlich eine Weile bleiben. Zum Trost für die lange Abwesenheit gleich ein paar kleine News. So ist auf Datacenter-Insider ein Artikel erschienen, der beweist, dass man keine speziellen Hochleistungssysteme braucht, um gleichzeitig grün und schnell zu sein. Dazu reichen vielmehr auch Asus-Rechner mit schnellen Grafikkarten. Außerdem wurde an den Rechnern einiges abgeschaltet, und die Algorithmen wurden so umgestrickt, dass sie auch guten Gebrauch von den Ressourcen machen, ein gar nicht selbstverständlicher Zustand. Vielleicht hilft das Studium der dort genuttzen Konzepte den Programmierern allerorten, selbst wieder etwas sparsameren Code zu schreiben.

Außerdem arbeitet Green Grid an OSDA (Open Standard Datacenter Architecture) und sucht bei diesem Unterfangen, das es sogar ermöglichen soll, vollständig „grün“ gepowerte Rechenzentren zu bauen, vor allem aber, Zuverlässigkeitslevel und Stromversorgung schon bei der Planung auf einen Nenner zu bringen, noch Mitstreiter. Unter dem Link finden Sie einen Webcast, der alle nötigen Informationen liefert. Kleiner Nachteil: Wer mitmachen will muss TheGreenGrid beitreten.

Und schließlich stellt The Green Grid am 22. Juni in einem Webcast ein neues Tool zur exakten Messung der Kühlleistung vor. Anmeldung zu der kostenlosen Veranstaltung hier. Ich hoffe, dass ich Sie durch die News einigermaßen für die lange Warterei entschädigt habe!

Green grid: Fundgrube für interessante Papers

Immer wieder eine Fundgrube für praxisrelevante green-IT-Informationen ist die Website von The Green Grid. Eine Pressemeldung der Organisation weist explizit auf folgende Veröffentlichungen hin, die allesamt kostenlos erhältlich sind:
The Power Usage Effectiveness Estimator: Man gibt Daten über den geschätzten Stromverbrauch der Komponenten in einem Rechenzentrum ein und bekommt eine PUE™ für die Gesamtanlage errechnet. Die Ergebnisse der PUE™ Schätzung kann man als PDF- oder CSV-Dateien mit URL speichern.
– Das Data Center Maturity Models – DCMM. bietet Ziele und Richtungsvorgaben für den Ausbau von Stromversorgung, Kühlung, Rechnerumgebung, Speicher und Netzwerk. Man kann den „Reifegrad“ seines RZ bestimmen, wobei hier auch z.B. die Energieeffizienz einbezogen wird.
– Ein Bericht zeigt, welche rechtlichen Vorgaben die unterschiedlichen Länder für rechenzentren machen oder schon gemacht haben.
– Eine weltweite Kühlungskarte ermöglicht es einzuschätzen, wo man mit Luftkühlung arbeiten kann und wo nicht.
– Ein http://www.thegreengrid.org/en/Global/Content/white-papers/WP50-DataCenterEfficiencyandITEquipmentReliabilityatWiderOperatingTemperatureandHumidityRanges zeigt, wie man die Temperatur im Rechenzentrum erhöhen kann, ohne gleichzeitig Sicherheit und Zuverlässigkeit aufs Spiel zu setzen.
– Und wer gern den Elektroschrott besser in den Griff kriegen will, erhält vielleicht einen Ansporn durch die Electronics Disposal Efficiency (EDE)-Metrik entwickelt, die Fortschritte bei den Entsorgungsprozessen messbar macht.

Korrektur zur Meldung über Cool Reader

Auch nachhaltige IT schreibt manchmal aufgrund von Missverständnissen Unsinn. So bei der Meldung zum Cool Reader. Dort hieß es:

„Auch die Mobilfunktechnik selbst muss verändert werden, um anschließend mit solchen Services optimal zu kooperieren. Denn bisher galt die Regel, dass Bursts möglichst kurz sein und hohe Datenraten transportieren sollten. „Wir haben aber herausgefunden, dass energetisch das Gegenteil, nämlich lange Bursts mit niedrigen Datenraten, optimal sind“, erklärt Fettweis. Der Engpass wandert in diesem Fall vom Leistungsverstärker weiter zu den übrigen Bauteilen, insbesondere dem Transceiver. Der neigt, wenn man ihn so betreibt, zu Nichtlinearitäten und Phasenrauschen.“

Richtig ist mehr oder weniger das Gegenteil: In konventionellen Mobilfunk-Architekturen sind die Distanzen zwischen Basis und Verbraucher manchmal sehr groß. Unter solchen Konditionen empfehlen sich lange Bursts mit kleinen Datenraten. Über die Effizienz entscheidet der Leistungsverstärker.
In städtischen Gebieten sind die Distanzen erheblich kürzer, was bedeutet, dass man kurze Bursts mit hohen Datenraten schickt, um das dauernde energiefressende Ein- und Ausschalten der Hochfrequenzbauteile zu verhindern. Hier treten dann „Schmutzeffekte“ bei der Funkübertragung wie Nichtlinearitäten und Phasenrauschen auf. Der Transceiver, der außerhalb der Leistungsverstärker liegt, wird entscheidend. Eigentlich brauchte man wegen der hohen Datenraten nun wiederum einen Transceiver mit besonders guter Linearität, der aber wiederum viel Energie verbraucht. Deshalb arbeitet das Projekt Cool Reader an speziellen Signalverarbeitungsalgorithmen, die die zu erwartenden Verzerrungen kompensieren.

Sorry, liebe Leser, kommt hoffentlich nicht so bald wieder vor.

Green-Touch–Konsortium lässt das Internet ergrünen

Stromsparen ist derzeit eines der großen Themen der IT. Wie zum Beispiel VDE/ITG in einer Studie zur Stromeffizienz von Telekommunikationsnetzen feststellte, ist hier noch viel zu tun. Jetzt hat sich mit Green Touch eine Initiative gebildet, die sich zum Ziel gesetzt hat, das Internet 1000mal effizienter zu machen als bisher. Die Führung haben die für ihren Erfindungsreichtum bekannten Bell Labs (ganz früher AT&T, dann Lucent, heute Alcatel-Lucent) übernommen, und auch das Elektroniklabor des MIT (Massachusetts Institute of Technology), ist mit von der Partie, genau wie führende Forschungsinstitutionen aus Frankreich und Australien. Einen deutschen Konsortiumsteilnehmer sucht man leider bisher vergebens, aber vielleicht wird das ja noch. Die hochkarätige Besetzung macht Hoffnung, dass hier wirklich Ergebnisse erzeugt werden. Außerdem sind viele große TK-Unternehmen mit von der Partie. Die Teilnehmer haben sich nichts weniger zum Ziel gesetzt, als das Internet im Grunde neu zu erfinden. Theoretische Grundlage sind dabei die Shannonschen Gesetze der Informationsübertragung.

Summary: Leading scientific institutions, namely Bell Labs and MIT, have founded Green Touch, a consortium that wants to raise the energy efficiency of the internet about 1000fold.

Neue Produkte im Dezember (Quelle: Green Computing Portal)

Und hier zwei erwähnenswerte Produkte und eine News, die das Green Computing Portal im Dezember vorstellte:
– Die Geräteserie EcoView von Eizo verwendet verstärkt Stromspar-Modi in ihren Monitoren. Diese neue Bildschirmgeneration ist darauf ausgelegt, die Monitorhelligkeit an die Umgebungshelligkeit anzupassen. Sobald sich der User von dem Monitor entfernt, wird automatisch in den Stromsparmodus umgeschaltet.
Bei einigen EcoView-Modelle werden bei der Hintergrundbeleuchtung weiße, energiesparende LEDs verwendet. Eizo erklärt hierzu, das ein EcoView-Bildschirm in Jahr durchschnittlich ca. 28 Kilo CO² einsparen würde. Bei fünf Bildschirmen wären das in fünf Jahren schon 1,4 Tonnen CO².
Endverbraucher kümmern sich zu wenig um den Energieverbrauch ihrer Monitore. Allein in Deutschland arbeiten Millionen von Monitoren mit zu hoch eingestellter Helligkeit. Hier ist ein hohes Einspar-Potenziel möglich.
Pro Monitor ist es möglich, innerhalb von fünf Jahren bis zu 135 kg CO², 250 kWh Strom und dadurch 47,50 Euro einzusparen.

– Bereits letzten Monat zeigte VIA die neuen Nano 3000 Prozessoren. Jetzt wurde passend dazu der neue VN1000 vorgestellt, der “energieeffizienteste DirectX 10.1 Chipsatz”. VIA VN1000 und VT8261 haben zusammen eine TDP von nur 12 Watt. Wenn da nur die Bereits letzten Monat zeigte VIA die neuen Nano 3000 Prozessoren. Jetzt wurde passend dazu der neue VN1000 vorgestellt, der “energieeffizienteste DirectX 10.1 Chipsatz”. VIA VN1000 und VT8261 haben zusammen eine TDP von nur 12 Watt. Wenn da nur die TDP des Nano nicht wäre.
Im VIA VN1000 ist als Grafikeinheit die VIA Chrome 520 IGP integriert, die zusammen mit der ChromotionHD 2.0 Engin flüssige Wiedergabe von HD-Videos (BluRay, H.264, WM9 sowie VC1) ermöglichen soll. Dank DirectX 10.1 soll die IGP ideal für Windows 7 geeignet sein (obwohl dafür eigentlich ja DirectX 11 besser geeignet wäre) und unterstützt das Shader Model 4, OpenGL 3.0 und OpenCL 1.0.
Der VN1000 unterstützt weiterhin VGA, LVDS, DVI, Display Port und HDMI-Anschlüsse, DDR3 RAM und einen PCIe 8x und bis zu vier PCIe 1x Slots. Die passende Southbridge, die VIA VT8261, bringt HD-Audio, 12 USB 2.0 Anschlüsse, vier SATA sowie einen IDE Kanal.
Das alles bei einer TDP von zusammen nur 12 Watt klingt sehr gut. Das “Problem” sind die neuen Nano CPUs. Die 3000er Reihe soll zwar deutlich schneller als Intels Atom-CPUs und rund 20 Prozent schneller und bis zu 20 Prozent sparsamer sein, als die Vorgänger Nanos, wir reden hier aber immer noch über TDPs um die 20 Watt für den Nano L3050 (TDPs der anderen neuen Nanos sind noch nicht bekannt).erlustleistung des Nano nicht wäre.
Im VIA VN1000 ist als Grafikeinheit die VIA Chrome 520 IGP integriert, die zusammen mit der ChromotionHD 2.0 Engin flüssige Wiedergabe von HD-Videos (BluRay, H.264, WM9 sowie VC1) ermöglichen soll. Dank DirectX 10.1 soll die IGP ideal für Windows 7 geeignet sein (obwohl dafür eigentlich ja DirectX 11 besser geeignet wäre) und unterstützt das Shader Model 4, OpenGL 3.0 und OpenCL 1.0.
Der VN1000 unterstützt weiterhin VGA, LVDS, DVI, Display Port und HDMI-Anschlüsse, DDR3 RAM und einen PCIe 8x und bis zu vier PCIe 1x Slots. Die passende Southbridge, die VIA VT8261, bringt HD-Audio, 12 USB 2.0 Anschlüsse, vier SATA sowie einen IDE Kanal.
Das alles bei einer Verlustleistung von zusammen nur 12 Watt klingt sehr gut. Das “Problem” sind die neuen Nano CPUs. Die 3000er Reihe soll zwar deutlich schneller als Intels Atom-CPUs und rund 20 Prozent schneller und bis zu 20 Prozent sparsamer sein, als die Vorgänger Nanos, wir reden hier aber immer noch über Verlustleistungen um die 20 Watt für den Nano L3050 (Verlustleistung der anderen neuen Nanos sind noch nicht bekannt).

– Die 80 Plus Zertifikate sind um ein neues Siegel erweitert worden: 80 Plus Platinum kann Netzteilen verliehen werden, die einen Wirkungsgrad von mindestens 90 Prozent aufweisen. HP zeigt bereits ein solches Netzteil, das allerdings für den Einsatz in Servern gedacht ist.
Hohe Wirkungsgrade werden meist auch erst bei hoher Leistung erreicht. Da wundert es auch nicht, dass 80 Plus Gold, bis jetzt die höchste Auszeichnung, vorwiegend an Netzteile verliehen wurde, die mindestens um die 1000 Watt Leistung liefern können. Was zu Hause meist viel zu viel ist, ist im Server-Bereich normal, da dort an einem Netzteil gleich mehrere Rechner hängen. Und auf diesen Bereich zielt das neue Platinum-Siegel mit noch höheren Anforderungen ab, denn hier ist das Einsparpotential durch effiziente Netzteile am höchsten.
Die Anforderungen für 80 Plus Platinum sind entsprechend hoch: Gefordert sind Wirkungsgrade von mindestens 90 Prozent bei 20 Prozent Last, 94 Prozent bei 50 Prozent Last und 91 Prozent bei 100 Prozent Last. Erster Anbieter eines solchen Server-Netzteils wird HP sein. Mit Platinum-zertifizierten Netzteilen für Endkunden wird aber bereits im Laufe des nächsten Jahres gerechnet.

Wir danken dem Green Computing Portal für die gute Zusammenarbeit und freuen uns auf ein genauso produktives Jahr 2010!

Neue Infos des EU-Code of Conduct auf http://tinyurl.com/ydvcmkf

Aktuelle Dokumente zum europäischen Code of Conduct für Datenzentren stehen auf der Website des Projekts. Darunter eine Liste der teilnehmenden Datenzentren – es sind bisher nur 18!? Jetzt aber dalli, liebe RZ-Gemeinde. Ein kommerzielles Zertifikat für Ihr Rechenzentrum kostet nämlich locker mal ein paar tausend Euro, während der Code of Conduct nur das kostet, was anschließend auch Energie einspart. Die Dokumente stehen auf folgender Website: http://tinyurl.com/ydvcmkf