Greenwashing des Monats: Gore will eco-Domain

Wie Green Blog unter der kategorie Technologie berichtet, will Al Gore eine neue Domain, .eco , einführen. Unter der Domain sollen Privatpersonen und Firmen über ihre Umweltinitiativen berichten können. Man darf gespannt, wen man da dann alles findet: shell.eco, bp.eco, arcelormittal.eco, daimler.eco, bmw.eco,… ein bisschen .eco ist ja jeder, und wenn man nur das (und nichts anderes) unter einer .eco-Domain findet, dann leuchtet das grüne Mäntelchen nur um so hübscher durch den dunklen Wald des Kohlendioxids.

VDE: Kommunikationsnetzwerke sollen Energie sparen

Wie nachhaltige-it schon berichtete, hat der Der Verband der Elektrotechnik, Elektrnik und Informationstechnik e.V. (VDE) eine Studie publiziert, in der es um die Verbesserung der Energieeffizienz von Kommunikationsnetzen geht. Hier einige Details für die, die nicht dazu kommen, die Studie herunterzuladen:

Die Untersuchung geht davon aus, dass sogenannte e-Services etwa acht Prozent der global erzeugten elektrischen Leistung verbrauchen, das entspricht etwa 160 GWh (Gigawattstunden). 2020 sollen es schon 400 GWh sein. Pro Jahr steigt der Energieverbrauch in Kommunikationsnetzen um 16 bis 20 Prozent. Ein besonderer Motor von Verbrauchssteigerungen sind die Breitbandnetze.

Die wichtigsten Verbrauchstreiber in Deutschland sind Kupfer-Zugangsleitungen für DSL mit den dazu gehörigen drahtlosen Routern, die Basisstationen des Mobilfunknetzes, Hochgeschwindigkeits-Firmenlans. Knoten des Weitverkehrsnetzes verbrauchen anteilsmäßig nicht sher viel, haben aber wie Rechenzentren eine sehr hohe Energiedichte.

Ein wichtiger Ansatzpunkt zur Steigerung der Energieeffizienz ist laut VDE der verstärkte Einsatz optischer Technik, weil dadurch
– weniger Kühlbedarf anfällt
– mehr Bauteile auf kleinerer Fläche integriert werden können
– neue, energieeffizientere Netzstrukturen möglich werden.
Deshalb fordert der CVDE die Entwicklung eines paketorientierten, passiven optischen Transportnetzes mit bis zu 100 TBit/s pro Knoten und nur einem Hundertstel des üblichen Energieverbrauchs.

Hier dürfte aber das breitflächige Vorhandensein einer Kupfer-Infrastruktur sowie die immer noch hohen Kosten von Glasfaser hinderlich wirken.

Viel erhofft sich der VDE auch von dynamischen Aktivierungs- und Deaktivierungsmechanismen, also dem Abschalten momentan nicht benötigter Komponenten, Funktionen oder ganzer Geräte. Allerdings mahnt der Verband erhebliche Forschunganstrengungen an, bis das verwirklicht werden kann. So müsste das Zusammenwirken der Netzschichten und -funktionen komplett neu überdacht und geregelt werden. Hierdurch seien Einsparungen bis 60 Prozent möglich.

Außerdem könne man völlig neue Netzwerk-Paradigmen entwickeln, zum Beispiel Netze, die sich gegenseitig unterstützen und ihre Ressourcen wechselseitig optimal ausnutzen (kooperatives Networking), KI-Mechanismen nutzen (kognitives Networking), den Verbindungszustand der jeweiligen Netzverbindungen besser berücksichtigen (opportunistisches Networking) – dies besonders bei Netzen mit mobilen Teilnehmern – oder die Relevanz beziehungsweise Irrelevanz von Verzögerungen selbst einschätzen und Daten entsprechend behandeln können.

Bei der Verbesserung der Energieeffizienz von Mobilnetzen setzt der VDE auf
– Energieverbrauchsreduktion der Einzelgeräte (bei Basisstationen: selbstorganisierendes Management, teilweise An- oder Abschaltung, höhere Wirkungsgrade bei leistungsverstärkern)
– Energieeinsparung als generelles Optimierungskriterium
– Nutzung niedrigerer Frequenzbereiche, wo dies möglich ist
– möglichst kleinen Betriebsfrequenzen
– Protokolloptimierung in Hinblick auf die Energieeffizienz
– neue Antennentechnologien
– Integration von Ad-hoc-Netzen in die Infrastruktur
– selbstorganisierende Multi-Hop-Zugangsnetze
– Installation von Femtozellen für die Innenversorgung

Weiter fordert der VDE grundsätzlich andere Optimierungsziele beim Bauelementedesign. Es habe bisher eine einseitige Fixierung auf die „Auslegung der Systeme auf Siptzenbetrieb“ gegeben. Neue Technologien wie Carbon-Nanotubes, Nanowires und Molekularelektronik oder Quantenelemente könnten hier helfen. Auch auf Bauelementen sei ein dynamisches Energiemanagement möglich, Overheads müssten verringert werden. Lpgik solle möglichst fest verdrahtet werden, sofern Funktionen ausreichend stabil sind. Gerade in Netzwerkprozessoren könne man durch gezieltes Power-Management im SoC (System on a Chip) viel erreichen.

Am Ende seiner Untersuchung schließt der VDE den Kreis zwischen IT und Energietechnik: Netzwerke mit ihren im ganzen Land verteilten Stationen, Verteilern und Kabeln seien die „größten und mächtigsten … Systeme der modernen Industriegesellschaft“ könnten zur dezentralen Energiegewinnung und -einspeisung verwendet werden. Außerdem könne man die Abwärme der Geräte sinnvoll nutzen.

Kommentar: Es ist dankenswert, dass sich endlich eine der großen Industrievereinigung der Rolle der Netze beim Energieverbrauch annimmt, das Thema wurde schon zu lange ignoriert. Die vielen vorgeschlagenen Maßnahmen bedürfen allerdings erheblicher Forschungs- und Entwicklungsanstrengungen. Visionär und zukunftsweisend ist, dass der VDE die Vorstellungen der IT-Infrastrukturen als Bestandteil der zukünftigen Energieinfrastruktur (Stichwort Smart Grid) aufgreift und noch erweitert.

Summary: VDE analyzed future possibilities to reduce the energy use of public and private network infrastructures. Most important according to the study are the building of a passive optical 100 Tbit/s backbone infrastructure, a reworking of all interconnection and protocol mechanisms in local and global networks aiming to enable new mechanisms of energy saving (e.g. partial switchoff of components or switch-on on demand, cooperation instead of competition among different networks, AI use etc.) and a new philosophy in system and chip design that puts „energy efficiency“ first.

National Semiconductor goes Solar

Für Insider ist es nichts Neues: IT-Firmen versuchen, in die Erneuerbaren Energien einzusteigen. Intel zum Beispiel investiert massiv in Cleantech, Cisco versucht sich am Smart Grid. Ein weiteres Beispiel ist National Semiconductor. Der traditionelle Halbleiterspezialist offeriert jetzt Produkte (SolarMagic), die helfen, Photovoltaik-Anlagen zu optimieren, indem sie Leistungsverluste, die sich aus der Verschattung einzelner Module oder bei der Montage von Modulen unterschiedlicher Leistung in einer Reihe (sogenannte Strings) ergeben, abmildern. Die Logik dieses Vorgehens liegt auf der Hand: Gerade in der Photovoltaik braucht man Wissen, das im weitesten Sinn aus der Halbleiterei stammt, und mit der Handhabung von Strom kennen sich Halbleiterfirmen auch bestens aus. Man darf also gespannt sein, wer noch alles auf den fahrenden Zug aufspringt.

VDE/ITG fordert koordinierte Forschungsinitiative Green IT

Im Umfeld der Veröffentlichung seiner Studie zu Green IT fordert der VDE/ITG (VerbInformationstechnische Gesellschaft im Verband Elektrotechnik Elektronik Informationstechnik e.v.)ein koordiniertes und interdisziplinäres Forschungsprojekt zu Green IT. Tragfähige Lösungen lassen sich, so der VDE-ITG in einer Pressemitteilung nur unter Mitwirkung von „Netzwerkbetreibern, Systemherstellern und –integrationshäusern sowie Halbleiterkomponentenherstellern und durch die interdisziplinäre Zusammenarbeit von Computer-, Netzwerk-, Nachrichten- und Informationstechnikern, sowie Energie- und Gebäudeexperten“ erarbeiten. Die koordinierte Forschungsinitiative soll „Universitäten, Forschungsinstitute und die Industrie“ dabei unterstützen, neue Lösungen für energieeffiziente IKT zu entwickeln. Deutschland habe auf diesem Gebiet sehr gute Chancen.

Summary: VDE/ITG promotes coordinated research and development approach between scientific institutions, providers, IT companies, component and chip manufacturers as well as energy and facility management specialists to develope groundbreaking solutions for Green ITC.

Cool Computing: "In zwei Jahren erste Ergebnisse"

Vor kurzem wurde die Initiative Cool Silicon ins Leben gerufen. Ein Teilprojekt ist Cool Computing. Dabei geht es um energieeffizientere Rechner. nachhaltige-it sprach über Ziele und Arbeitsprogramm des Projekts mit mit Dr. Stephan Krüger, Globalfoundries, Koordinator Leitprojekt Cool Computing im Cluster Cool Silicon und Dr. Ralph Müller-Pfefferkorn, TU Dresden, Abteilungsleiter beim Zentrum für Informationsdienste des Hochleistungsrechenzentrums Dresden (ZIH), zuständig für Cool Computing.

nachhaltige-it: Herr Dr. Krüger, wie lange können wir den Stromverbrauch von Prozessoren noch senken, indem wir Leiterbahnen schmäler machen?

Krüger: Tatsächlich gibt es dafür Grenzen, doch die sind noch nicht erreicht. Deshalb sucht man ja auch ständig nach neuen Ideen wie Carbon-Nanotubes und FinFETs (3D- Feldeffekttransistoren). Es wird vieles ausprobiert, natürlich auch neue Materialien wie Seltene Erden, wobei hier nach meinem Ermessen wegen der geringen Materialbedarfe in den Chip-Herstellungsprozessen vorläufig nicht von Engpässen auszugehen ist.

nachhaltige-it: Wie sparsam kann ein Prozessor werden? Wo liegen derzeit praktisch die Grenzen?

Krüger: Einerseits kann man die Prozessoren natürlich einfach leistungsabhängig und damit energieeffizienter laufen lassen, wie das ja schon lange bei mobilen Anwendungen gemacht wird. Andererseits arbeiten wir bereits im Herstellungsprozess z.B. mit dem AMTC (Advanced Mask Techology Center) an verbesserten Maskentechnologien.

nachhaltige-it: Was bewirkt das und wie?

Krüger: Bei Maskendimensionen in den Bereichen von 45 Nanometer und kleiner, in denen wir uns jetzt bewegen, erhöht sich der Einfluss von Schwankungen der Strukturdimensionen stark: Je kleiner die Struktur, desto stärker wirkt sich ein Nanometer mehr oder weniger auf Geschwindigkeit und Energieverbrauch des Transistors aus. Um optimale Leistungen zu erzielen, müssen alle Transistoren ein möglichst gleiches Schaltverhalten haben. Wenn manche mehr oder manche weniger Energie zum Schalten benötigen, verschlechtert das die Werte erheblich und damit auch die Energieeffizienz. Das lässt sich durch neue Masken und neue Maskentechnologien beeinflussen, daran arbeiten wir.

Dr. Müller-Pfefferkorn: Wir setzen dagegen eher an der Systemebene an. Wir wollen, dass Betriebssysteme und Anwendungen energiesparsam laufen. Dabei befassen wir uns ausschließlich mit Hochleistungs-Umgebungen.

nachhaltige-it: Wie kann man die denn optimieren?

Dr. Müller-Pfefferkorn: Wenn wie beim Hochleistungsrechnen viele Prozessoren gleichzeitig an der Lösung einer Aufgabe beteiligt sind, dann ist das auch eine Kommunikationsaufgabe: die Prozessoren „reden“ ja miteinander um Daten auszutauschen. Zum Beispiel liegt für die Wettervorhersage ein Netz von Berechnungspunkten über Deutschland. Dieses wird auf viele miteinander verbundene Prozessoren verteilt. Wenn sich bei einer Berechnung auf einem Prozessor etwas verändert, dann müssen zumindest die benachbarten Prozessoren darauf reagieren, denn schliesslich hängt das Wetter an einem Berechnungpunkt vom Wetter am benachbarten Berechnungpunkt ab. Um Energie einzusparen, müssten die Prozessoren noch besser wissen, was ihre Nachbarn gerade tun, so dass sie sich ganz oder teilweise, wenn sie nicht benötigt werden, abschalten können.

nachhaltige-it: Wie viel lässt sich Ihrer Meinung nach mit solchen Technologien einsparen?

Dr. Müller-Pfefferkorn: Das kann man heute noch nicht konkret beziffern.

nachhaltige-it: An welchen Punkten setzen Sie an?

Dr. Müller-Pfefferkorn: Wir fangen beim Monitoring an und untersuchen die Schnittstellen des Betriebssystems zum Prozessor. Wo wird Strom verbraucht? Kann man den Energieverbrauch einzelner Teile des Prozessors auslesen? Und wenn ja, wie kann man ihn mit dem Programmablauf korrelieren? Hier fehlen für den Zugriff noch viele Schnittstellen.
Zweitens wollen wir den Scheduler, also den Aufgabenverteiler von Linux (Open-Source-Betriebssystem, Anm. d. Aut.) verändern, der ja die Rechenzeit verteilt. Denn wenn die Anwendung Daten von einem Prozessor zum anderen Prozessor übermittelt oder gerade auf Daten wartet und keine andere Anwendung gerade Rechenzeit braucht, dann kann ein Core möglicherweise auch schlafen. Dazu müsste gegebenenfalls die Anwendung selbst entsprechende Nachrichten erzeugen, die dann das Betriebssystem veranlassen, in bestimmten Situationen Hardware abzuschalten. Dazu wollen wir MPI, dass Message Passing Interface, dass als Standard für die parallele Programmierung gilt, so verändern, dass es den Prozessor zum Energiesparen aufrufen kann.

nachhaltige-it: Wann rechnen Sie mit ersten praktisch brauchbaren Ergebnissen?

Krüger: Wir denken, dass wir erste konkrete, umsetzbare Ergebnisse in zwei Jahren haben, also Transistoren, die in die neue Fertigungstechnologie zur Variationsanalyse und –begrenzung eingebettet sind. Am Ende der fünfjährigen Projektlaufzeit wollen wir einen Demonstrator vorweisen können.

Dr. Müller-Pfefferkorn: Wir sind da wahrscheinlich etwas schneller. In zwei Jahren hoffen wir, erste Versionen des angepassten MPI zu haben und außerdem sehr viel genauer den Energieverbrauch messen zu können.

Dr. Krüger: … wobei der Einbau entsprechender Schnittstellen in die Prozessoren, weil es sich um ein Hardwareproblem handelt, auch erheblich länger dauern kann. Die neue Qualität der Aufgaben, die sich bei der Energieoptimierung stellen, hat nämlich viele überrascht. Bisher waren ja alle vor allem darauf aus, die Prozessoren schneller zu machen.

nachhaltige-it: Fünf Jahre bis zu neuer, besserer Hardware – ist das nicht viel zu lang, wenn man bedenkt, dass sich innerhalb der nächsten 20 Jahre, so Klimaexperten, entscheiden wird, ob die Menschheit den Temperaturanstieg der Atmosphäre in halbwegs verträglichen Bahnen halten kann? Und würde mehr Geld helfen – beispielsweise in Größenordnung der Unsummen, die zur Bankenrettung mobilisiert wurden?

Krüger: Natürlich würde mehr Geld mehr bewegen. Aber unter den gegenwärtigen wirtschaftlichen Umständen sind wir schon sehr zufrieden, dass es überhaupt so viel öffentliche Förderung für diese Forschungsprojekte gibt. Und ohne Initiativen wie Cool Computing würde die Informations- und Kommunikationstechnologie schon sehr bald genau so viel Energie wie heute der Verkehr verbrauchen.

Summary: Cool Silicon is a German state funded R&D project to find innovative methods for building and using IT more energy efficient and envirunmentally friendly. One project within Cool Silicon is Cool Computing, which itself consists of two projects: on the one side, developing new, more exact mask technologies for chip production that allow smaller and more exact structures than today and second a project that tries to reduce energy use in High performance environments by reworking the software communication methods used in distributed multiprocessor environments of the High Performance Computing World.

Mitmachen bei der Online-Konferenz

Selbst aufmerksam geworden durch das E-Paper Glocalist möchte ich meine Leserschaft auf die Online-Klimakonferenz Klima 2009 hinweisen, die vom 2. bis zum 6. November im Internet stattfindet und der Vernetzung sowie dem Austausch neuester Forschungsergebnisse gilt. Sie wird von der Hochschule für angewandte Wissenschaft, Hamburg, und zahlreichen Partnern veranstaltet.

Gerade für Green-IT-Spezialisten sollte diese Konferenz wegen der konsequenten Online-Durchführung besonders interessant sein. Schließlich zeigt sie, dass man weltweite Treffen auch ohne Hunderte von Tonnen Kohlendioxid-Ausstoß und Jetlag durchführen kann. Sie ist damit ein wunderbares Beispiel für die 15 Prozent des weltweiten Kohlendioxid-Ausstoß, die optimierter IT-Einsatz weltweit nach Meinung von Experten einsparen können soll. Anmeldung supereinfach per Online-Registrierung.

nachhaltige-it wird über das Ereignis aktuell berichten.

Durch Clouds ins Grüne

Ein nicht mehr ganz neues Buzzword geht um in der IT-Industrie: die Cloud. Einmal abgesehen davon, dass sich hinter diesem schwammigen Gebilde noch jede Menge Unklarheiten verstecken und technisch noch längst nicht alles fest definiert ist, abgesehen davon, dass viele Firmen auch heute noch hoch und heilig schwören, sie würden „niemals, niemals“ ihre IT aus dem Haus geben (haben sie das nicht auch vom Mainframe behauptet?), ist Cloud, gerade aus der Perspektive von Green IT, möglicherweise eine ziemlich glänzende Idee.

Denn zu Ende gedacht (zugegeben, dazu gehört eine gewisse Phantasie und auch viel Optimismus) bedeutet Cloud nichts anderes als dass der Anwender nur noch ein relativ simples, nicht besonders starkes und daher auch nicht besonder stromzehrendes Endgerät benötigt statt alle drei Jahre einen PC, dessen Leistungsdaten bisher den Regeln des klassischen IT-Dreisprungs (Schneller-Höher-Weiter) folgten. Eine erste Vorschau auf das Zeitalter der Cloud geben uns die Netbooks: Selbst eher schwächlich, öffnen sie das Tor zu allem, was irgendwo im Web lagert.

Für Hersteller von IT-EQuipment ist das freilich eine schlechte Nachricht: Denn wenn keiner mehr starke PCs braucht außer den RZ-Betreibern und fanatischen Online-Spielern, dann brechen deren Umsätze weg. Wenn die Rechenleistung mehr und mehr zentralisiert wird, könnte es auch sein, dass man sich an den guten alten Mainframe erinnert oder völlig neue, superoptimierte (in jeder Hinsicht, auch beim Energieverbrauch), hochskalierbare Systeme erfindet. Ein Blick in den Speichermarkt und besonders auf Neulinge bei sogenannter Scalable Storage ist hier zu empfehlen.

Insgesamt wird man im Cloud-Zeitalter dauerhaft jedenfalls nicht so viel Hardware absetzen können wie bisher, schließlich ist die Auslastung der heutigen, verteilten Rechnerwelten noch meilenweit vom Optimum entfernt. Andere sagen, das wäüre Blödsinn, alles würde immer weiter wachsen, gerade in der IT. Mag sein, ewig aber nicht. Das einzige, was ewig wächst, ist Krebs, und der vernichtet seinen Wirt. Das mag ein sehr genereller Einwand sein, doch sei auch an Meister Kntradieff erinnert und an den ITK- und Automotive-Zyklus, der sich nun nach Meinung vieler seinem Ende nährt. Kontradieff-Zyklus zu Ende heißt immer: Goldene Zeiten vorbei, der Alltag fängt an, Optimierung ist gefragt.

Ist es schlimm, wenn manche IT-Firmen, wie vielerorts gerade im Jahr 2009 zu besichtigen, in die Krise geraten? Für die betroffenen Mitarbeiter natürlich. Ansonsten nein. Die Cleveren haben es schon verstanden und setzen auf Services, und um die Dummen ist es nicht schade.

Schließlich brauchen wir das Metall und die seltenen Erden, die ohne Cloud vielleicht in schlecht ausgelastete Rechner eingebaut werden würden, dringend woanders. Zum Beispiel, um sie zu intelligenten Energieversorgungssystemen, IT-basierenden Haushaltsgeräten mit Fernsteuerung und so weiter und so fort zu verbauen. Das ist allemal notwendiger als der Dritt-PC, auch wenn so mancher Marketing-Guru es nicht gern hört. Selbiges gilt übrigens auch für den Flachbildschirm mit meterlanger Diagonale, in dem jede Menge Material steckt, was anderswo nützlicher untergebracht wäre. Hat eigentlich schon mal jemand ausgerechnet, wie viel Mal für den Preis eines solchen wohnzimmerzerstörenden Boliden ins gemütliche Kino gehen und mit anderen ablachen könnte? Aber das nur am Rande.

Aus grüner Sicht ist es daher nur zu hoffen, dass die Cloud erfolgreich wird.

24. Oktober- Aktionstag: Bei 350 ist Schluss!

Warum 350??? 350 ppm ist die Grenze, bis zu der sich die Atmosphäre voraussichtlich mit Kohlendioxid anreichern darf, ohne dass unser Klima sich stärker als zwei Grad Celsius erwärmt, was bedeuten würde, dass sich die Auswirkungen des Klimawandels in Grenzen halten.
Alles, was mehr ist, kann, so die Wissenschaftler des IPCCC, zu verheerenden Folgen führen. Um dieses Ziel, 350 ppm, in die Gehirne möglichst vieler Zeitgenossen uind -innen zu brennen, gibt es den 350-Tag als Weltklima-Aktionstag, der von 350.org veranstaltet wird. Eine Karte der weltweit stattfindenden Events finden Sie hier. Vielleicht ist ja auch in Ihrer Nähe eines dabei! Wie wäre es sonst mit einer eigenen Idee? Vielleicht mit einem Brainstorming zur effektiven Energieeinsparung im Rechenzentrum, dessen Ergebnisse Sie am 24. ins Intranet stellen? Aber das ist natürlich nur eine kleine Anregung…

Neue Materialien von Green Grid

Der EMEA-Bereich des Hersteller- und Betreiberverbands Green Grid hat zwei neue Papers veröffentlicht.
Das eine ist ein Leitfaden, der europaweit die aktuelle und zukünftige Rechtslage bei Errichtung und Betrieb von Rechenzentrumsgebäuden darstellt, mit der sich Betreiber von Rechenzentren hinsichtlich der Klimarelevanz ihrer Aktivitäten auseinandersetzen müssen. Während im Zusammenhang mit Green IT sonst meist nur von technischen Maßnahmen im IT-Bereich wie Virtualisierung, Einhausung oder Ähnliches gesprochen wird, geht es hier um Gebäudestandards, gesetzlich festgelegte CO2-Minderungsverpflichtungen, Einspeisestandards etc., die jetzt und in Zukunft beachtet werden müssen. Das Paper listet umfassend die bisher existierenden Standards auf, benennt Sekundärquellen im Web und kann so jedem, der versucht, sich im Dschungel der Vorschriften zurecht zu finden, weiterhelfen. Außerdem benennt es IT-relevante Energiesparinitiativen im IT-Bereich wie Energy Star, Code of Conduct for Datacenters und andere, ebenfalls mit vielen Links zu Web-Fundstellen. Weiter gibt das Paper Empfehlungen für verschiedene Stakeholder-Gruppen wie IT-Anlagenbetreiber, Hersteller usw.
DIe zweite Neuerung ist ein frei zugängliches Online-Tool, mit dem sich errechnen lässt, ob sich ein Rechenzentrum für freie Kühlung eignet und welche Einsparungen beim Energiebedarf dadurch erreichbar wären. Hinterlegt sind Wetter- und Klimadaten von vielen europäischen Ländern.

Kommentar:Das Papier zur Rechtslage in Europa bietet umfassende Information und über die Nennung der Webfundstellen guten und umfangreichen Zugang zu Primärquellen. Bei der Bewertung der Dringlichkeit einzelner Maßnahmen allerdings merkt man ein wenig, dass die Technische Arbeitsgruppe Europa, ein Gremium mit etwa 20 Mitgliedern, besonders von britischen Interessen beeinflusst wird: Das wichtigste aktuelle Handlungsfeld sind danach nämlich schon heute gesetzliche CO2-Reduktionspflichten – hier hat Großbritannien ein Gesetz erlassen, das ab April 2010 in Kraft tritt und umgesetzt wird. Für Rechenzentren in anderen europäischen Ländern ist das zunächst irrelevant, auch wenn selbstverständlich auch dort irgendwann mit solchen Regulierungen zu rechnen ist. Dort dürften vorläufig die europäischen oder nationalen Gebäuderichtlinien und die Energiepreise den größten aktuellen Druck entfalten. Außerdem hätte man durchaus gerade größeren Betreibern empfehlen können, sich dem europäischen Code of Conduct anzuschließen und sich damit auf einen geordneten und überprüfbaren Entwicklungspfad in Richtung auf mehr Effizienz zu begeben. Der Code wird zwar erwähnt, aber nicht empfohlen, insgesamt bewertet das Paper die Bedeutung dieser Initiative sogar eher gering. Das ist schade, denn es fühlt sich meist besser an, etwas freiwillig zu tun als dazu gezwungen zu werden. Insgesamt ist das Papier aber sehr brauchbar. Das gilt auch für den Free-Cooling-Rechner.

Summary:
Green Grid published a paper about Leitfaden concerning climate effects and energy use in data centers. Focus is on regulation about carbon certificates and building standards. Chapters about the bigger European countries and their regulation included, many links to primary sources on the web, summary strongly focussed on British concerns (new law on CO2-certificates, effective from April 2010). Mentions also important initiatives like Energy Star or Code of Conduct. Also relatively new at Green Grid: a free Online-Tool for calculating possible individual savings when using free cooling.

Borderstep sucht White Papers

Das Borderstep-Institut sucht Whitepapers zu Themen rund um ICT und Nachhaltigkeit. Das Institut, das im Übrigen einen neuen Schwerpunkt zu Themen rund um Green IT einrichtet, möchte einige Sitzungen während der nächsten IEEE-Konferenz, die im August 2010 in Bremen stattfindet, gestalten. Interessenten können ihre VOrschläge an die auf der verlinkten Seite angegebenen Mails schicken.