Deutsch-amerikanische Handelskammer: Exportschlager deutsche Green IT?

Die deutsch-amerikanische Handelskammer wittert in deutschen Energieeffizienz- und Green-IT-Produkten Exportschlager in die USA. Dort gebe es rund drei Millionen Rechenzentren, die von solchen Technologien profitieren könnten. Deshalb organisiert die Kammer Anfang November (2. bis 6. November 2015) eine Reise an die Westküste nach San Francisco. Kalifornien hat mit 800 RZ eine sehr hohe Rechenzentrumsdichte, aber auch einen sehr hohen Energie- und Wasserverbrauch durch Rechenzentren, was Schwierigkeiten macht. Fujitsu beispielsweise verzeichnete erst kürzlich eine RZ-Ausfall wegen Stromausfall und auch ihr Wasserverbrauch kommt in der knochentrockenen Region immer mehr ins Gerede. An der Reise teilnehmen können Unternehmen, die ihre Produkte drüben präsentieren wollen. Die Anmeldeunterlagen sind hier zu finden, nähere Infos hier. Bis zum 2. Oktober müssen die Anmeldungen eingegangen sein.

Smartgrid-Datenmassen handhaben: USA macht Versuche

Wie der Smartgrid-Newsletter in seiner aktuellen Ausgabe berichtet, läuft in den USA ein großangelegter Feldversuch, bei dem algorithmen entstehen sollen, die aus den mittels weiträumg verteilter Amplituden-Messystemen (Phasor Measurement Units, PMU) ermittelten Daten für die Steuerung des Netzes brauchbare Informationen generieren sollen. Unter dem Projektnamen Synchrophasor überlegt die North American Synchrophasor Initiative (NASPI) gegenwärtig, welche Formen der Mustererkennung zu eben solchen Informationen führen könnten – etwa darüber, wann man wie viele Elektrofahrzeuge ans Netz anschließen darf oder muss, um ein Ungleichgewicht auszubalancieren. Dabei müssen, so der Artikel, dezentrale Herangehensweisen die derzeit zentral ausgelegte Steuerung ersetzen, worin eine wesentliche Herausforderung liegt. Heute werden die Datenströme aus allen dezentralen PMUs zunächst zentral aggregiert, um dann daraus dynamische Modelle zu bauen, die für jeden verteilten Punkt im System individuell valide sind und diese dann anzuwenden, um die Oszillationen im Netz zu berechnen.
In Zukunft, so der Bericht, seien es einfach zu viele Daten, um alle in die zentrale Aggregation einzubeziehen, Vielmehr müsse die Aggregation teilweise dezentral erfolgen, um dann ihre Ergebnisse über Netzverbindungen an die zentrale zu schicken und dort in die finale Aggregation einzubeziehen. Unklar ist jedoch, wie sich auf diese Weise ausreichend genaue Ergebnisse berechnen lassen. Daran wird im Projekt gearbeitet.
Der Artikel berichtet über weitere Beispiele aus dem Arbeitsvolumen des Projekts und der Autor ist optimistisch, dass das, zusammen mit den Standardisierungsanstrengungen der IEEE, bald zu Ergebnissen führen wird.