Fernuni-Forscher treten in der Welt der Computer auf die Energiebremse

Prof. Dr. Wolfram Schiffmann, vom Institut für Computer-Architektur beschäftigt sich an der Fernuniversität mit Green Computing.
Prof. Dr. Wolfram Schiffmann, vom Institut für Computer-Architektur beschäftigt sich an der Fernuniversität mit Green Computing.
Foto: Jens Stubbe
  • Forscher an der Hagener Fernuniversität beschäftigt die Energie-Effizienz von Computern
  • Die Rechner-Systeme verschlingen weltweit immer größere Energie-Kapazitäten
  • Durch intelligente Lösungen lässt sich der Verbrauch um 28 Prozent reduzieren

Hagen..  Es ist so ähnlich wie die Ampelfrage: Lohnt es sich, den Motor bei Rot auszuschalten oder nicht? Es geht um Effizienz. Nicht an einem Pkw. Nicht an einem Rechner. Sondern an ganz vielen. Die Wissenschaftler, die sich damit beschäftigen, sitzen nicht im Silicon Valley, sondern in Hagen. In der Fernuniversität am Lehrstuhl für Rechnerarchitektur der Fakultät für Mathematik und Informatik.

„Zwei Prozent des weltweiten Energiebedarfs entstehen schon jetzt in der IT-Branche“, sagt Professor Dr.-Ing. Wolfram Schiffmann. „Rechner verschlingen weltweit immer größere Mengen an Energie. Und die Rechenzentren, die wir brauchen, werden mehr und größer.“

Cloud-Computing

Cloud-Computing ist ein Stichwort. Das bedeutet, dass Nutzer auf der ganzen Welt ihre Daten nicht mehr auf der eigenen Festplatte, sondern auf Servern, die irgendwo auf der Welt stehen, ablegen und gegebenenfalls dort auch verarbeiten können. Der Vorteil: Ganz gleich, wo und an welchem Rechner sie sich befinden – sie können auf die Daten-Wolken zugreifen. „Hinzu kommen große Anbieter wie Amazon, Google oder Facebook“, sagt Schiffmann, „die bauen ihre Rechenzentren extra an Flüssen, damit sie eine kostengünstige Kühlung gewährleisten können.“

Grenzen der Physik

Was nötig ist, wenn man bedenkt, dass auf einem ein Quadratzentimeter großen Chip die Leistungsdichte so groß werden kann wie auf einer Herdplatte. „Das lässt sich nicht mehr steigern“, sagt Schiffmann mit Blick auf eine physikalische Grenze, „sonst werden die Chips durch die Hitze zerstört. Also muss man zur Steigerung der Rechenleistung Chips parallel schalten. Und das frisst Energie.“

Die Herausforderung, der sich die Hagener Wissenschaftler um Prof. Wolfram Schiffmann angenommen haben: Rechnerverbünde so zu organisieren, dass sie möglichst wenig Energie verbrauchen. „Ein Weg ist es, vorhandene Rechenlasten möglichst gut auf Knoten zu verteilen“, sagt Schiffmann, „denn wenn ein Rechner zwar angeschaltet ist, aber nichts zu tun hat, dann ist damit ja keinem geholfen.“

Ein zweiter Ansatz (Stichwort Ampelfrage): Wann lohnt es sich, Server herunterzufahren? Jeder Knoten, so Schiffmann, habe einen Energie-Effizienzpunkt, den es möglichst genau auszunutzen gelte. Sei die Last insgesamt zu gering, so gelte es, in einen von mehreren möglichen Energiesparmodi zu wechseln. „Damit hat sich bei uns Dr.-Ing. Jörg Lenhardt beschäftigt“, sagt Schiffmann. „In seiner Dissertation geht es um Strategien, wie und wann man Server hoch- oder runterfährt. Basis dafür sind möglichst präzise Voraussagen, wann eine bestimmte Kapazität benötigt wird. Damit setzen wir uns in aktuellen Projekten auseinander, die wir momentan in Japan vorstellen.“

28 Prozent Einsparung

Auf diese Art lässt sich – so die Ergebnisse der Hagener – der Energieverbrauch um bis zu 28 Prozent reduzieren. „Es gibt große Unternehmen, die darauf noch keinen Wert legen und ihre Server einfach durchlaufen lassen“, sagt Wolfram Schiffmann. „Aber ich denke, dass ein effizienter Einsatz von Servern immer weiter an Bedeutung gewinnen wird und die Einsicht, dass solche Maßnahmen Sinn machen, wird wachsen. Letztlich geht es darum, unsere Umwelt zu schonen.“

Zumindest der Professor geht mit gutem Beispiel voran. Während des Interviews ist der Laptop heruntergefahren, und der angeschlossene Bildschirm schlummert vor sich hin.

EURE FAVORITEN