Energie für neue Ideen Detail - Computerwelt

Computerwelt: Aktuelle IT-News Österreich


04.03.2009 EMC/Rudolf Felser

Energie für neue Ideen

Die anhaltende Debatte um Grüne IT fokussiert oft einseitig auf die Energieeffizienz technischer Systeme.

Die anhaltende Debatte um "Grüne IT" fokussiert oft einseitig auf die Energieeffizienz technischer Systeme. Verdrängt wird dabei allzu leicht, dass der wünschenswerte Umstieg auf stromsparendes und recyclefähiges Equipment allein noch keine Nachhaltigkeit garantiert. Explosionsartig steigende Datenmengen erzwingen Kapazitätssteigerungen, die alle so erzielten Einsparungen in der Energiebilanz schnell wieder kompensieren. Auf Dauer lässt sich der wachsende Volt- und Watt-Appetit von Server- und Speicherlandschaften deshalb nur durch effizientere Prozesse zügeln. Wer von grüner IT redet, sollte daher das "I" in IT stärker als bisher betonen. Denn echte Nachhaltigkeit im Sinne nachhaltigen Wirtschaftens setzt in erster Linie eines voraus: einen intelligenteren Umgang mit Informationen. Das führt zu effizienten IT-Architekturen, die per se auch energieeffizienter sind. Anders als oft zu hören, sind ökologische und ökonomische Interessen folglich kein Gegensatz, sondern zwei Seiten derselben Medaille.

Der aktuelle Green-IT-Hype geht meist an einer Tatsache vorbei: der tsunamigleichen Datenwelle, welche die Rechenzentren umspült. Analysten beeilen sich, die erwarteten Pegelstände der globalen Informationsflut weiter nach oben zu korrigieren. Im letzten Frühjahr hat beispielsweise IDC eine nachgebesserte Prognose für die nächsten drei Jahre vorgelegt. Der Grund: Mit 281 Exabytes hatte die weltweite Datenmenge im vergangenen Jahr das ursprünglich vorhergesagte Volumen um mehr als zehn Prozent überschritten. Bis 2011, so die Marktforscher von IDC, wird dieser Wert auf 1.800 Exabytes emporschnellen - zehnmal so viel wie 2006 und weit mehr als das Speichervermögen von 400 Milliarden DVDs.

WEB 2.0 UND DIGITALER SCHATTEN Von einem "digitalen Schatten" sprechen die Autoren der IDC-Studie und veranschaulichen damit die passive Datenspur, die jeder Einzelne im Alltag heute hinterlässt: Bezahlungen mit der Kreditkarte, Mobilfunktelefonate, Recherchen bei Google und Co., "Einchecken" per Versicherungskarte in der Hausarzt- oder Zahnarztpraxis sowie die meist unbemerkt installierten Videoüberwachungskameras an Geldautomaten, auf Bahnhöfen oder öffentlichen Plätzen. Dieser Datenschatten eines Menschen ist im Durchschnitt doppelt so groß wie die aktiv produzierte Datenmenge, also digitale Fotos, Webkamera- und Camcorder-Aufzeichnungen, E-Mails, Chatroom-, Forum- oder Blog-Beiträge und so weiter. Statistisch gesehen hinterließ jeder Erdeinwohner 2007 einen digitalen Fußabdruck von gut 45 Gigabyte. Vor allem Individuen beschleunigen die Ausbreitung des digitalen Datenuniversums. Nur 30 Prozent Wachstum gehen auf Systeme in Wirtschaft, Wissenschaft, Militär und öffentlicher Verwaltung zurück. Aber auch dort sind Rechenzentren künftig nicht nur mit einer zahlenmäßig explodierenden Datenmenge, sondern auch mit einer höheren Vielfalt unterschiedlicher Informationstypen konfrontiert, denn der Web-2.0-Trend hat mittlerweile auch Unternehmen und Behörden erfasst. So tragen beispielsweise projektbezogene Wikis, Firmen- oder Themen-Blogs, Unified Communications und multimediale Web-Plattformen beträchtlich zum Datenwachstum bei.

DAS KREUZ MIT DEN EFFIZIENZKENNZAHLEN Vor diesem Hintergrund verlieren manche, mit lautem Marketing-Getöse propagierten Kennzahlen zur IT-Energieeffizienz ihren Glanz. Zum Beispiel die viel zitierte Data Center Efficiency, kurz DCE, bei der die Verbrauchssumme aller Einzelkomponenten ins Verhältnis gesetzt wird zum Gesamtverbrauch der IT-Infrastruktur. Das Green-Grid-Konsortium geht davon aus, dass dieser DCE-Wert in den meisten Rechenzentren derzeit um die drei rangiert. Physikalisch möglich jedoch, postuliert Green Grid, sei ein Wert von 1,3. Das entspräche einer Verbesserung der Energieausbeute von heute 33 auf knapp 77 Prozent, also etwas mehr als eine Verdopplung - aber nur, wenn alle technischen Energiesparoptionen bis zum Anschlag ausgereizt sind. Stellt man dem, wie von IDC prognostiziert, nun ein zehnfaches Datenvolumen gegenüber, bleibt von doppelter Energieausbeute nicht mehr viel übrig. Ein grober Überschlag genügt, um zu verstehen: Trotz aller technischen Verbesserungen an Server- und Speichersystemen, Kühlaggregaten, Routern, Switches und Management-Workstations steigt der Stromverbrauch weiter unaufhaltsam an. Und zwar so lange, bis IT-Verantwortliche andere Register ziehen, um der Lage Herr zu werden. Die Drosselung des Verbrauchsanstiegs ist dabei keineswegs nur eine Frage des "grünen" Gewissens, sondern eine wirtschaftliche Notwendigkeit - wie ein Blick auf die eskalierenden Strompreise offenbart.

INFORMATION IST NICHT GLEICH INFORMATION Für echte Nachhaltigkeit sind demnach intelligente Konzepte gefragt, die auch jenseits der technischen Infrastruktur ansetzen. Insbesondere müssen die Informationen als solche verstärkt ins Visier genommen werden - genauer: ihre konkrete Relevanz für bestimmte Geschäftsprozesse. Denn nicht alle Daten sind zu jeder Zeit gleich wichtig. Sie müssen folglich auch nicht permanent auf dem gleichen Service-Level vorgehalten werden. Informationen minderer Priorität beispielsweise, die von teuren High-End-Systemen flexibel auf sekundäre Speicherebenen mit geringerer Performance verschoben werden, verbrauchen entsprechend weniger Strom. Noch weniger, wenn sie so früh wie möglich in Offline-Archivsysteme verlagert und pünktlich zum Ende ihres Lebenszyklus endgültig gelöscht werden. Im Sinne eines durchgängigen Information Lifecycle Management (ILM) lässt sich die Energiebilanz für Informationen somit unabhängig von den Watt- und Volt-Kennzahlen einzelner Geräte optimieren. Die Einspareffekte erstrecken sich dabei nicht nur auf die eigentliche Datenhaltung, sondern ebenso auf alle Backup- und Wiederherstellungsprozesse. Gerade Datensicherungen binden bekanntlich enorme Ressourcen, neben Speicherplatz auch Netzwerk- und Rechenkapazität. In der skizzierten Tiered-Storage-Umgebung, in der Informationen prozessbezogen klassifiziert und auf verschiedenen Speicherebenen abgelegt sind, müssen nicht mehr sämtliche Daten nach einheitlichem Regime gesichert werden. Für sekundäre Informationen mit relativ geringer Nutzungsfrequenz reichen unter Umständen größere Backup-Abstände aus. Das insgesamt zu bewegende Datenvolumen lässt sich auf diese Weise drastisch reduzieren - ohne Abstriche an der Verfügbarkeit kritischer Informationen hinnehmen zu müssen.

Diesen Artikel

Bewertung:

Übermittlung Ihrer Stimme...
Noch nicht bewertet. Seien Sie der Erste, der diesen Artikel bewertet!
Klicken Sie auf den Bewertungsbalken, um diesen Artikel zu bewerten.
  Sponsored Links:

IT-News täglich per Newsletter

E-Mail:
Weitere CW-Newsletter

CW Premium Zugang

Whitepaper und Printausgabe lesen.  

kostenlos registrieren

Aktuelle Praxisreports

(c) FotoliaHunderte Berichte über IKT Projekte aus Österreich. Suchen Sie nach Unternehmen oder Lösungen.

Zum Thema


Hosted by:    Security Monitoring by: