RoI: Rechnet sich Server-Virtualisierung? Detail - Computerwelt

Computerwelt: Aktuelle IT-News Österreich


09.02.2011 Ariane Rüdiger*

RoI: Rechnet sich Server-Virtualisierung?

Lesen Sie, welche versteckten Zusatzkosten die Anbieter von Produkten zu Server-Virtualisierung gerne verschweigen.

„90 Prozent der Projekte zur Server-Virtualisierung verfehlen ihre Ziele“, sagt Chris Wolf, Virtualisierungsspezialist bei der von Gartner übernommenen Burton Group. Das klingt ernüchternd. Fragt man Wolf, was an dieser eher niedrigen Zielerreichungsquote schuld ist, zögert er nicht lange: Die Werkzeuge der Anbieter zur Berechnung des Return on Investment (RoI) schlössen immer nur das ein, was Unternehmen unabdingbar zum Core-Management bräuchten. Nicht weniger, aber erst recht nicht mehr. Kämen später Aufgaben wie Lifecycle-, Change- oder Capacity-Management dazu, dann werde guter Rat sehr rasch teuer. Dieser Punkt sei in vielen Projekten schon einige Monate nach der Implementierung erreicht. Die Zusatzkosten für diese Aufgaben, auf deren Lösung naturgemäß niemand gern verzichtet, könnten durchaus 20 Prozent der ursprünglich veranschlagten Projektsumme ausmachen.

Was die Kernaufgaben angeht, sind die Anbieter aber durchaus realistisch. Der TCO-Kalkulator, den VMware auf seiner Website registrierten Anwendern offeriert, schließt neben Auswirkungen der Server-Virtualisierung auf Speicher und Netze auch die Kosten des Infrastrukturmanagements und der Migration in seine Berechnungen ein. Ungenaue Berechnungen können aber auch die Folge ungenauer Vorinformationen sein. „Wir benötigen für unsere Kalkulationen des RoI immer eine Menge Daten vom Kunden. Die sind oft nicht vorhanden und werden dann grob geschätzt“, berichtet Erwin Breneis, Lead Systems Engineer beim Virtualisierungs-Marktführer VMware. Beispielsweise verfüge kaum ein Unternehmen über exakte Daten darüber, wie viel Energie seine Server verbrauchen. Dabei bildet der niedrigere Energieverbrauch meist schon aufgrund der geringeren Serverzahl einen wesentlichen Bestandteil der Kostenvorteile, die sich Virtualisierungskunden erhoffen.

Weitere Kostenersparnisse erwarten die Unternehmen laut Breneis beim Platzbedarf, der Kühlung und beim Monitoring der Server. Doch auch in letzterem Bereich, der schon ins IT-Management gehört, fehlen oft die nötigen Informationen, um genaue Daten zu ermitteln. Nur wenige CIOs wissen nämlich, so der VMware-Experte, genau, mit welchen Aufgaben ihre Teams wie viele Stunden verbringen. Also werden häufig „Über-den-Daumen-Kalkulationen“ zugrunde gelegt, und die sind naturgemäß nicht immer richtig.

WEITERENTWICKLUNG KOSTET GELD Ungeplante Mehrkosten in Projekten zur Server-Virtualisierung ergeben sich laut Breneis trotz sauberer Kalkulation, wenn sich kleine Einstiegsprojekte weiter entwickeln: „Viele CIOs entscheiden sich, die Vorteile der Hardware-Virtualisierung auch für die Steuerung und Verwaltung der Software zu nutzen und investieren dann gegebenenfalls in weitere Managementlösungen.“ Das mag sinnvoll sein, doch fragt man sich schon, ob und warum die Softwareanbieter ihre Kunden nicht von Anfang an auf diese Möglichkeiten hinweisen und dann auch entsprechende Kalkulationen für weitergehende Lösungen vorlegen. Zumal sich in diesen ja die bereits vorhandenen Erfahrungen durchaus kostensparend auswirken können, wie Breneis erläutert, zum Beispiel weil einige Komponenten schon im Haus sind oder kein Schulungsbedarf mehr besteht.

Doch wer weiß, vielleicht kann man so viel Voraussicht auch nicht verlangen bei einer Technologie, die zwar inzwischen weithin anerkannt, aber dennoch in der breiten Anwendung für viele noch immer neu ist. Denn so viel ist sicher: Längst nicht alle Server werden heute virtualisiert eingesetzt. Georgio Nebuloni, Server-Analyst Westeuropa bei IDC, schätzt den Anteil neuer Server, die schon beim Verkauf mit einem Hypervisor ausgerüstet werden, lediglich auf ein Fünftel. „Großbanken oder sehr fortschrittliche Rechenzentren virtualisieren allerdings stärker“, beobachtet er. Tatsächlich schrecken wohl auch heute viele Unternehmen davor zurück, ausgerechnet ihre wichtigste Datenbank auf einem virtualisierten Server zu fahren. „Alle Anwendungen, die eine schwer prognostizierbare I/O- und CPU-Belastung erzeugen, eignen sich weniger gut für die Virtualisierung“, sagt Wolfgang Schwab, Senior Advisor und Program Manager beim Beratungsunternehmen Experton.

WIE KALKULIERT MAN VIRTUALISIERUNGS-PROJEKTE? Wie aber kalkuliert man ein Virtualisierungs-Projekt am besten? Die Arbeit beginnt mit einer gründlichen Analyse: Welche Applikationen laufen im Unternehmen auf welchen Servern? Welche davon sollen weiter genutzt werden, welche sind möglicherweise überflüssig? Lohnt es sich eventuell, vor der Server-Virtualisierung zuerst einmal die Anwendungen zu konsolidieren, zum Beispiel aus mehreren E-Mail-Systemen eines zu machen oder weitgehend ungenutzte oder redundante Anwendungsleichen schlicht zu entfernen?

Mit der gleichen Gründlichkeit gilt es, sich den Server-Bestand und die angeschlossene Peripherie anzusehen. Server-Typen, Alter, Leistungsfähigkeit, Stromverbrauch, Kühl- und Platzbedarf, aber auch die Ausstattung mit schnellen Ports sind hier wichtige Parameter. Am Ende dieser Phase sollte das Virtualisierungsteam einen genauen Überblick über die vorhandenen Server und Applikationen haben, die später auf den virtualisierten Servern laufen sollen. Dazu gehört auch, den Ressourcenbedarf der Applikationen und deren Nutzungscharakteristik zu kennen. Zwar gibt zum Beispiel VMware in seinem TCO-Kalkulator eine Default-Konsolidierungsrate von 1:12 an. „Es gibt auch Systeme, auf denen 20 oder 50 Anwendungen laufen“, sagt Schwab, allerdings sei das die Ausnahme. Entscheidend sei aber, wann die Anwendungen wie viele Ressourcen brauchen. Laufen drei Programme gleichzeitig am Monatsende auf Hochtouren, könnten sie allein schon die maximale Leistung eines Systems überschreiten. „Hier wird man um Messungen nicht herumkommen“, so Schwab. Ungeschickte Konfigurationen führten statt zu Leistungsverbesserungen zu Verzögerungen oder gar Downtime; folgerichtig gehörten Systeme mit gleichlaufenden Leistungsspitzen nicht auf einen Server. Sein Rat: „Am besten mischt man einige Anwendungen, die die CPU stärker belasten, mit solchen, die eher Ein-/Ausgabe-intensiv sind.“

IN DER REGEL SIND NEUE SERVER NÖTIG Im nächsten Schritt müssen Projektverantwortliche auch eine Entscheidung über die benötigte Server-Hardware treffen. Nur gelegentlich dürften dabei bereits vorhandene Server als Plattform taugen – meist ist eine Neuinvestition fällig. Denn schließlich leisten Server neueren Datums durch Multicore- und Multiprozessor-Architekturen mehr, ohne im Betrieb auch erheblich mehr zu kosten. Dazu kommen die schon erwähnten Einsparungen bezüglich Platz und Kühlung. Neue x86-2-Sockel Server für virtualisierte Umgebungen kosten etwa ab 3000 Euro; Server, die auch für Datenbankanwendungen tauglich sind, natürlich erheblich mehr. „Je mehr Sockets, desto mehr VMs auf der Hardware“, erklärt IDC-Experte Nebuloni dazu.

Zu virtualisierten Servern gehört eine Shared-Storage-Umgebung auf Fibre-Channel- oder NAS-Basis, sofern diese nicht schon vorhanden ist. In mittelständischen Firmen wird man aus Preisgründen eher auf iSCSI zurückgreifen. Direkt an den Server angebundene Speicher haben in virtualisierten Umgebungen eigentlich nichts mehr zu suchen. Dazu kommt gegebenenfalls die nötige Kommunikationstechnik. Bei den Speichern werden mögliche Einsparungen durch gemeinsame Nutzung oft wegen des Datenwachstums schnell wieder aufgezehrt. Deshalb sind hier mögliche Einsparungen auch schwerer kalkulierbar.

Diesen Artikel

Bewertung:

Übermittlung Ihrer Stimme...
Noch nicht bewertet. Seien Sie der Erste, der diesen Artikel bewertet!
Klicken Sie auf den Bewertungsbalken, um diesen Artikel zu bewerten.
  Sponsored Links:

IT-News täglich per Newsletter

E-Mail:
Weitere CW-Newsletter

CW Premium Zugang

Whitepaper und Printausgabe lesen.  

kostenlos registrieren

Aktuelle Praxisreports

(c) FotoliaHunderte Berichte über IKT Projekte aus Österreich. Suchen Sie nach Unternehmen oder Lösungen.

Zum Thema

  • KORAM Softwareentwicklungsgesellschaft m.b.H:

    KORAM Softwareentwicklungsgesellschaft m.b.H: Betriebsdaten- und Zeiterfassung, Kaufmännische Software (ERP), Management Informationssysteme (MIS), Bauwesen, Einzelhandel, Fertigung, Produktion und Konstruktion, Freie Berufe,... mehr
  • free-com solutions gmbh

    free-com solutions gmbh Werbewirtschaft, Wasser- und Energieversorgung, Vereine und Verbände, Umweltschutz, Touristik, Personenverkehr, Öffentliche Verwaltung,... mehr
  • Fabasoft AG

    Fabasoft AG Vereine und Verbände, Öffentliche Verwaltung, Medizin und Gesundheitswesen, Luft- und Raumfahrttechnik, Freie Berufe, Finanzdienstleistungen, Qualitätssicherung,... mehr
  • Bechtle IT-Systemhaus Österreich

    Bechtle IT-Systemhaus Österreich WLAN-Systeme, Netzwerk-Systeme (LAN, MAN, WAN), Netzwerk-Management, Server-Betriebssysteme, Verschlüsselungs- und Kryptografie Software, Security Audits, Notfalls-Rechenzentren,... mehr

Hosted by:    Security Monitoring by: