Netzwerkgrundlagen: Servervirtualisierung

Geld sparen durch Servervirtualisierung

5. Februar 2008, 18:14 Uhr |

Deutliche Einsparungspotenziale dank einer besseren Serverauslastung verspricht der Paradigmenwechsel im Rechenzentrum.

Die Analysten von Gartner und IDC sind sich einig, dass die Virtualisierung die IT-Infrastruktur in Unternehmen in den kommenden drei bis vier Jahren wesentlich verändern wird. Ein wichtiger Bereich ist hierbei die Server-Virtualisierung.

Laut Gartner wird sich die Zahl der Virtual-Machines von 540000 im Jahr 2006 auf rund 9 Millionen bis 2009 erhöhen. Der Umstieg auf virtualisierte Server-Systeme wird durch leistungsstarke neue CPU-Generationen und Multi-Core-Prozessoren gefördert. Ende des Jahres kommen 8-Core-Prozessoren auf den Markt, das bedeutet viel mehr Rechenleistung für virtuelle Server.

Hardware wie Server oder Speicherschränke benötigen Stellplatz, brauchen Energie und – wegen der nicht unwesentlichen Abwärme – entsprechende Kühlung durch Klimaanlagen. Unternehmensrechenzentren stoßen deshalb oftmals an räumliche Grenzen.

Vorhandene Ressource besser nutzen

In vielen Fällen sind aber bereits ausreichend IT-Kapazitäten im Haus vorhanden, sie werden aber nicht optimal ausgenutzt. Mit Hilfe von Virtualisierungstechnologien können Unternehmen vorhandene Server besser ausnutzen und schneller und flexibler einsetzen.

Durch Virtualisierung und Konsolidierung von unterschiedlichen Applikationen auf einem einzigen Host sparen Unternehmen Kosten für Server-Hardware ein, ein Hauptgrund für IT-Verantwortliche, mit der Virtualisierung ihrer Server zu beginnen. Dies bezieht sich sowohl auf die Anschaffungs- als auch auf die Betriebskosten. Durch Partitionierung können die Anwender die Server-Auslastung ihrer bestehenden Systeme verbessern.

IDC geht davon aus, dass die Server-Auslastung auf x86-Hardware meistens bei fünf bis 25 Prozent liegt. Das bedeutet, dass 75 bis 95 Prozent der Kapazitäten bisher ungenutzt sind.

Auch aus operativer Sicht führt die Virtualisierung zu Kosteneinsparungen. Die Trennung der Applikationen von der darunter liegenden Hardware macht es für IT-Administratoren leichter, die Anwendungen aus einem gemeinsamen Serverpool zu verwalten. Die Virtualisierung ist eine Methode, um Veränderungen im Rechenzentrum zu beschleunigen.

Die Zeit für die Bereitstellung eines neuen Servers oder eines zusätzlichen Speichers verringert sich durch Virtualisierung von Tagen oder Wochen auf wenige Stunden oder sogar Minuten, berichten Unternehmen. Dementsprechend kann die IT schneller auf geschäftliche Anforderungen reagieren.

Die Evolution der Server-Virtualisierung

Virtualisierung und System-Partitionierung gibt es bereits seit Jahrzehnten im Bereich Mainframe und bei Unix-basierten Systemen. Neu ist es, dieses Konzept auch für x86-CPU-basierte Server, Storage-Arrays und Netzwerkgeräte anzuwenden. Alle diese heterogenen Komponenten können in einem gemeinsamen Netzwerk virtualisiert werden.

Das bedeutet, dass die Virtualisierung nicht nur Software-Anwendungen von der physikalischen Infrastruktur entkoppelt, sondern auch vom physikalischen Standort.

In den letzten Jahren ist Server-Virtualisierung für IT-Experten zu einem Schwerpunktthema geworden. Ein virtueller Server ist ein Server, der seine Dienste für mehrere Domains anbietet. Er verhält sich dabei aus Anwendersicht wie ein echter Server, ist in Wirklichkeit jedoch kein eigenständiger Server, sondern eine Instanz eines übergeordneten Servers.

In der Regel liegen mehrere virtuelle Server auf einem Gastgeber-System. Bekannte Beispiele sind Webserver, die mehrere hundert separate Webauftritte organisieren können oder Mailserver, die Mail für mehrere Domains annehmen.

Eine oft genutzte Form der Virtualisierung ist die Software-Virtualisierung, mit der beispielsweise ein Betriebssystem oder eine einzelne Anwendung repräsentiert wird. Dem Benutzer wird eine Abstraktionsschicht zur Verfügung gestellt, die ihn von der eigentlichen Hardware trennt.

Hinter dieser logischen Schicht verbergen sich die physikalischen Gegebenheiten der Hardware. Der Anwender kann eine Ressource alleine nutzen, im Hintergrund verwaltet das Betriebssystem die Ressourcen und fügt sie zu einer homogenen Umgebung zusammen.


  1. Geld sparen durch Servervirtualisierung
  2. Ressourcenverlust für die einzelnen Anwendungen

Jetzt kostenfreie Newsletter bestellen!

Matchmaker+