Übergreifende Verwaltung für Virtual-Machine-Manager kommt

Veränderungen in der Virtualisierungswelt

28. Juli 2009, 14:56 Uhr | Andreas Stolzenberger
Das Management-Interface von Vmwares »Vsphere 4«

Gestern war Virtualisierung überhaupt kein Thema. Doch schon jetzt verändern Hypervisoren die IT-Landschaft. I/O ist derzeit aber ein Problem und Sicherheit noch nicht wirklich ein Thema. Künftig orientieren sich Hypervisoren noch mehr an der Hardware.

Der Mainframe hat es dem PC wieder einmal vorgemacht. Um die teure Hardware eines Großrechners angemessen zu nutzen, erzeugt das Basissystem virtuelle Container, die mehrere Betriebssystem-Instanzen enthalten. Die Grundidee: Das produktive System erhält den Löwenanteil der Großrechner-Hardware. Parallel dazu kann der Systemverwalter in kleineren Einheiten schon einmal neue Software-Versionen ausprobieren. Funktionieren die Updates wie gewünscht, überträgt der Administrator die Daten aus der großen Partition in die kleine, vergrößert diese und schaltet auf Produktivbetrieb um.

Hardware lernt Virtualisierung

Bereits das Design der Mainframe-Hardware berücksichtigt den virtualisierten Betrieb. So etwas gab es auf dem PC bis vor kurzem überhaupt nicht. Die Qualität der PC-Virtualisierung hing hier gänzlich vom Virtual-Machine-Manager (VMM) ab, auch Hypervisor genannt. Doch die Hardware-Hersteller haben das Potenzial der Virtualisierung auf PCs erkannt. Von Generation zu Generation erhalten die CPUs von AMD und Intel neue Virtualisierungskommandos und machen dem VMM seine grundsätzliche Arbeit immer leichter. Auch die Peripherie lernt dazu und virtualisiert LAN- und SAN-Ports.

So funktioniert Virtualisierung heute

Die Hypervisoren müssen ihr Arbeitsfeld daher ändern. Das nackte Virtualisieren von Intel-kompatibler Rechnerhardware können heute schon zwei völlig frei verfügbare Open-Source-Produkte – damit alleine lässt sich also kein Geld mehr verdienen. Der Betrieb virtueller PCs birgt Risiken. Ein einzelner handelsüblicher PC-Server betreibt ganz locker ein bis zwei Dutzend produktiv arbeitende virtuelle Rechner. Der Ausfall der physikalischen Maschine legt daher nicht eine, sondern 12 bis 24 Systeminstanzen lahm. Solche Ausfälle sind nicht zu tolerieren. Daher liegt es am Hypervisor, für Ausfallsicherheit zu sorgen.

Eine Failover-Funktion findet sich daher bei allen großen Lösungen. Ein Cluster virtualisierender Hosts beherbergt dabei die VMs. Fällt ein Host aus, kann ein anderer dessen VMs übernehmen und neu starten. Die Voraussetzung hierfür ist, dass alle Hosts der Gruppe Zugriff auf die VMs haben. Ein Cluster erfordert ein Cluster-Dateisystem oder lagert VMs auf einem gemeinsamen Speicher aus. Dafür lassen sich Shared-Freigaben oder LUNs (Logical-Unit-Number) verwenden


  1. Veränderungen in der Virtualisierungswelt
  2. Problembereich I/O
  3. Derzeit nur bei wenigen ein Thema: die Sicherheit
  4. Veränderungen in der Virtualisierungswelt (Fortsetzung)

Jetzt kostenfreie Newsletter bestellen!

Matchmaker+