Speicherautomatisierung

Eine Frage des richtigen Managements

7. Februar 2008, 8:18 Uhr |

Storage-Lösungen der nächsten Generation verringern das Risiko geschäftsschädigender Ausfälle und senken den Kostenaufwand.

Unternehmen sehen sich heute mit der Herausforderung konfrontiert, komplexe Speichernetze, die oft aus einer Vielzahl heterogener Einzelkomponenten bestehen, möglichst effizient, kapazitätsauslastend und kostensparend zu betreiben.

Eine entscheidende Rolle spielt dabei ein Speichermanagement, das in der Lage ist, die gesamte Speicher-Topologie sowie die Performance- und Auslastungswerte jeder Einzelkomponente abzubilden.

Performance-kritische Flaschenhälse, gefährdete Kapazitätsgrenzen oder von Ausfall bedrohte Speicherkomponenten sollen möglichst schon im Vorfeld identifiziert und entschärft werden. Denn solche technischen Zeitbomben können die Einhaltung von Service-Level-Vereinbarungen gefährden oder im Ernstfall ganze Teile eines Unternehmens lahm legen. Erhebliche Mehrkosten wären die Folge.

Ein Server- und Speicher-Management, das die Abhängigkeiten aller Storage-Komponenten analysiert und deren Funktionstüchtigkeit überwacht, baut Albtraum-Szenarien vor und lässt IT-Verantwortliche wieder ruhig schlafen.

Beispiel-Szenario Datenbank

Das Datenbank-Managementsystem (DBMS) eines Unternehmens kann nicht mehr auf seine zugeteilten Speicherkapazitäten zugreifen und gefährdet dadurch die Abwicklung IT-gestützter Geschäftsabläufe, die sich der abgespeicherten Daten bedienen.

Als Ursache der Fehlfunktion kommen dabei mehrere Möglichkeiten in Betracht: ausgefallene Server oder gar Cluster, überlastete Netzleistungen, defekte Host-Bus-Adapter (HBA) oder falsch konfigurierte SAN-Switches.

Eine Speichermanagement-Suite wie die HP-Storage-Essentials, die die Storage-Supply-Chain des beeinträchtigten DBMS visuell abbilden und jede Einzelkomponente einer Detailanalyse unterziehen kann, beschleunigt die Fehlersuche und verringert dadurch teure Ausfallzeiten.

Risiken verringern, Leistung erhöhen

Viele Notfälle lassen sich zudem durch konsequentes Monitoring und Risiko-Verringerungsstrategien vermeiden. Wenn beispielsweise in einer dynamischen Systemumgebung die freien Switch-Ports zur Neige gehen, bemerkt das Monitoring, dass die Switch-Port-Nutzung den kritischen Schwellenwert von 90 Prozent übersteigt.

Ein automatisch generierter Alarm informiert die Netzwerk-Administration, welche daraufhin Risiko-entschärfende Maßnahmen (zum Beispiel Konfigurationsänderungen oder Beschaffung neuer Ressourcen) ergreift, um auch weiterhin die nötige Flexibilität bei der Bereitstellung von Business-Services sicherzustellen.

Auf die gleiche Weise lassen sich Engpässe bei der Bereitstellung von Speicherkapazitäten schon im Voraus vermeiden. Ein Dateisystem etwa erreicht einen vorab vom Speicher-Administrator definierten kritischen Füllstand. Dieses Ereignis löst die Provisionierung zusätzlicher Ressourcen sowie anschließend die zweckentsprechende Erweiterung des File-Systems aus. Überlastungen und Fehlfunktionen werden so durch eine Ereignis-gesteuerte Alarmierung vermieden.

Ärgernis: Lange Antwortzeiten

Nicht immer aber drohen gleich Totalausfälle. In der Praxis beschweren sich Anwender häufig über lange Antwortzeiten beispielsweise von zu trägen SAP- oder Datenbank-Systemen. Als Performance-Bremse entpuppt sich oft der ungenügende I/O-Datendurchsatz bestimmter Provisioning-Pfade im unternehmensinternen Storage-Area-Network.

Beispielsweise könnte ein bestimmter SAN-Pfad bereits eine Auslastung von 80 bis 90 Prozent erreicht haben und dadurch an seine Leistungsgrenze stoßen. Problem benannt heißt aber noch nicht Problem erkannt.

Erst eine Ende-zu-Ende-Analyse der gesamten Supply-Transportkette von der auf dem Desktop des Anwenders laufenden Applikation über sämtliche beteiligten SAN-Infrastrukturkomponenten bis zum SAP-Host gestattet es, den verantwortlichen Übeltäter zu identifizieren und Abhilfe zu schaffen.

Kontrolle des SAN-Netzes unerlässlich

Ein gutes Server- und Speicher-Management-System sollte in der Lage sein, den Administrator bei der schnellen und zuverlässigen Lösung der umschriebenen Problemfelder zu unterstützen. Unerlässliche Voraussetzung dafür ist die Visualisierung und Überwachung der gesamten, oft heterogenen SAN-Topologie eines Unternehmens.

Dazu gehört unter anderem die logische und physikalische Abbildung aller Einzelkomponenten, die für die Storage-Supply-Chain bestimmter Applikationen von Bedeutung sind. Eckdaten wie Datendurchsatz, Kapazitätsauslastung und Performance versorgen Storage-Administratoren mit Informationen, die sie für die Optimierung des Storage-Area-Networks dringend benötigen.

Zudem zeigen Analysen aggregierter Leistungskenndaten Trends auf und geben wertvolle Hinweise für die bedarfsgerechte Planung und Konfiguration von Infrastrukturkomponenten, Storage-Supply-Pfaden und Speicherkapazitäten, die nötig sind, um auch in Zukunft kritische Applikationen SLA-konform bedienen zu können.


  1. Eine Frage des richtigen Managements
  2. Reserveleistung automatisch mobilisieren

Jetzt kostenfreie Newsletter bestellen!

Matchmaker+