Die Datensicherung von morgen

10. September 2007, 14:58 Uhr | Andreas Stolzenberger

Backup-Verfahren – Die Wiederauferstehung des HSM-Pronzips bietet den Anwendern ganz neue Sicherungs- und Archivmöglichkeiten. Doch Softwarehersteller und -nutzer bleiben konservativ und betreiben moderne Speicher mit veralteten Methoden.

Kaum ein Storage-Thema wird so kontrovers diskutiert wie die Zukunft von Bandlaufwerken und -Cartridges. Mit dem Für und Wider steht und fällt auch die Bedeutung von Bandbibliotheken im Unternehmen. Werden Tapes überhaupt noch für Backup-Aufgaben gebraucht? Ist eine sichere Datenhaltung nur mit Disk-Speichersystemen zu bewältigen? Und wie spielen Backup- und Archivierungsdienste zusammen, wenn überhaupt?

Vor all diesen Fragen scheinen Anwender und Hersteller gleichermaßen zu kapitulieren und machen einfach weiter wie bisher, mit geringfügigen Änderungen. Bandbibliotheken werden einfach virtuelle Tape-Libraries vorgeschaltet, und schwupps – alles geht schneller, aber irgendwie doch genau so wie in den vergangenen 20 Jahren. Dabei könnte und müsste Der Anwender Datensicherung und Archivierung heutzutage ganz anders angehen. Doch ein neues Konzept verlangt Änderungen auf der gesamten Palette von Geräten und Software. Und genau da beginnen die Probleme erst richtig. Selbst wenn die Hersteller die passenden Disk- und Bandplattformen anböten, mangelte es immer noch an der richtigen Software, die Sicherung, Disaster-Recovery, Archiving und Speichermanagement komplett integriert.

Was bisher geschah
Die Majorität deutscher Unternehmen sichert nach wie vor nach dem Full- und Incremental-Prinzip. In gewissen Zeitabständen schreiben Backup-Anwendungen erst einmal alles auf Band – man kann ja nie wissen, was tatsächlich irgendwann wieder zurückgeholt werden muss. Alles, was sich ändert, fügt die Software in kürzeren Abständen dem Bandpool hinzu, und so fühlen sich die Anwender sicher. Allerdings erfordern die heutigen Datenmengen nicht nur große Bänder, sondern auch viel Zeit, um alles zu sichern. Bandbibliotheken sorgen in erster Linie dafür, dass der Administrator nicht von Hand die Fülle der Cartridges verwaltet oder gar manuell Bänder wechselt. In der Zwischenzeit gibt es große, günstige Disk-Arrays auf dem Markt, die natürlich viel schneller operieren als Bandlaufwerke. Das gilt ganz besonders, für Restore-Aufgaben. Um Disk-Arrays sehr einfach in das Backup einzubeziehen, haben sich kluge Köpfe das Konzept der Virtual-Tape-Library (VTL) einfallen lassen. Dabei tarnt sich ein Disk-Array als Bandbibliothek mit einer konfigurierbaren Zahl an Laufwerken und Cartridges.

Die gute Backup-Anwendung fällt auf den Trick herein und arbeitet genau so, wie sie das schon immer getan hat. Allerdings dauert es bei einer VTL nur wenige Sekunden, um irgendwelche Daten auf irgendeinem virtuellen Band zu finden und zurückzulesen. VTLs erfreuen sich daher zunehmender Beliebtheit. Diverse Hersteller offerieren komplette Lösungen mit Array und passender Software, andere stellen die Software allein zur Verfügung. Den Inhalt der virtuellen Bänder kann die Backup-Software oder die VTL selbst nach vorgegebenen Regeln auf physische Bänder auslagern. Bei diesem Vorgang herrscht im Gegensatz zum Backup-Prozess kein Zeitdruck. Die Migration von Daten belastet die Applikationsserver nicht im Geringsten, sondern läuft in aller Ruhe auf der Speicherplattform im Hintergrund ab.

Allerdings wird eine VTL dem Sicherungsmedium Disk in keiner Weise gerecht. Ein Disk-Array kann im Gegensatz zum Tape zufällige Daten im Sicherungspool entfernen, Datenbestände konsolidieren und in kürzester Zeit reorganisieren. Virtuelle Bänder beherbergen unstrukturiert gesicherte Daten, die eigentlich nicht gemeinsam auf ein echtes Band gehören. Die Kompression der VTL arbeitet inkompatibel zu der Hardwarekompression der Bandlaufwerke, so dass ein virtuelles 100-GByte-LTO-Band beim Auslagern vielleicht nur die Hälfte der physischen Cartridge beansprucht und wertvolle Kapazität verschenkt.

Neuer Ansatz für Backup und Archiv

Um modernen Speichermedien vollständig gerecht zu werden, müssten die Unternehmen ihre komplette Backup-Struktur erst einmal umkrempeln. Eine Backup-Prozedur, egal ob Full oder Inkremental, existiert nicht mehr. Vielmehr extrahiert ein permanenter Sicherungsprozess über Snapshots oder Continuous-Data-Protection (CDP) alle relevanten Daten und schreibt diese in einen ersten, unstrukturierten Backup-Pool. Aus diesem Pool heraus kann der Administrator oder gar der Anwender selbst im Handumdrehen verlorene oder fehlerhaft gelöschte Daten zurückgewinnen.

Bereits im zweiten Schritt beginnt die Backup-Software, in Kooperation mit einem Speichermanagement die unstrukturierten Daten des ersten Pools auszumisten. Unerwünschte Informationen wie MP3-Dateien oder lustige Youtube-Videos verlassen den Pool auf Nimmerwiedersehen. Das Management entfernt zudem doppelt und dreifach gesicherte Informationen wie Systemdateien.

Anschließend wird das ebenfalls ins Storage-Management integrierte Dokumentenmanagement aktiv. Es ordnet die Daten einzelnen Benutzern, Projekten und Vorgängen zu – sofern die Anwender ihre Daten nicht schon bei der Erstellung qualifiziert haben. Auf dieser Ebene greifen per API angebundene Zusatztools ein. Mail-Archivierungsprogramme fügen den elektronischen Schriftverkehr in den Sicherungsspeicher ein, welchen das Dokumentenmanagement sofort den jeweiligen Benutzern und Projekten zuordnet.

Danach greift das hierarchische Storage-Management ein. Wichtige Projektdaten laufender Vorgänge bekommen einen Logenplatz auf einem schnellen und sicheren Disk-Array. Weniger relevante Daten parken auf S-ATA-Arrays. Dabei kümmert sich die Software darum, mehrere Generationen des Datenbestandes vorzuhalten. Vielleicht nimmt der eine oder andere Anwender Änderungen vor, die er später wieder bereut. Mehrere Generationen lassen ihm die Option offen, zu einer früheren Version eines Dokuments zurückzukehren.

Parallel zum Dokumenten-Management durchforstet ein Disaster-Recovery-Utility den bereinigten Disk-Backup-Pool. Das Tool extrahiert in regelmäßigen Abständen komplette Systemabbilder der gesicherten Maschinen. Diese Abbilder hält der Administrator dann auf einem PXE-fähigen Remote-Boot-Server vor. Fällt ein System, egal ob Client oder Server, aus, kann der IT-Verwalter in aller Ruhe eine leere Maschine aufstellen und per LAN-Boot die Systeminstallation anstoßen. Selbst wenn der Anwender wichtige Dateien auf der lokalen Platte gesicherte hatte, kann das Dokumententemanagement dank der Qualifizierung diese Informationen wieder herstellen.

Ganz am Ende der Sicherungskette steht die Bandbibliothek. Markiert der Projektleiter ein Projekt als abgeschlossen und erledigt, sichert das Speichermanagement alle Projektdaten gemeinsam auf einem zusammenhängenden Bandsatz ab – der wandert später zur Langzeitarchivierung in den Tressor. Eine vorgegebene Zeit lang hält das System die Projektinformationen darüber hinaus im Disk-Pool vor – natürlich nur noch in der jüngsten Generation und auf einem günstigen S-ATA-Array.

Die Frage über die Zukunft des Tapes und der Bibliotheken wäre somit eigentlich geklärt. Das Tape als Backup-Medium ist tot, als Archiv-Medium, besonders für die längerfristige Sicherung, bleibt es eine wichtige Technologie.

Zukunft mit Lücken
Diese moderne Vorstellung vom kompletten Backup- und Archivsystem mit integriertem Speicher- und Dokumentenmanagement existiert, Stand heute, noch nicht als fertiges Produkt auf dem Markt. Zu sehr klammern sich die Anbieter der Backup-Software an ihre alten Verfahren. Sie finden dabei reichhaltige Unterstützung aus den Reihen der Anwender, die das seit Jahren etablierte, stumpfe Bandrotationsverfahren auch nicht von heute auf morgen ablegen können und wollen. Schließlich sehen viele Unternehmen Backup als lästiges, aber nötiges Übel an. Richtig eingesetzt, offeriert es jedoch ein komfortables Archiv, welches Daten unabhängig ihrer Art und Herkunft Projektbezogen darstellen kann – eine sehr produktive Lösung, die ganz nebenbei noch für Sicherheit sorgt.

Hier und da gibt es erste, zaghafte Ansätze, Backup-, Speichermanagement und Archiv sinnvoll miteinander zu verbinden. Doch kaum ein Hersteller scheint gewillt, eine vollintegrierte Suite zu fertigen oder zumindest ein Framework mit offenen APIs für andere Anbieter. Offenheit ist auf dem Speichermarkt leider nach wie vor ein Fremdwort, und jeder Hersteller kocht gerne eigene, aber stets unvollkommene Süppchen. So decken moderne Lösungen stets nur Teilbereiche ab.

Gerade kommen beispielsweise Archivsysteme für E-Mails in Schwung. Leider kooperieren diese nur mäßig mit anderen Datenmanagement- oder Sicherungstools, und um das reguläre Backup sollen sich auch andere kümmern.

Als Ziel sollten die IT-Verwalter für die Zukunft jedoch eine integrierte Lösung im Blickfeld behalten. Früher oder später müssen vor allem die Softwarehersteller Produkte in diese Richtung entwickeln, sonst werden die Unternehmen in ihrer Datenflut ertrinken. Die Tage stumpfer Voll- und Teilbackups neigen sich hoffentlich bald dem Ende zu. VTLs als temporäre Übergangslösung, um Performance-Engpässe zu lindern, sollten sich keinesfalls als Dauerlösung etablieren. Sie lösen lediglich ein aktuelles Backup-Problem, welches bei einem zukunftsweisenden Sicherungs- und Archivkonzept gar nicht mehr auftritt.

ast@networkcomputing.de


Jetzt kostenfreie Newsletter bestellen!

Matchmaker+