Virtualisierter SAN-Speicher – Eine strategische Bewertung

In der Entwicklung moderner Rechenzentrums-IT stellte sich die Wichtigkeit von zentralen Speichersystemen schnell heraus. Die geteilte Nutzung von Speicherressourcen ist die Basis für den effizienten Einsatz  aller gängigen Hypervisor-Systeme wie VMware ESX und Microsoft Hyper-V. SAN-Systeme sind die Grundlage für Hochverfügbarkeit von virtuellen Servern auf redundanten Hostplattformen und eine der wichtigsten IT-Infrastrukturkomponenten überhaupt, da quasi kein Produktivsystem ohne permanenten Datenspeicher arbeiten kann.

Der allgegenwärtige Faktor des stetigen Datenwachstums und ständig steigenden Erwartungen an Performance sowie Verfügbarkeit stellte die Speicherindustrie vor gewaltige Herausforderungen, welche zumeist mit extremen Kostenwachstum für komplexe Speicherlösungen beantwortet wurden. Dieses führte dazu, dass teure und ineffiziente Systeme häufig zu sehr unbefriedigenden IT-Strukturen mit hohem Bindungsgrad an den Systemhersteller geführt haben, welche langfristig hohe Wartungskosten mit sich brachten.

In einem anderen Segment der Datacenter-IT hingegen revolutionierten Hypervisor-Systeme wie selbstverständlich den Aufbau und das Design von modernen IT-Systemen, wie wir sie heute kennen. Über 95% der produktiven Serversysteme werden heutzutage als virtuelle Maschinen betrieben, skaliert, auf neue Hardwareplattformen migriert und weiterentwickelt. Eine Abhängigkeit der physikalischen Serverplattform ist nicht mehr festzustellen. Diese kann entsprechend der Anforderungen und Kostenstrukturen frei gestaltet werden, ohne dass die Funktion der virtuellen Serverinfrastruktur davon maßgeblich beeinträchtigt wird.

Trennung der Abhängigkeiten Hardware und Funktion

Wenn der Gedanke der Virtualisierung zu Ende gedacht wird, so ergibt sich die Sinnhaftigkeit für fast alle Teilbereiche der IT-Infrastruktur, da die IT damit flexibler und effizienter wird. Dieser Trend erstreckt sich heutzutage über fast alle Segmente und somit auch auf den SAN-Speicher.

Folgt ein SAN-Speicher den Grundsätzen der Server-Virtualisierung ergibt sich daraus:

  • Unabhängigkeit von Hardware-Hersteller
  • Freie Gestaltung mit marktüblichen Komponenten
  • Einsatz von Industrie-Standardkomponenten
  • Wirtschaftliche Entscheidungsfreiheit über offenes Portfolio von Systemkomponenten
  • Migration/Skalierung ohne beengte Produktvorgaben seitens des Herstellers
  • Kein „Rip&Replace“ in der Erweiterung von Speicher oder Leistung
  • Homogenisierung der SAN-Funktion durch einen (Storage)-Hypervisor
  • Langfristige Strategie für eine dauerhaft konsistente Speicherplattform
  • Investitionsschutz für die Software mit stetiger Weiterentwicklung ohne Hardwarebindung
  • Keine Notwendigkeit zur Überprüfung der Speicherstrategie alle 5 Jahre

Aus diesen Faktoren begründet sich der Erfolg der SAN-Virtualisierung, wie er seit vielen Jahren zu beobachten ist. In der Praxis haben sich über die „Standardfunktionen“ eines SANs viele Mehrwerte ergeben, welche die Softwareplattform einer SAN-Virtualisierung als Innovationstreiber hervorgebracht hat.

Flexibilisierung durch Virtualisierung

Das Werkzeug der Virtualisierung hat immer schon den Umfang der Möglichkeiten von statischen Hardware-Systemen überstiegen und neue strategische Lösungen und Praktiken für den IT-Betrieb ermöglicht. So ist es auch bei der Storage-Virtualisierung, die seit vielen Jahren den Innovationsdruck im Speichermarkt hoch hält und den Takt angibt.

Die Grundlage für diese Flexibilität ergibt sich aus dem Systemdesign von Industrie-Standardserversystemen, welche die Basis für eine Speichervirtualisierung darstellen:

  • Hauptspeicher als Cache / Performancemaximierung
    Wie jedes Storage-System profitiert auch eine Storage-Virtualisierung von einer großen Menge Cache-Speicher. Die Speicherpreise für RAM-Module sinken seit Jahren und die Speichervolumen steigen ständig. Somit kann durch eine entsprechende Servergestaltung mit viel Hauptspeicher ein sehr kostengünstiges Cachevolumen von mehreren hundert Gigabyte geschaffen werden.
  • Der PCIe-Bus als Erweiterungsplattform / maximale Flexibilisierung
    Die Übertragung per Fibrechannel (FC) oder iSCSI über Bandbreiten von 4,8,10,16,32,40 oder gar 100Gbit/s ist je nach Geschäftsanforderung und Performanceerwartung notwendig und wirtschaftlich zu bewerten. Aus Sicht des Speichersystems sind diese Faktoren aber nur eine austauschbare Steckkarte, welche keine Abhängigkeit zur Funktion herstellt. Somit ist für den wirtschaftlichen Einstieg bis hin zu einer hochperformanten Umgebung die Gestaltung jederzeit anpassbar.
    Der Speicherserver kann weiterhin hochperformancen SSD-Speicher auf dem PCIe-Bus betreiben, welcher extrem geringe Latenzen bei extrem hohen Zugriffen pro Sekunde (IOP/s) ermöglichen wird. Dieser kann flexibel zur Implementierung genutzt oder bei Bedarf nachinstalliert werden.
  • Verteilte Controller-Intelligenz / lineare Skalierung von Performance und Volumen
    Während konventionelle Speichersysteme für eine maximale Anzahl von Festplatten/SSDs ausgelegt sind, agiert ein Storage-Server als Cache-Beschleuniger und als Mittler zwischen angebundenen Backendsystemen. Diese können lokale RAID-Controller sein, im Server verbaute SSD-Speichersysteme und auch nachgelagerte Speichersysteme mit eigenem Controller. Dieses Systemdesign mit verteilter Intelligenz bewirkt eine lineare Skalierung von Volumen und Leistung und stellt langfristige Planungssicherheit für das Wachstum von Daten und steigenden Performanceanforderungen her.
Lineare Skalierung

Lineare Skalierung

Hochverfügbarkeit durch synchrone Spiegelung

Die Rolle von zentralen Speichersystemen beinhaltet per Definition die Anforderung für eine stark erhöhte Verfügbarkeit, da die Funktion aller Serversysteme von Ihnen abhängen. Mit der Einführung der SAN-Virtualisierung hielt daher auch die synchrone Spiegelung zwischen zwei Speicherservern Einzug, welche die Ausfallredundanz verdoppeln und damit den kompletten Ausfall einer der beiden Systeme kompensieren können. Beide Systeme agieren hierbei als aktive Speicherknoten und stellen den Hostsystemen aktive Speicherpfade zur Verfügung. Diese aktiv/aktiv Spiegelung bewirkt nicht nur, dass im Defektfall ohne Daten- oder Zugriffsverlust die Systeme weiterarbeiten können. Des Weiteren sind auch Wartungsarbeiten an den Speicherservern jederzeit möglich, ohne einen Produktionsstillstand zu bedingen. Diese Wartungen können sich von Updates/Upgrades, Systemerweiterungen, Designanpassungen bis hin zum Hardwareaustausch  erstrecken, ohne eine Downtime für die Speicherstruktur einplanen zu müssen.

In der Hochverfügbarkeit durch die synchrone Spiegelung für den zentralen SAN-Speicher begründet sich ein großer Teil des Erfolges der SAN-Virtualisierung. Hierdurch dokumentiert sich eindeutig, dass zwischen der eingesetzten Hardware und der eigentlichen Funktion als Speichersystem keine Abhängigkeit besteht und die Anforderungen an ein virtuelles Speichersystem voll erfüllt werden.

 

Zusatzfunktionen, Mehrwerte, Einsatzszenarien

Neben den Kernfunktionen als zentrales Speichersystem ergeben sich weitere Optionen für die Umsetzung von Anforderungen der erhöhten Verfügbarkeit in Ausfallszenarien,  verteilter Datenhaltung und Automatisierung.

Die asynchrone Spiegelung über IP Netzwerke ist eine häufig genutzte Funktion um die Daten zeitnah an einen Auslagerungsort zu übertragen. Hierbei werden nach erstmaliger Replikation des Datenbestandes nur differenzielle Änderungen übertragen und schnellstmöglich zum Zielort transportiert. Am Zielort befindet sich ein Speicherserver, welcher den Datenbestand ebenfalls virtualisiert verwaltet und bei Bedarf als Notfallspeicher in einem separaten Rechenzentrum präsentieren kann. Aus diesem kann dann mit wenig Aufwand die komplette Infrastruktur reaktiviert werden um einen Notbetrieb abzubilden. Sollte der Datenbestand am Quellstandort nicht beeinträchtigt worden sein, so können Veränderungsdaten im Auslagerungsstandort durch die bidirektionale Replikation differenziell zurückübertragen werden.  Damit werden Maßnahmen zum Desaster-Recovery, als auch für den Testbetrieb eines Notfallrechenzentrums einfach umsetzbar.

Die automatische Steuerung von IT-Infrastrukturkomponenten ist für einige Einsatzszenarien ein relevanter Faktor. Hierbei bietet die Speichervirtualisierung ein umfangreiches API-Paket an, welches per Powershell die komplette Automatisierung der virtuellen SAN-Umgebung ermöglicht.

Schlussfolgerungen

Der allgemeine Trend in der IT weniger Funktionen an konkrete Hardware zu binden und diese durch unabhängige Software und Technologien abzubilden, ist ungebrochen. Obgleich es die Technologie der SAN-Virtualisierung schon seit mehr als 10 Jahren gibt und LANtana diese seit mehr als 7 Jahren erfolgreich mit den Produkten des Herstellers DataCore in Kundenprojekten implementiert, so ist festzustellen, dass sich auch dieses Thema ständig weiterentwickelt.

Technologien wie die Storage-Virtualisierung ermöglichen viel flexibler auf Geschäftserfordernisse einzugehen oder neue Optionen zu schaffen Geschäftsabläufe sicher und performant zu gestalten. Auch zukünftig wird die Verwaltung und das Management von Speicher ein gewichtiger Faktor in der strategischen Gestaltung von IT-Systemen bleiben. Es ist zu erwarten, dass die Abstraktion der Speicherfunktion sich weiter von der eigentlichen Hardware abtrennt und über Grid-Strukturen aus unterschiedlichen Speicherknoten eine Gesamtstruktur mit skalierbarer Redundanz und Performance abgeleitet wird. Derartige „Speicherwolken“ erstrecken sich dann vom lokalen Rechenzentrum mit höchsten Anforderungen an Performance und Verfügbarkeit bis in die Cloud als Auslagerungsspeicher für den Notfall.

 

Skizze

Skizze

 

Sprechen Sie auch gerne Ihre LANtana Vertriebsansprechpartner an!

 

Antworten

Du musst angemeldet sein, um einen Kommentar abzugeben.