alphaspirit - Fotolia

So können Sie die Verfügbarkeit von Anwendungen mit sechs Neunen sicherstellen

Die Anforderungen an Verfügbarkeit sind gestiegen. Um sicherzustellen, dass Ausfallzeiten nur wenige Sekunden im Jahr betragen, ist Automation gefragt.

In der schnelllebigen und hart umkämpften Geschäftswelt von heute können bereits Ausfälle von geschäftskritischen Anwendungen, die nur wenige Sekunden dauern, spürbare Konsequenzen für Unternehmen haben.

Können wichtige Anwendungen nicht durchgängig genutzt werden, bremst dies strategische Entscheidungsprozesse aus, beeinträchtigt die Produktivität und zieht dadurch finanzielle Verluste nach sich, weil Projekte nicht rechtzeitig abgeschlossen werden oder aber Güter und Services nicht schnell genug geliefert werden können. Die mangelnde Verfügbarkeit kann außerdem zu Unzufriedenheit unter den Kunden führen, die daraufhin möglicherweise zur Konkurrenz abwandern. Gewachsene Geschäftsbeziehungen werden so unnötig gefährdet.

Als Maßstab für die Verfügbarkeit von Systemen und Anwendungen galten bislang die berühmten „Five Nines“, also eine Verfügbarkeit von 99,999 Prozent. Modernen IT-Infrastrukturen wird dieser Maßstab jedoch nicht mehr gerecht. Die Messlatte wurde höher gelegt: Um wettbewerbsfähig zu bleiben, müssen Unternehmen heute eine Verfügbarkeit von 99,9999 Prozent („Six Nines“) gewährleisten. Diese Verfügbarkeitsklasse 6 entspricht einer Ausfallzeit von 2,63 Sekunden pro Monat oder 31,6 Sekunden pro Jahr.

Der unterbrechungsfreie Zugriff auf kritische Unternehmenssysteme spielt insbesondere in Branchen wie der Finanzindustrie, dem Gesundheitswesen oder dem Dienstleistungsgewerbe eine entscheidende Rolle. Hier müssen Unternehmen die Bedürfnisse der Kunden schnell erfüllen, um langfristig erfolgreich zu sein und um sich von der Konkurrenz positiv hervorzuheben.

Doch während die Anforderungen an die Verfügbarkeit steigen, sind IT-Organisationen zugleich immer weniger in der Lage, diese zu erfüllen. Sie stehen vor der Herausforderung, mit weniger Ressourcen mehr leisten zu müssen. Zusätzlich verschärft wird das Problem dadurch, dass Anwendungs- und IT-Infrastrukturen immer komplexer werden. Und selbst wenn ausreichend Budget vorhanden ist, haben Unternehmen Schwierigkeiten, qualifizierte Fachkräfte zu finden.

Bloßes Reagieren auf Probleme genügt nicht

Mit herkömmlichen Ansätzen lassen sich diese hohen Anforderungen an die Verfügbarkeit nicht mehr erfüllen. Sie sind ineffizient, da sie es Unternehmen lediglich ermöglichen, auf Verfügbarkeitsprobleme zu reagieren. Die Wiederherstellung eines Systems nach einem Ausfall ist oft mit viel Zeitaufwand verbunden und erfordert Know-how – damit sind wichtige Ressourcen gebunden und können nicht für andere Aufgaben eingesetzt werden. Mitunter kommt es auch zu Schuldzuweisungen zwischen den Abteilungen, die für die einzelnen Ebenen der Anwendungsinfrastruktur verantwortlich sind. Darunter leidet die Produktivität.

Eine unterbrechungsfreie Verfügbarkeit setzt heute die Redundanz sämtlicher Komponenten von Anwendungssystemen voraus, von der Hardware- und Softwareinfrastruktur über Datenbanken und Middleware bis hin zu den Anwendungen selbst. Diese Redundanz soll gewährleisten, dass beim Ausfall einer Software- oder Hardwarekomponente der Betrieb über die redundanten Komponenten aufrechterhalten werden kann. Manche Systeme wie Speichersysteme setzen hierfür RAID und ähnliche Technologien ein, bei denen die Daten auf der ausgefallenen Komponente anhand von Informationen wiederhergestellt werden, die auf ähnlichen Komponenten gespeichert sind. Darüber hinaus werden die einzelnen Ebenen der Infrastruktur durch die Analyse von Integritäts- und Performance-Daten überwacht. Oftmals kommen dabei unterschiedliche Überwachungssysteme zum Einsatz. Wird ein Problem festgestellt, senden die Systeme eine Warnmeldung, die jedoch keinerlei Kontextinformationen zu den Auswirkungen auf die Anwendung und ihre Verfügbarkeit enthält.

Nun ist der IT-Administrator gefragt, der in mühsamer und langwieriger Kleinarbeit die Problemursache ermitteln und beheben muss. In der Regel geht er dabei nach den folgenden Schritten vor:

  • Er untersucht, ob es sich um einen Fehlalarm handelt oder tatsächlich ein Problem vorliegt.
  • Er bestimmt den Schweregrad des Problems – beispielsweise ob die Anwendungsverfügbarkeit beeinträchtigt ist oder ob nur eine bestimmte Ebene betroffen ist und die Verfügbarkeit über die redundante Komponente sichergestellt wird.
  • Er ermittelt die Problemursache. Hierbei muss er oft mit Experten aus verschiedenen Abteilungen zusammenarbeiten, die für die einzelnen Komponenten verantwortlich sind.

Vielfach ist auch die Unterstützung des Herstellers erforderlich. Systemdaten müssen erfasst werden, und unzählige Protokolldateien, Ausgaben von Diagnosebefehlen und sogar Konfigurationsdateien werden zur Auswertung an den technischen Support gesendet.

Darüber hinaus gilt: All diese Schritte müssen innerhalb sehr kurzer Zeit durchgeführt werden.

Durch Vorhersagen Probleme proaktiv vermeiden

Diese traditionelle Vorgehensweise genügt nicht mehr, um heutigen Anforderungen an die Verfügbarkeit gerecht zu werden. Vielmehr müssen IT-Administratoren in der Lage sein, Probleme vorherzusagen, noch bevor sie überhaupt auftreten. Das System sollte Fehler automatisch beheben können, um Anwendungsausfälle zu vermeiden. Ist eine automatische Fehlerbehebung nicht möglich, sollte das System dem Administrator konkrete Hinweise für eine proaktive Problemlösung liefern. Bei Fehlern, die sich schwer vorhersagen lassen, sollte eine schnelle und einfache Fehlerbehebung möglich sein. Zudem sollten in Umgebungen, in denen eine überragende Datenverfügbarkeit unabdingbar ist, Fehlalarme gar nicht erst auftreten.

Maschinelles Lernen und leistungsfähige Datenanalysen schaffen die Voraussetzungen hierfür. Lösungen für das moderne Rechenzentrum sind mit Millionen von Sensoren ausgestattet, die in Echtzeit große Mengen an Telemetriedaten aus zahlreichen Implementierungen auf allen Ebenen der Infrastruktur erfassen, beispielsweise zur Performance, Integrität, Konfiguration, zu Ereignissen, zur Ressourcennutzung und zu verschiedenen Systemzuständen.

Rochna Dhand,
Nimble Storage

Durch das Auslesen dieser Daten aus einer Vielzahl an Kundeninstallationen stehen Informationen zu unterschiedlichsten Umgebungen und in der Praxis eingesetzten Konfigurationen zur Verfügung. Die Daten werden anschließend mit leistungsstarken Analysewerkzeugen ausgewertet. So entsteht ein genaues Bild der gesamten Anwendungsinfrastruktur. Das System deckt komplexe Muster auf den einzelnen Ebenen auf und ermittelt, wie diese Muster im Lauf der Zeit über die verschiedenen Ebenen hinweg interagieren. Auf dieser Grundlage lassen sich Modelle erstellen, die mithilfe der aus den Kundeninstallationen ausgelesenen Daten sowie neuer Informationen der Produkthersteller kontinuierlich verbessert werden. Anhand dieser Modelle kann klar bestimmt werden, welches Verhalten normal beziehungsweise nicht normal ist.

Auf diese Weise lassen sich präzise und zuverlässig Probleme vorhersagen, die zu Anwendungsausfällen führen können. Zudem liefern derartige Vorhersageanalysen auch Anhaltspunkte dafür, wie sich Probleme vermeiden lassen. Die Systeme werden so konzipiert, dass sie automatisch Maßnahmen zur Gegensteuerung ergreifen oder diese an den IT-Administrator delegieren. Eine neue Generation von Lösungen für das Rechenzentrum verfügt über integrierte Funktionen für eine solche proaktive Problembehebung, die von Instrumentation über die Erfassung und Analyse von Telemetriedaten bis hin zur Vorhersage und Prävention reichen. Bei einigen Lösungen sind die Sensoren sogar Teil des Designs und wurden zusammen mit dem Programmcode entwickelt.

Fazit

Dieser auf Vorhersagemodellen basierende Ansatz hat es in Verbindung mit maschinellem Lernen möglich gemacht, ein bislang noch nicht erreichtes Maß an Verfügbarkeit zu erzielen. IT-Administratoren erhalten dadurch weniger Warnmeldungen, die dafür umso aussagekräftiger sind. Anhand dieser Informationen können sie die Ursache eines Problems umgehend eigenständig ermitteln – unabhängig davon, auf welcher Ebene der Infrastruktur das Problem aufgetreten ist. Sie benötigen hierfür keine fundierten technischen Kenntnisse der einzelnen Ebenen und müssen nicht mehrere Abteilungen zu Rate ziehen, um das Problem zu beheben.

Sollte der Administrator in seltenen Fällen doch einmal die Unterstützung des Herstellers benötigen, so profitiert er auch hier von einem völlig neuen Supporterlebnis. Der technische Support hat bereits genauen Einblick in die Kundenumgebung und kann innerhalb kürzester Zeit Vorschläge zur Problemlösung unterbreiten. Dadurch bleibt der IT-Abteilung mehr Zeit für wichtige Aufgaben wie der Planung und Umsetzung innovativer Strategien zur Lösung wirtschaftlicher Herausforderungen.

Über die Autorin:
Rochna Dhand ist Director of Product Management bei Nimble Storage.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Nimble Storage: Selbstlernende Maschinen können Ausfallzeiten verhindern.

Bei virtualisierten Netzwerken ist die Verfügbarkeits-Überwachung entscheidend.

Kostenloses Storage Magazin: Backup, DR und Hochverfügbarkeit in der Cloud.

Nimble Storage bringt All-Flash-Einsteigersystem und erneuert Produktfamilie.

Artikel wurde zuletzt im Dezember 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Enterprise-Storage: Planung und Management

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close