Aktuelles, Branche - geschrieben von am Montag, Oktober 12, 2020 11:52 - noch keine Kommentare

Steven Wright: Tipps zum effizienten Einsatz von Datenbank-Überwachungstools

„Gut genug“ kann letztendlich unnötige Kosten verursachen, so ein zentraler Tipp

[datensicherheit.de, 11.10.2020] Datenbanken sind heutzutage offensichtlich eine tragende Säule zahlreicher Geschäftsprozesse. „Unabhängig von der Größe eines Unternehmens – Datenbestände können stets komplex sein. Deshalb lohnt es sich die im Einsatz befindlichen Monitoring-Lösungen regelmäßig kritisch zu evaluieren und wirksame, effiziente Prozesse zu entwickeln“, empfiehlt Steven Wright, „Director of Sales Enablement“ bei SentryOne. Die Einstellung, dass die eingesetzten Lösungen zwar als „gut genug“ erscheinen, kann laut Wright „letztendlich unnötige Kosten verursachen“. Er gibt in seiner aktuellen Stellungnahme Tipps zum effizienten Einsatz von Datenbank-Überwachungstools und schildert worauf dabei zu achten ist.

sentryone-steven-wright

Foto: SentryOne

Steven Wright: Bestehende Lösungen in regelmäßigen Abständen kritisch evaluieren!

 

sentryone-dba-tool-good-enough-costing-money

Abbildung: SentryOne

Ausfallzeiten frühzeitig und schnell identifizieren, Ursache ermitteln und künftig zu vermeiden

Ob Interaktion mit den Kunden in einem Online-Shop, Zugriffe auf Ressourcen einer Website oder die betriebsinterne Nutzung von Software-Anwendungen: „Datenbanken sind eine tragende Säule zahlreicher Geschäftsprozesse.“ So könnten auch kleine Probleme auf Datenbankebene verlangsamte Abläufe mit sich bringen oder gar zu Ausfallzeiten führen, warnt Wright. „Laut Gartner liegen die durchschnittlichen Kosten für IT-Ausfallzeiten bei 5.600 US-Dollar pro Minute. Obwohl die Bezifferung maßgeblich von der Größe und Art des Unternehmens abhängt, können selbst kleine Unternehmen Kosten von bis zu 100.000 US-Dollar pro Stunde Ausfallzeit verzeichnen, während bei größeren Unternehmen die Kosten auf über eine Million US-Dollar pro Stunde ansteigen können.“
Verlangsamte Prozesse wiederum verursachten zwar geringeren Schaden – man schätze etwa ein Fünftel der stündlichen Ausfallkosten – sie träten allerdings zehnmal häufiger auf. Diese Kosten könnten sich dann sehr schnell summieren, so dass es für jedes Unternehmen von enormem Wert sei, derartige Ereignisse frühzeitig und schnell zu identifizieren, ihre Ursache zu ermitteln, zu lösen und künftig zu vermeiden.

Unternehmen sollten ihre Monitoring-Lösungen kritisch betrachten

Datenbanken seien mit einer Vielzahl an weiteren Prozessen verknüpft, welche sich auf die Leistung auswirken könnten. Unternehmen nutzten daher verschiedene Tools und Methoden, um Schwierigkeiten, die die Performance von Datenbanken beeinträchtigten oder diese hervorrufen könnten, ausfindig zu machen.
„Diese mögen augenscheinlich für den täglichen Betrieb gut genug sein, werden sie jedoch auf die falsche Weise eingesetzt, können noch mehr Aufwand und Kosten entstehen“, so Wright. Für Unternehmen lohne es sich daher, ihre Monitoring-Lösungen kritisch zu betrachten:

1. Tipp: Überwachung der Anwendungsleistung – Application Performance Management (APM) Tools

Heute gebe es eine Fülle von Tools auf dem Markt, die eine einfache Überwachung der Anwendungsleistung in guter Qualität ermöglichten und einen allgemeinen Überblick des Zustands von IT-Umgebungen böten. „Wie die Mehrheit der Nutzer angibt, sind APM-Tools zwar in der Lage, in die richtige Richtung zu weisen, allerdings gelingt es ihnen nicht, Problemursachen auf der Datenplattform zu identifizieren. Somit ist es erforderlich, zusätzlich manuelle Daten zu erfassen, um Probleme zu beheben und dauerhaft zu lösen.“
Da APM-Tools mitunter nicht die erforderliche Tiefe der Datenbankanalyse erreichten, um die zugrunde liegenden Performance-Probleme zu eliminieren, dauere die Ursachenanalyse meist länger und erschwere die langfristige Optimierung.

2. Tipp: Benutzerdefinierte Skripte

Erfahrene Datenbank-Administratoren (DBAs) verfügten meist über eine Sammlung von benutzerdefinierten Skripten, welche sie entweder online recherchiert oder selbst erstellt hätten. Diese Skripte dienten in der Regel dazu, andere Werkzeuge wie beispielsweise APM zu ergänzen, fehlende Funktionen auszugleichen oder Ad-hoc-Probleme zu lösen.
„Wird die Leistungsüberwachung vornehmlich durch eine Skript-Bibliothek bewerkstelligt, kann dies dennoch Einschränkungen nach sich ziehen. Denn nur in Ausnahmefällen lässt sich mit ihnen ein vollständiges Bild der IT-Umgebung erstellen. Viele Skripte werden lediglich für einen bestimmten Sachverhalt entwickelt und sind bereits nach einmaliger Anwendung überflüssig.“ Diejenigen, die einen längerfristigen Wert böten, seien hingegen oft schwer zu warten: „Wenn die Umgebung wächst und neue Technologien zum Einsatz kommen, kann die Pflege der Skripts schnell zu einer Vollzeitbeschäftigung werden.“ Angesichts der geringen Wahrscheinlichkeit, dass die Skripts die erforderliche Granularität besäßen und/oder signifikante historische Details lieferten, um den Ursachen auf den Grund gehen zu können, ein unnötig hoher Aufwand, so Wright.

3. Tipp: SQL Server Wait Statistics

„Eine ,Ressourcen-Wartezeit‘ wird durch Prozesse akkumuliert, die auf SQL-Servern laufen und darauf warten, dass eine bestimmte Ressource verfügbar wird. Warte-Statistiken (wait statistics) zeigen entsprechend auf, wo sich kritische Engpässe innerhalb von SQL-Servern aufbauen.“ Einige IT-Verantwortliche könnten versucht sein, sich einfach auf die Warte-Statistiken zu konzentrieren, um die Leistung ihrer Datenbanken zu verstehen. Dies könne jedoch – insbesondere auf Abfrageebene – zu völlig falschen Schlussfolgerungen führen: „Es ist in etwa so, als würde man bei einem Verkehrsstau lediglich ein einzelnes Auto betrachten. Das Auto bewegt sich und läuft demnach einwandfrei. Was dieser Betrachtung jedoch entgeht, ist der Lastwagen weiter vorne, der umdrehen möchte.“
Ebenso benötige man auch bei der Betrachtung von Warte-Statistiken Informationen aus anderen Quellen, „damit man ein vollständiges Bild erlangen und den Ursachen auf den Grund gehen kann“. Dennoch bildeten sie zumindest einen sehr guten Ausgangspunkt, um ein Gefühl für das Leistungsprofil des Servers zu bekommen und zu erfahren, wo Probleme auftreten könnten.

4. Tipp: Überwachung der Datenbankleistung: Data Performance Monitoring (DPM) Tools

Auf den ersten Blick erschienen DPM-Tools natürlich als effektivste Methode zur Überwachung der Datenbankleistung, schließlich seien sie genau dafür konzipiert. Doch auch sie brächten Einschränkungen mit sich, „wenn man es nicht versteht, ihr Potenzial maximal zu nutzen“.
Ein Problem von DPM-Tools könnten beispielsweise zu wenige Details sein, insbesondere bei Counter-Metriken wie CPU oder IO. Manche Produkte und auch selbst entwickelte Lösungen erfassten Momentaufnahmen dieser Daten lediglich einmal im Abstand von mehreren Minuten, um den entsprechenden Server nicht übermäßig zu belasten. Andere Einschränkungen betreffen demnach die Details auf Abfrageebene: „Meist werden lediglich die Top N-Abfragen gesammelt oder angezeigt, unabhängig von der Aktivitätsebene auf dem Server. Oder man konzentriert sich auf Abfragen, die auf ihren eigenen Wartezeiten basieren, im Gegensatz zum tatsächlichen Ressourcenverbrauch der Anfrage, bei dem es viel wahrscheinlicher ist, die Ursache zu identifizieren.“

Skalierbarkeit oft eine Herausforderung

Auch die Skalierbarkeit sei oft eine Herausforderung. Die Anzahl an Servern, die sich mit einer Produktinstallation überwachen ließen, sei bei den meisten DPM-Tools begrenzt. Die Tatsache, dass sie alle von einer SQL-Server-Datenbank unterstützt würden, um sämtliche gesammelten Daten zu speichern, schaffe allerdings einen Engpass.
Aus diesem Grund hätten diese Produkte ab etwa 200 bis 300 überwachten SQL-Servern zu kämpfen. Für größere Unternehmen könne es daher notwendig sein, mehrere Installationen zu implementieren, um alle Server abzudecken. Einige DPM-Produkte handhabten dies, indem sie mehrere Back-End-Datenbanken von einer einzigen Schnittstelle aus unterstützten, „obwohl dies einen erheblichen Kosten- und Verwaltungsaufwand erfordert“.

Eingesetzten Tools sollten optimal laufen und maximalen Nutzen liefern

„Gut genug“ könne durchaus teuer werden, sagt Wright. Unabhängig von der Größe eines Unternehmens könnten die Datenbestände stets komplex sein. Deshalb sei es wichtig, sicherzustellen, dass die eingesetzten Tools optimal liefen und maximalen Nutzen brächten. Im Wesentlichen könnten Unternehmen anhand der folgenden Kriterien beurteilen, „ob ihre Lösung zur Datenbanküberwachung ausreichend wirksam ist“:

  • Bietet die Lösung genügend Details und exakt die Angaben, um Probleme schnell zu lösen und zu verhindern?
  • Lässt sie sich entsprechend des erwarteten Datenwachstums skalieren?
  • Funktioniert die Lösung in allen Umgebungen, in denen sie benötigt wird?
  • Trägt sie in zufriedenstellendem Maß zur Problemlösung bei – oder ruft sie womöglich noch mehr hervor als sie lösen soll?
  • Wie sieht es mit dem Support aus? Besteht Unterstützung durch erfahrende Ingenieure – für den Fall, dass etwas schief geht?

Wrights Fazit: „Bestehende Lösungen in regelmäßigen Abständen kritisch zu evaluieren hilft dabei, wirksame und effiziente Prozesse zu entwickeln. Insbesondere verhindert es dem Phänomen entgegen, dass die eingesetzten Lösungen zwar als gut genug erscheinen, letztendlich aber durch Verlangsamung oder Ausfälle unnötige Kosten verursachen.“

Weitere Informationen zum Thema:

datensicherheit.de, 29.09.2017
NoSQL-Datenbanken: Schlüsseltechnologie für Digitalisierung



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung