Dossier Trivadis

"Eine IT-Landschaft sollte keinesfalls in statischen Handbüchern dokumentiert werden"

Uhr | Aktualisiert
von asc

Christian Wischki, Service Manager bei der Trivadis AG sowie Autor verschiedener Fachartikel und Bücher steht im Interview mit der Netzwoche Rede und Antwort rund um das Thema modernes Capacity Management in Unternehmen.

Herr Wischki, Sie sind schon seit über 15 Jahren im IT-Business tätig. Was war für Sie die grösste technologische Veränderung in den letzten Jahren?

Technologisch betrachtet gehören hier sicherlich Themen wie das Grid-Computing, die Virtualisierung und auch das Cloud-Computing dazu. Allerdings hat die "wahre Revolution" in der IT in den letzten Jahren nicht innerhalb der Technologie, sondern innerhalb der Methodik und der Orientierung der IT stattgefunden.

Themen wie beispielsweise SOA, Services, ITIL, TCO, TBO, und viele mehr haben sich in der IT nun grösstenteils nachhaltig etabliert, wodurch auch die zwingend notwendige Grundlage geschaffen wurde, dass die IT in ihrer Maturität wieder ein Stück wachsen kann. Langsam aber sicher kann und wird die IT so auch ihre traditionell geliebten und technologisch getriebenen Silos verlassen und sich auf den Weg zu einer business- und serviceorientierung begeben, was in der Folge dann auch den strategischen Beitrag und den Added Value einer IT für das Business erhöhen wird.

Wie hat sich der Schweizer Markt in den Bereichen Managed Services, IT Service- und Business Service Management entwickelt?

Um diese Frage beantworten zu können, muss man den Schweizer Markt differenziert betrachten und zwischen Großunternehmen bzw. den "Schweizer Global Playern" und KMUs unterscheiden. Bei den KMUs hängt der Schweizer Markt vor allem in der Entwicklung der Bereiche "Business driven IT Management" & "Managed Services" dem europäischen vergleichbaren Gesamtmarkt doch noch etwas hinterher – sowohl auf der Anbieter, als auch auf der Kundenseite. Hier ist vor allem zu beobachten, dass man mit inzwischen doch eigentlich selbstverständlichen IT-Themen wie beispielsweise auch Outtaskings & Outsourcings noch etwas Mühe hat, was bei den Schweizer Global Playern so nicht der Fall ist. Für global agierende Schweizer Unternehmen sind beispielsweise auch weitere Themen wie eine deutliche Fokussierung des Added Values der IT auf das Business sowie die Steuerung der IT durch das Business oder auch Shared Service Center im Grunde "Business as usual", so wie diese auch in vergleichbaren europäischen Marktsegmenten inzwischen selbstverständlich sind.

Was genau ist eigentlich ein "modernes" Capacity Management?

Ein modernes Capacity Management & -Forecating ist zwingend businessorientiert und managed die nicht linearen Beziehungen der Variablen Geschäftsanforderungen, Service Demands und Ressourcen untereinander, was im herkömmlichen bzw. rein technologischen Capacity Management so leider nicht der Fall ist. Ein Beispiel hierzu: Ein CIO oder CEO einer Warenhauskette kann mit der Information, dass beispielsweise noch 30% CPU-Kapazitäten noch frei sind nicht wirklich viel anfangen. Die Informationen, welche auf Entscheidungs- und Management-Ebene im Grunde wirklich benötigt werden, sind doch hier beispielsweise die folgenden:

  • Wie viele Kunden kann ich mit meinen IT-Systemen noch bedienen, bevor diese an Ihre Kapazitätsgrenzen stoßen?
  • Wann wird voraussichtlich (basierend auf meinem Businessplan) der Zeitpunkt erreicht werden, an dem meine IT-Ressourcen an Ihre Grenzen stoßen und ich zusätzliche Investitionen in IT-Ressourcen tätigen muss?
  • Ich will nächstes Jahr 3 weitere Filialen eröffnen – kann ich diese noch mit meinen bestehenden IT-Ressourcen handeln oder wenn nicht, wie viele zusätzliche IT-Ressourcen benötige ich hierfür?
  • Mit wie vielen zusätzlichen IT-Investitionen erreiche ich wie viel mehr an Businesskapazitäten?
  • Was ist für mein Business effizienter – in zusätzliche IT-Ressourcen zu investieren oder die bestehenden (z.B. CPUs) auf durch neue zu ersetzen?
  • Wo befinden sich nicht genutzte Potentiale und wie kann ich Einsparungen realisieren?

Wenn man dieses Beispiel nun auf einer höheren Abstraktionsebene betrachtet, kann man sagen, dass durch ein modernes Capacity Management vor allem die Fragen "Wie viel Business vertragen meine unterstützenden IT-Systeme noch?; Wie viel mehr Business kann ich machen, wenn ich meine bestehenden Systeme erweitere oder mir neue, schneller und bessere anschaffe?; Wo kann ich Einsparungen realisieren, ohne das bestehende und geplante Business zu beeinträchtigen?" beantwortet werden können. Und genau das ist im Grunde auch der Unterschied zum herkömmlichen Capacity Management, mit welchem diese beziehungsweise solche Fragen leider nicht beantwortet werden konnten.

Mangelhafte Kapazitätsplanung ist ein Problem in vielen Unternehmen - was muss eine Firma tun, um sicherzustellen, dass die Kapazität der IT-Services und der IT-Infrastruktur ausreicht, um die vereinbarten Service-Level-Ziele wirtschaftlich und rechtzeitig zu erbringen?

Die wichtigsten Stichworte diesbezüglich lauten businessorientiert, pro-aktiv und permanent. Man kann durchaus behaupten, dass die Steuerung und Führung einer IT ohne ein pro-aktives und businessorientiertes Capacity Management sich analog zu einer Führung und Steuerung eines Unternehmens ohne einen Businessplan verhält – beides wird auf Dauer sicherlich nicht wirklich gut gehen.

Die allgemeinen Best Practices zum Thema modernes Capacity Management sind beispielsweise auch durch ITIL und ISO20000 schon gut dokumentiert, jedoch verständlicher Weise sehr allgemein gehalten. Methoden haben meistens eine universelle Gültigkeit, während sich Rezepte aber an spezifischen Fällen ausrichten. Daher müssen die Methoden des modernen Capacity Managements immer auf die entsprechende spezifischen Anforderungen hin appliziert werden, wie dieses Anhand des folgenden Beispiels aufgezeigt werden kann.

Um die Planbarkeit von Ressourcen in einer IT-Landschaft überhaupt zu ermöglichen, muss das Inventar aller Server, Datenbanken und auch deren Applikationen sowie auch vor allem deren Beziehung und Abhängigkeiten untereinander zwingend bekannt sein. So einfach das auch klingt, aber die Erfahrung lehrt, dass nicht wirklich jede IT-Organisation in der Lage ist, diese Frage per Knopfdruck aktuell, vollständig und richtig zu beantworten. Eine IT-Landschaft sollte aber keinesfalls in statischen Handbüchern dokumentiert werden, sondern stets mittels einer CMDB (einer Configuration Management Database), was die aller erste Voraussetzung für ein erfolgreiches Capacity Management darstellt. Eine zweite Voraussetzung ist, dass eine Kapazitätsplanung stets ganzheitlich erfolgen muss – das heisst sowohl auf Business-, Service- und Infrastrukturebene.

Wenn man an einem zukünftigen Ereignis interessiert ist, so muss man anfangs in die Vergangenheit schauen, was neben einer CMDB auch die historisierten Performance-Daten in Bezug auf beispielsweise Antwortzeiten, Transaktionsvolumen und Auslastung erfordert. Diese Daten müssen permanent gesammelt werden am besten in einer CDB (Capacity Database) verwaltet werden, was die dritte Voraussetzung für ein erfolgreiches Capacity Management darstellt.

Wenn nun alle oben genannten Voraussetzungen gegeben sind, startet man das Capacity Management oder ein Sizing-Projekt, in dem man das Ziel und die Rahmenbedingungen definiert. Hierzu muss Anfangs jedoch immer bekannt sein, auf welche Fragen das Capacity Management oder die Sizing-Prognosen Antworten geben sollen. Solche Fragen sind beispielsweise: Geht es um den Ausbau eines bestehenden Servers oder um die Konsolidierung mehrerer Server auf einen einzigen Server? Sind Präferenzen bezüglich HW-Hersteller zu beachten oder macht der Applikationshersteller bestimmte Vorgaben? Wie gross ist das Business-Volumen und welche Antwortzeiten werden erwartet? Sind all diese Festlegungen getroffen, startet man mit der Erhebung von Performancedaten, wobei darauf zu achten ist, dass hier auch die wirklich relevanten Daten gesammelt werden.

Anschliessend werden die gesammelten Messdaten mittels statistischen Methoden, wie zum Beispiel der Korrelations- und Regressions-Analyse ausgewertet. Unter Verwendung von analytischen Modellen wie zum Beispiel der Queueing Analyse werden anschliessend die Berechnungen von Auslastungen, Service- und Wartezeiten sowie entsprechenden Prognosen durchgeführt.

Da sich in der Praxis jedoch erfahrungsgemäss die Businessanforderungen sowie auch die technologischen Gegebenheiten mit an Sicherheit grenzender Wahrscheinlichkeit weiterhin stetig verändern werden, muss innerhalb des Capacity Management die Kapazitätsplanung im gleichem Rhythmus dahingehend angepasst werden – daher empfiehlt es sich sehr das Capacity Management mindesten periodisch, wenn nicht sogar permanent durchzuführen. 

Sie sagen, dass die Virtualisierung im Grunde nur ein Werkzeug des Capacity Managements ist. Also ist ohne Capacity Management Servervirtualisierung nicht realisierbar?

Grundsätzlich könnte man eine Virtualisierung auch ohne ein vorgeschaltetes, pro-aktives Capactiy Management durchführen, aber damit werden im Grunde nur Kosten verursacht, welchen keine wirklich adäquaten Added-Values gegenüberstehen.

Das Ziel, welches mittels einer Virtualisierung verfolgt wird, ist doch im Grunde die Schaffung der Möglichkeit einer dynamischen Bereitstellung von Ressourcen und somit auch deren effizientere Nutzung. Jedoch ändert das Werkzeug „Virtualisierung“ nichts an der Tatsache, dass zwingend vorab die aktuellen sowie vor allem die zukünftig benötigten Ressourcenverbräuche bekannt, berechnet und richtig prognostiziert werden müssen. Zu viele (und somit unnötige kostenproduzierende) oder zu wenige (und somit störungs- und/oder Leistungsineffizienzverursachende) Ressourcen sind in beiden Fällen nicht wirklich optimal – egal ob diese nun in virtualisierter oder in physikalischer Form zur Verfügung stehen.

Wie wird Ihrer Meinung die Virtualisierung in den kommenden zwei Jahren die IT-Landschaft prägen?

Die Virtualisierung für sich selber gesehen wird auf jeden Fall die verschiedenen IT-Landschaften im Bezug auf Ihre technologische Ausrichtung sehr deutlich prägen, jedoch sicherlich nicht die Nutzung der gesamten Bandbreite der nun mittels der Virtualisierungstechnologien zur Verfügung stehenden Optionen und Ausprägungen, wie beispielsweise die Nutzung von "public clouds" für businesskritische oder auch -relevante Daten und Bereiche von Unternehmen.

Unternehmen investieren sehr viel Geld, um vor allem den unbefugten Zugriff auf Ihre Daten zu verhindern sowie auch deren Sicherheit und Integrität zu gewährleisten, da die Daten der Unternehmen einen großen Value für diese darstellen. Außerdem sind im Datenumfeld auch gesetzliche und regulatorische Vorschriften existent, welche hierbei auch zwingend berücksichtigt werden müssen. Alleine schon aus diesen Gründen glaube ich derzeit nicht daran, dass Unternehmen auf absehbare Zeit wirklich gewillt sind, Ihre kritischen Daten in eine "public cloud" zu stellen und diese dort zu verwalten oder gar dort verwalten zu lassen.

Daher wird die gelebte IT-Praxis in den nächsten zwei Jahren wahrscheinlich eher viele kleinere, sogenannte "private clouds" hervorbringen, welche zwar mittels Virtualisierungstechnologien realisiert, sich aber so gut wie immer innerhalb des jeweiligen Unternehmens befinden werden. Mittel- und langfristig ist jedoch zu erwarten, dass die Anbieter von "public clouds" ihre Angebote im Bezug auf Datensicherheit nachbessern werden, wodurch dann auch eine breitere Nutzbarkeit dieser für Unternehmen gegeben sein wird.

Passende Jobs