itService Management
Transcription
itService Management
Heft Nr. 23 - März 2013 - ISSN 1861-9258 - Zeitschrift des itSMF Deutschland e.V. itService Management ■■ Agilität und stabiler Betrieb – Water-SCRUM-Fall vermeiden ■■ Wege zur automatisierten Servicebereitstellung „From ‚DevOops‘ to DevOps“ ■■ Wie viel Agilität verträgt ITSM? - Perspektiven agiler Methoden im IT Service Management ■■ Next Generation IT-Automatisierung ■■ Integration von Providerprozessen bei selektivem Sourcing www.glenfis.ch Editorial Editorial Liebe ITSM-Community, liebe Leserinnen und Leser, der IT-Betrieb und damit das IT Service Management war schon immer gefordert, sich an den Bedarfen der Endbenutzer und Fachbereiche zu orientieren. Eine weitere Herausforderung, die es zu bewältigen gab, sind die sich permanent ändernden Technologien. In der Vergangenheit waren diese Anforderungen im Wesentlichen durch eine systematische Strukturierung des IT-Betriebs zu bewältigen. Aktuell scheint sich Hans-Peter Fröschle, allerdings dieses Paradigma grundverantwortlicher Herausgeber sätzlich zu wandeln. Ausgelöst durch die zunehmende Dynamik der Veränderungen in der Umwelt der IT und eine damit einhergehende steigende Komplexität, scheinen die bisherigen Lösungsstrategien an ihre Grenzen zu stoßen. So sind die etablierten Service-Managementstrukturen und –prozesse vor dem Hintergrund der aktuell zu beobachtenden Entwicklungen wie beispielsweise dem nicht mehr aufzuhaltende Einsatz von mobilen Endgeräten in den Unternehmen (Bring Your Own Device, Consumerization), der zunehmenden Nutzung von Social Media in vielen Unternehmensbereichen, die auch vor der IT nicht Halt macht oder der Tatsache, dass Cloud-Computing als Betriebsmodell eine breite Akzeptanz gefunden haben und sich sicherlich weiter ausdehnen werden, immer häufiger restriktive Faktoren eines kundenorientierten IT Service Managements. Damit ist momentan sicherlich der richtige Zeitpunkt, sich im Sinne eines „Next Generation ITSM“ mit neuen oder ergänzenden Faktoren der Serviceerbringung auseinanderzusetzen. Diese Entwicklung kommt nicht plötzlich und für Insider überhaupt nicht überraschend. Schon seit Jahren diskutieren wir in der ITSM-Community Ansätze wie beispielsweise IT-Industrialisierung oder die rationelle Erbringung kundenspezifischer Services. Das Problem hierbei ist nur, dass wir im IT Service Management schnellstmöglich die Phase der Diskussion neuer Serviceerbringungskonzepte verlassen und kurzfristig in deren Umsetzung einsteigen müssen, um überhaupt die Chance eines effektiven und effizienten Servicemanagements zu wahren. Die Ansätze sind – häufig durch die Übertragung von Lösungsstrategien aus anderen Domänen – verfügbar. Weder DevOps noch agile Methoden oder Automatisierung müssen neu erfunden werden. Diese Ansätze müssen nur konsequent auf das ITSM übertragen und angepasst werden. In den Beiträgen des vorliegenden Heftes möchten wir Ihnen hierzu Praxisbeispiele und die dahinterliegenden Konzepte präsentieren und zur Diskussion stellen. Gerade für IT-Organisationen, die in den letzten Jahren ihre „Hausaufgaben“ erledigt haben und den IT-Betrieb systematisch strukturiert haben, liegen hier neuartige Potenziale, um schneller und kundenorientiert reagieren zu können und um Ressourcen, die bislang mit der Bewältigung von Routineaufgaben gebunden sind, für „kreative“, höherwertige Tätigkeiten zu generieren. Nur darüber kann sich das IT Service Management auch zukünftig als wettbewerbsfähiger Aufgabenbereich definieren. Greifen Sie die innovativen Lösungsansätze auf und entwickeln Sie diese gemeinsam mit uns weiter! Rein zufällig ist dieses Heft zu „Next Generation ITSM“ verbunden mit „Next Generation itSMF“: Durch die Kündigung meines Dienstleistungsvertrags für itSMF Deutschland e.V. werden neue Zuständigkeiten bei der Veröffentlichung der Zeitschrift entstehen. Ich möchte mich an dieser Stelle als Herausgeber bei Ihnen verabschieden und Ihnen für den konstruktiven Dialog der letzten Jahre danken. Mein besonderer Dank gilt Katrin von Goetze und Renate Lahnstein, ohne deren Engagement die itSM nicht das wäre, was sie heute ist. In diesem Sinne wünsche ich Ihnen eine spannende Lektüre und möglichst viele Impulse für die Zukunft des ITSM. Ihr Herausgeber Hans-Peter Fröschle 1 2 Inhaltsverzeichnis Inhalt Fachartikel Agilität und stabiler Betrieb – Water-SCRUM-Fall vermeiden 3 Wege zur automatisierten Servicebereitstellung: „From ‚DevOops‘ to DevOps“ 8 Wie viel Agilität verträgt ITSM? - Perspektiven agiler Methoden im IT Service Management 13 Next Generation IT-Automatisierung 18 Integration von Providerprozessen bei selektivem Sourcing 22 Performance News Quo vadis IT Governance? 26 ITSM = IT Stress Management?! 27 Gut gerüstet für die Zukunft: Hybrid-ITSM 28 Cloud Computing Foundation mit international anerkannter Zertifizierung 29 Neustart für den Service-Desk 30 Projekt P A C E - Sieger itSMF-Projekt-Award 2012 31 Wissen auf Lager legen und die IT-Performance erhöhen 33 Ran an den Speck: Wie sich eine schlanke Serviceorganisation als Schwergewicht im Unternehmen behauptet 34 Change the Business, Run the Business – Leadership in Transition 36 IT-Analytics.Mehr als Dashboards. Besser als BI 38 Flexibilität hat ihren Preis.Fertige ITSM-Applikation statt Toolbox? 39 USU World 2013 40 Editorial Impressum und Vorschau 1 41 itSM Heft 23 - März 2013 2013 Agilität und stabiler Betrieb Agilität und stabiler Betrieb – Water-SCRUM-Fall vermeiden Boris van Benthem 1. Herausforderungen durch neue Geschäftsmodelle Im Lauf der vergangenen Dekaden hat sich die IT in einem evolutionären Prozess gewandelt. Aus einem Forschungsbereich ist mittlerweile eine der wichtigsten Supportfunktionen für aktuelle Geschäftsmodelle geworden. Dies hat atemberaubende Effizienzgewinne durch den Einsatz von IT ermöglicht. Dementsprechend ist sie aus keinem Unternehmen mehr wegzudenken. Gleichzeitig entwickelten sich IT und Telekommunikation auf Seiten der Verbraucher immer weiter von einem Thema für Bastler und Nerds zu Produkten für die breite Masse. So leben wir heute in einer Gesellschaft, deren digitale Durchdringung bereits sehr hoch ist und stetig beschleunigt steigt. Dieser hohe Durchdringungsgrad mit Informations- und Kommunikationstechnologie führt zu neuen Chancen für Geschäftsmodelle. Er erhöht allerdings auch die Erwartungen an deren Qualität und Stabilität. Ganz konkret beginnt dieser Wandel bei der Einführung rein digitaler Modelle wie etwa in der Musikindustrie. Ein weiteres Beispiel ist die Schaffung digitaler Zusatzleistungen für ein etabliertes Kerngeschäft, beispielsweise durch immer komplexer werdende Steuerungsmöglichkeiten in unseren Autos. Die Abhängigkeit der Produktion von der IT reicht bis hin zu Produktinnovationen oder regulatorischen Anforderungen, die eine immer weitreichendere IT-Durchdringung der Geschäftsprozesse – und damit eine immer höhere Handlungsfähigkeit der IT – erfordern. 2. Wachsende Anforderungen an Flexibilität und Stabilität Chancen durch IT Bedarf an Flexibilität Ist die zunehmende Nutzung von IT nun ein Fluch oder ein Segen? Die oben beschriebenen Geschäftsmodelle bieten allesamt große Chancen durch die starke Einbindung von IT, weisen allerdings auch große Risiken durch die hohe Durchdringung auf. Neue Dienste; Entwicklung unklar IT-Basisdienste für Support Prozesse Neue, IT-gestützte Geschäftsmodelle IT-Basisdienste für Kerngeschäft Risiken durch IT Bedarf an Stabilität Abbildung1: Bedarf Flexibilität und Stabilität Cassini Consulting - Stylean Guide und Vorlagen Um sie dauerhaft erfolgreich betreiben zu können, muss die IT sowohl flexibel wie auch stabil sein. Eine IT-Serviceorganisation muss die Anforderungen an Flexibilität und Stabilität ins Gleichgewicht bringen und einen Weg finden, um beides zu gewährleisten. Es ist also keine Entweder-Oder-Frage, vor der IT-Serviceorganisationen stehen, sondern eher, welche Services sie zur Verfügung stellen. Dieser Zusammenhang ist in Abbildung 1 dargestellt. Das Modell lehnt sich an das IT Strategic Impact Grid nach [Nolan & McFarlan 2005] an. Im weiteren Verlauf werden wir uns auf den Bereich der neuen Geschäftsmodelle konzentrieren und den Bedarf sowohl nach flexibler Handlungsfähigkeit als auch stabiler Wertschöpfung durch die IT genauer analysieren. 3.Veränderung ist ein konstanter Zustand Was machen also die Unternehmen anders, die erfolgreich in diesen hochdynamischen Märkten ihre IT-Services nutzen oder anbieten? Sie haben in ihren Organisationen Methoden gestärkt, die es erlauben, Veränderung als konstanten Zustand zu akzeptieren. Gute Beispiele hierfür sind Anbieter von erfolgreichen Webshops, Betreiber großer sozialer Netzwerke oder Hersteller von attraktiven mobilen Apps. Bei diesen Unternehmen kommen agile Entwicklungsmethoden zum Einsatz. Diese erlauben es, schnell auf neue Prioritäten oder Erkenntnisse aus dem Markt reagieren zu können. Diese Funktionen werden, sobald sie fertig entwickelt sind, umgehend auf den Weg in Richtung Produktionssystem gebracht. Während sich agile Methoden in der Softwareentwicklung in vielen Unternehmen schon etabliert haben, gehören Methoden zur schnellen Auslieferung von Funktionen noch zu den aktuellen oder zukünftigen Baustellen. Oft werden Funktionen entwickelt und dann über große Releases zwei- bis viermal im Jahr in Produktion ausgerollt. Das bewahrt die Stabilität des Produktivsystems – allerdings auf Kosten der Flexibilität. 4.Nicht-produktive Funktionen leisten einen negativen Wertbeitrag Kommen neue Funktionen nicht zeitnah an den Markt, so entwickeln sie nicht ihren Nutzen. Im besten Fall liegen sie als nicht verwendete Assets herum. Die getätigte Investition bleibt ungenutzt. Gleichzeitig kumulieren sich die entwickelten Funktionen allerdings auch zu einer großen Änderungsmenge, die ein hohes Risiko beim Update der Systeme darstellt. Vielleicht hat der Mitbewerber gleichzeitig gerade eine ähnliche Änderung im Markt platziert. Damit verliert die entwickelte Funktion an Innovations- und Zugkraft für neue Kunden oder Transaktionen. Auch das Feedback vom Markt bleibt aus, und kann nicht in den Entwicklungsprozess zurückgeführt werden. So bleibt die Attraktivität der Funktionen lediglich Spekulation darüber, was der Kunde eigentlich haben will. Die ausbleibende Nutzung führt, kombiniert mit den sich aufbauenden Risiken, dazu, dass der Wertbeitrag nicht ausgerollter Funktionen am Ende negativ ist. 3 Agilität und stabiler Betrieb Folgende Bereiche sind zur Ausrichtung der Organisation hin zur Kombination von Stabilität und Flexibilität zu betrachten: • Das Produkt als Service begreifen • Vorlaufzeiten betrieblicher Themen priorisierbar machen • Frühe Übernahme von Verantwortung • Jeder steht für die Konseqeuenzen seines Handelns gerade Das Risiko von Änderungen am Produktivsystem muss durch den größeren Mehrwert der neuen Funktionalität gegenfinanziert werden. Ziel ist es also, Funktionen schnell in Produktion zu bringen und dabei die Stabilität der Plattform zu gewährleisten. Was aber zahlt auf diese Kombination von hohen Änderungsraten und der Gewährleistung eines stabilen Systems ein? 6.1 Das Produkt als Service begreifen Im agilen Vorgehen nach Scrum gibt es den Product Owner, der die Weiterentwicklung der Funktionen eines Produktes verantwortet. Allerdings werden in vielen Organisationen statt klassischer Produkte eher Dienstleistungen (also Services) bereitgestellt. Dies gilt in besonderem Maß für IT-Organisationen, wo ausschließlich Dienstleistungen erbracht werden. Und diese bestehen (für alle ITIL-Experten ist das nichts Neues) aus den Produkteigenschaften (Utility) und der damit verknüpften Gewährleistung (Warranty). Nur beide zusammen machen einen Service wertstiftend. Konzentrieren wir uns bei unserem IT-Service also zu stark auf die Produkteigenschaften und vernachlässigen die Gestaltung der Gewährleistung, vernachlässigen wir die Wertschöpfung in ihrer Gesamtheit. 5.Welche Elemente verbinden Stabilität mit Flexibilität? Im Wesentlichen sind es drei Hauptelemente, die die Verbindung aus Stabilität und Flexibilität für eine IT sicherstellen: • Automatisierung und Vereinfachung der Lieferkette von Software • Lose gekoppelte und modularisierte Architektur • Organisation und Prozesse, die auf Veränderung und Verantwortungsübernahme ausgerichtet sind Die Automatisierung der Lieferkette der Software ermöglicht es, den Lieferprozess häufig und schnell zu durchlaufen. Auf Knopfdruck werden Umgebungen abgerissen und wieder aufgebaut. Auch die Installation selbst wird so schon auf Umgebungen vor der Produktivlandschaft verprobt, und ist damit risikoärmer. Allerdings gibt es eine solche automatisierte Lieferkette auch nicht umsonst. Sie ist Teil der Entwicklung eines Gesamtservice. Dieser Fehler wird immer wieder begangen, obwohl die Erkenntnis nicht wirklich neu ist. Wie können wir also diese Tendenz zur Vernachlässigung der Warranty-Kriterien vermeiden oder zumindest abmildern? Alle Beteiligten am Design und der Entwicklung neuer Services müssen für die Bedeutung von Verfügbarkeit, Performance, Sicherheit und Kontinuität sensibilisiert werden. Eine lose gekoppelte Architektur ermöglicht es, Module unabhängig voneinander zu entwickeln und auszurollen. Nur wenn die Änderungen überschaubar bleiben und keine Abhängigkeiten untereinander haben, können die Artefakte getrennt voneinander durch die Lieferkette gebracht werden. Auch dieser Baustein erfordert ein sauberes Design und stellt Architekten und Entwicklerteams vor die Herausforderung, sehr diszipliniert die entsprechenden Designpattern einzusetzen. Nur so können entsprechende User Stories Einzug in das Backlog der Entwicklungsteams halten und Definitions of Done sinnvoll gesetzt werden. Hierzu muss in jedem einzelnen Mitarbeiter das Bewusstsein entstehen, für die gesamte Wertschöpfungskette mitverantwortlich zu sein. Die folgenden Abschnitte zeigen Möglichkeiten auf, den Blick für das Ganze zu schärfen und die Konsequenzen erlebbar zu machen. Beide Themen für sich können ganze Bücher füllen (und haben dies schon getan). Daher soll hier eine grobe Zusammenfassung genügen. Wir werden uns im Verlauf des weiteren Artikels auf das dritte Hauptelement konzentrieren, die organisatorische Ausrichtung und die Optimierung der Prozesse. Die Beschreibungen basieren auf der praktischen Erfahrung mehrerer Organisationsprojekte in verschiedenen Unternehmen und der Beobachtung weiterer erfolgreicher IT-Organisationen. 6.2.Vorlaufzeiten betrieblicher Themen priorisierbar machen Betriebliche Vorbereitungen, vor allem auf Infrastrukturebene, haben oft relativ lange Laufzeiten. Ob es sich nun um die Beschaffung neuer Hardware, Synchronisierung von Maßnahmen verschiedener Dienstleister oder die Anpassung und Erweiterung laufender Verträge han- 6.Organisatorische Ausrichtung auf Veränderung und Verantwortungsübernahme Rein organisatorische Veränderungen bringen vor allem in klassisch ausgerichteten IT-Organisationen schnell zählbare Fortschritte. So können bereits optimierte Releasezyklen von 6-12 Releases im Jahr eine Hilfe darstellen, bevor überhaupt die oben genannten, eher technisch geprägten Maßnahmen notwendig werden. Komplexität der Veränderung 4 Diese organisatorischen Maßnahmen ermöglichen die ganzheitliche Betrachtung der Prozesse, angefangen von ihrer Idee bis hin zur Realisation der Wertschöpfung am Markt. Hierbei werden Arbeitsweisen hinterfragt, Verantwortlichkeiten neu geschnitten und Sichtgrenzen zwischen Abteilungen abgebaut. Eine Reihe dieser Konzepte entstammen den aktuell laufenden Diskussionen der sogenannten DevOps-Bewegung. Erweitert werden diese Ansätze um Erfahrungen und pragmatische Umsetzungsvorschläge. Neue Server Komponente DB Migration Neuer Tablespace Firewall Freischaltung Release Date Änderung Tomcat Port Vorlaufzeit bis Releasedatum 2 Abbildung 2: Der Ops Funnel ermöglicht priorisierte Vorbereitung auf den Release Termin 25.02.2013 Cassini Consulting - Style Guide und Vorlagen itSM Heft 23 - März 2013 delt – es können gerne einige Wochen oder Monate ins Land gehen, bis die Themen umgesetzt sind. ServiceLifecycleManagement Nun treffen diese Vorlaufzeiten auf den zwei bis drei wöchigen Rhythmus agiler Scrum-Teams. So entsteht bei allen Beteiligten schnell der Eindruck, dass hier Fortschritte eingebremst werden. Um diesen Effekt zu vermeiden, müssen wir uns den real existierenden Einschränkungen stellen, diese verstehen und dann in die Priorisierung der User Stories einpreisen. Betrachten wir diese Themen also genauer. Je näher man dem Rollout neuer Funktionen in Produktivsysteme kommt, desto weniger Komplexität kann neu in die Produktivsysteme eingebracht werden. Bemerkt man also erst zum Ende eines Sprints, dass etwa erweiterte Tablespaces der Datenbank erforderlich werden, kann kaum noch darauf reagiert werden. Besser ist es also, diese Themen frühzeitig zu erkennen und zu planen. Die hier beschriebene Abhängigkeit zwischen benötigter Rüstzeit und verkraftbarer Komplexität ist im sogenannten Ops Funnel (Abbildung 2) dargestellt. Anhand der erkannten Abhängigkeit kann nun beschrieben werden, welche Änderungen mit welchem Vorlauf bekannt sein müssen. So sollte beispielsweise der Bedarf nach neuen Hardwarekomponenten bei der Pflege des Product Backlog durch den Product Owner, gemeinsam mit dem Team, aufgedeckt werden. Je nach Priorisierung des Themas und erwartetem Sprint zur Umsetzung wird der Bedarf im Ops Funnel platziert und auf die Reise der betrieblichen Vorbereitung geschickt. Sollten in der Zwischenzeit weitere Themen auftauchen, die mit der Bearbeitung der ersten Anfrage konkurrieren, sind die Auswirkungen sichtbar. Sie können durch den Product Owner im Sinne der Produktprioritäten aufgelöst werden. Besonders in skalierten Organisationen, in denen mehrere Entwicklungsteams in dieselbe Produktivumgebung einliefern müssen, hilft dieser Mechanismus bei der ganzheitlichen Betrachtung und Priorisierung der umzusetzenden Funktionen. Da nicht davon auszugehen ist, dass alle Lieferungen eines ScrumTeams immer zu langwierigen Anpassungen von Produktionssystemen führen, können durch Repriorisierung entsprechende User Stories ohne betriebliche Auswirkungen vorgezogen werden. Dieser Mechanismus hilft also dabei, Engpässe zu identifizieren und über einen Dialog mit dem Product Owner aufzulösen. Sind die langlaufenden Themen erst einmal identifiziert und niedergeschrieben, so kann auch an deren Verkürzung gearbeitet werden. Laufzeiten von Hardwarebeschaffungen können beispielsweise über geeigneten Einsatz von Virtualisierung abgefedert werden, organisatorische Durchlaufzeiten von Firewall-Freischaltungen können optimiert werden, oder man kümmert sich um die Schaffung geeigneter Automatismen. Diese Maßnahmen konkurrieren allerdings wieder mit der Bearbeitung der im Ops Funnel befindlichen Themen. Daher ist eine Abstimmung mit dem Product Owner hierzu notwendig und sinnvoll. Er kann sehr gut bewerten, welche Lieferhürden für die zukünftige Produktentwicklung am ehesten den Entwicklungsfortschritt einbremsen. Mit Service Lifecycle Management die IT-Geschäftsstrategie optimieren Sie kennen die Herausforderung, IT-Services in ihrem betrieblichen Alltag zu organisieren. Dafür benötigen Sie eine übergreifende Sicht auf alle Betriebsabläufe – auch von außen betrachtet. Nutzen Sie unsere Erfahrungen, Ihren Service Lifecycle weiter zu optimieren und sich für eine industrialisierte IT-Produktion zu rüsten. Ihre Kunden profitieren von einem standardisierten und automatisierten IT-Betrieb. Unsere Leistungen für Ihren Service Lifecycle • StrategieundDesign • ProduktionundTransition • BetriebundMonitoring Ein sinnvoller Einsatz des Ops Funnels kann allerdings nur dann [email protected] www.materna.de Agilität und stabiler Betrieb stattfinden, wenn die richtigen Know-how-Träger am Tisch sitzen und die zu bearbeitenden Themen korrekt identifiziert sind. Daher müssen Betriebsmitarbeiter direkt in den entsprechenden Planungsmeetings mitarbeiten. 6.3 Frühe Übernahme von Verantwortung In frühen Phasen der Entwicklung neuer Funktionen oder Systeme ist es wichtig, über einen hohen Grad an Flexibilität zu verfügen. So können neue Dinge ausprobiert und Technologien verprobt werden. Auch das Debugging der Anwendungen bis auf sehr tiefe Ebenen der entworfenen Systeme ist notwendig. Je weiter sich die Funktionen allerdings in Richtung Produktivsystem bewegen, desto mehr wächst die Bedeutung der Stabilität. Dies führt oft dazu, dass Releases durch viele Hände gehen und “als Paket über den Zaun geworfen” werden. Ziel muss es sein, diesen abrupten Verantwortungsübergang so fließend und kontinuierlich zu gestalten, wie es geht. Nur so kann eine zu allen Phasen des Entwicklungsprozesses passende Balance aus Flexibilität und Stabilität entstehen. Kombinieren wir nun den zeitlichen Verlauf eines Releases über unterschiedliche Umgebungen mit den Systembereichen eines IT-Service, so entsteht ein in Abbildung 3 exemplarisch dargestellter kontinuierlicher Übergang. Verteilen wir nun die Verantwortung für die verschiedenen Bereiche an Betriebs- und Entwicklungsteams, so ist es sinnvoll, Betriebsteams möglichst frühzeitig die Verantwortung für bestimmte Teile der Entwicklungsumgebungen, Integrations- und Referenzsysteme zu geben. So wird frühzeitig Kommunikation zwischen Entwicklung und Betrieb initiiert. Der Bedarf nach neuen Servern oder FirewallFreischaltungen kommt so rechtzeitig bei den Betriebsteams an, und diese können geregelt bereitgestellt werden. Diese Anpassungen sollten umso flexibler geschehen, je weiter vorne sich die Umgebung in der Kette befindet. In jedem Fall bleibt allerdings die Erkenntnis, dass andere Umgebungen ebenfalls vorbereitet werden müssen, und so können diese Änderungen auch schon auf den Weg gebracht werden. So wird der im vorherigen Abschnitt gezeigte Ops Funnel mit Leben gefüllt. Durch die Nähe zwischen Betrieb und Entwicklung und der Betei- Applikation und Schnittstellen Service Stack 6 Basisdienste und Datenbank Hohe Veränderungsraten führen zum Bedarf an Flexibilität Betriebssystem Steigender Anspruch an Verfügbarkeit und Performance erfordern höhere Stabilität Infrastruktur und Virtualisierung Entwicklungssysteme Integrationssysteme Referenzsysteme Produktivsysteme Reifegrad des Service 25.02.2013 Cassini Consulting - Style Guide und Vorlagen Abbildung 3: Fließender Übergang zwischen Flexibilität und Stabilität 3 ligung der Betriebsteams am Design des Services werden auch die Voraussetzungen für bessere Bedienbarkeit des Services geschaffen. Wartbarkeit und Betreibbarkeit des Services sind umso besser, je mehr Mitsprache der Betrieb bei den „Schaltern und Hebeln“ schon beim Design hat. Vor allem im Störungsfall ist dies Gold wert, und sichert die Verfügbarkeit des Services ab. Darüber hinaus lernen alle Beteiligten schon früh den neuen oder geänderten Service kennen, so dass Wissen über reguläres und irreguläres Verhalten aufgebaut werden kann. Ebenso wie der Betrieb am Entwicklungsprozess beteiligt wird, muss auch das Entwicklungsteam in den Betrieb des Services eingebunden werden. 6.4.Jeder steht für die Konsequenzen seines Handelns gerade Die Entwickler sind in vielen ernsthaften Störfällen diejenigen, die am besten diagnostizieren können, wo etwas falsch läuft und mit welchen Auswirkungen zu rechnen ist. Der Product Owner wiederum kann am besten entscheiden, welche Fehler akzeptabel sind und welche sofort behoben werden müssen. Also sind beide Rollen auch nach einem erfolgten Go-Live der Funktion oder des Services weiterhin in die Wertschöpfung des Services einzubinden. Sie sollen hier Verantwortung übernehmen. Müssen Probleme analysiert oder Fehler behoben werden, zahlen Product Owner und Entwicklerteam mit ihrer Velocity - einer sehr harten Währung. Daher wird über die Zeit das Bewusstsein für die Erfordernisse eines stabilen Services wachsen. Gemeinsam werden dann Lösungen erarbeitet, die schon im Design Rücksicht auf betriebliche Aspekte nehmen. So wird die Anfälligkeit für Störungen sukzessive abgebaut. Besonders gravierend sind diese Effekte bei Services, die rund um die Uhr zur Verfügung stehen müssen. Hier ist es nicht nur die Velocity, mit der für Schwachstellen im Design bezahlt wird. Zusätzlich kommen Einsätze in der Rufbereitschaft für Product Owner und Entwicklerteams dazu, um bei Störungen direkt Hilfe für die Betriebsteams bereitstellen zu können. So wächst auch mit jeder produktiven Störung das Bewusstsein, dass der Service eben nicht nur aus Funktionen und „coolen Features“ besteht, sondern zur vollen Wertschöpfung eben auch die entsprechende Gewährleistung gehört. 6.5.Nur gemeinsam ist ein wertschöpfender Service möglich Alle aufgeführten Maßnahmen zusammengefasst zahlen darauf ein, dass vom Design bis in den Betrieb eines Services alle Parteien Hand in Hand arbeiten. Alle übernehmen Verantwortung - sowohl für die Flexibilität als auch für die Stabilität eines Services. Nur so können eine wertschöpfende Dienstleistung für den Kunden erbracht und neue Märkte erobert werden. Dabei ist allerdings immer zu berücksichtigen, dass die aktuelle Situation jedes Unternehmens unterschiedlich ist und sich die konkreten Maßnahmen individuell anpassen müssen. Holen Sie ihre Mitarbeiter ab, wo itSM Heft 23 - März 2013 Agilität und stabiler Betrieb sie momentan sind und begleiten Sie sie auf dem Weg der Umsetzung. Die oben beschriebenen Verfahren sind nur der erste Schritt auf dem Weg in Richtung kontinuierlichem Deployment und DevOps. Ist aber erst das Grundverständnis für alle Bereiche in den Köpfen der Mitarbeiter verankert, strebt die gesamte Organisation danach, weitere Schritte umzusetzen. 7. Was wird uns also morgen beschäftigen? Die oben beschriebenen Mechanismen passen vor allem dann, wenn die Mitarbeiter innerhalb einer Organisation agieren. Oft sind allerdings verschiedene Dienstleister mit der Erstellung und dem Betrieb eines Services beauftragt. Da stellt sich sehr schnell die Frage, wie Dienstleisterverträge gestaltet sein müssen, um die optimale Wertschöpfung zu erlangen. Fazit: Die ersten Schritte gehen, Flexibilität und Stabilität vereinen. Die Vereinigung von Flexibilität und Stabilität ermöglicht heute und in Zukunft wertschöpfende Services. Sie sichert Marktanteile und festigt die Kundenbeziehungen. Erste Schritte wollen nun unternommen werden. Fangen Sie an, die ganzheitliche Sicht auf den Service zu verankern. So werden sukzessive die Schwachstellen – seien sie technisch oder organisatorisch – aufgedeckt. Durch die Fokussierung auf die ganzheitliche Wertschöpfung werden diese Hürden dann priorisiert aus der Welt geschafft. So erreichen Sie die Fähigkeiten, die Ihren Geschäftserfolg nachhaltig unterstützen. Literatur [Nolan & McFarlan 2005] Nolan, R.; McFarlan, F.: Information Technology and the Board of Directors; Harvard Business Review 10/2005. Durch die Absicherung geschäftlicher Risiken (Gewährleistung auf der einen und Pönalen für Minderleistung auf der anderen Seite) entstehen zwischen Organisation und Dienstleister schnell hohe Mauern – und die stehen dann dem Balanceakt zwischen flexibler Servicegestaltung und stabiler Serviceerbringung im Weg. Welches sind also die Dienstleistungsmodelle von morgen? Klar ist, dass die klassischen Rollen innerhalb der IT immer mehr verschwimmen werden. Durch Virtualisierung, Automatisierung und die Entkopplung von der tatsächlich vorhandenen Hardware werden in Zukunft immer mehr Teile eines Services programmiert. Infrastrukturen, Netzwerke und Datenstrukturen werden heute schon (und zukünftig immer mehr) durch Beschreibungen des Sollzustandes hergestellt. Auf Seiten der Mitarbeiter werden hier ganz neue Skillprofile entstehen. Tendenziell müssen immer mehr Technologien und Blickwinkel beherrscht werden. Dieser Trend wird vorerst anhalten, bis eine Konsolidierung der neu entstandenen Sprachen und Technologien einsetzt. Die Zukunft hat also noch einige spannende Themen für alle IT-Verantwortlichen und IT-Mitarbeiter parat. Boris van Benthem ist Senior Consultant bei Cassini Consulting. In zahlreichen Projekten im Umfeld der Organisations- und Prozessberatung konnte er seine Kenntnisse und Fähigkeiten für seine Klienten gewinnbringend einsetzen. Sowohl in großen Konzernen als auch bei mittelständischen Unternehmen hat Boris van Benthem IT-Serviceorganisationen aufgebaut und optimiert. In diesem Zuge war es auch seine Aufgabe, die ITServiceorganisation eines webbasierten Kommunikationsportals mit einer agilen Softwareentwicklung zu verknüpfen. Boris van Benthem ist studierter Wirtschaftspsychologe und hat einen Master in E-Business. Seit 2007 ist er als Berater bei Cassini Consulting. Zu seinen Klienten gehören Organisationen wie die Deutschen Post DHL, Coca Cola oder Talanx. Boris van Benthem Cassini Consulting Bennigsen-Platz 1 40474 Düsseldorf [email protected] www.cassini.de Service Desk Academy. Le r n e n durch Er l e b e n . TeamSeminare Neu: Stressmanagement ITIL® & Good Practice Training & Coaching Accredited Training Organisation Accredited Courseware Provider IT Service Mitarbeiter & Manager www.servicedesk-academy.de 7 8 „From ‚DevOops‘ to DevOps“ Wege zur automatisierten Servicebereitstellung: „From ‚DevOops‘ to DevOps“ Frank Scheffler Wie kommt die Anwendung schnell zum Kunden? – Für jeden Dienstleister im IT Service Management ist das eine Schlüsselfrage. Modellbasierte Automatisierung von IT-Service-Bereitstellungen beschleunigt die Durchsatzgeschwindigkeit und verringert Ressourcenvergeudung, indem Entwicklung und Betrieb durch eine gemeinsame Schnittstelle verbunden werden und von Anfang an an einem Strang ziehen. Ergebnis: Mehr Qualität und Geschwindigkeit – die Idee ist schneller und sicherer beim Kunden, und der Dienstleister kommt früher zum Cash-Back. IT ist kein Selbstzweck. Wer mit Informationstechnologie arbeitet, verfolgt damit konkrete Ziele: Der Anwender, der sie einsetzt, erwartet eine optimale Unterstützung seiner Geschäftsprozesse, die Nutzen und Mehrwert für sein Unternehmen generiert; der Dienstleister für das IT Service Management, der sie bereitstellt und betreibt, will diese Aufgabe so schnell, effektiv und zur Zufriedenheit seiner Kunden erfüllen, dass er damit gutes Geld verdient. Ein Schlüsselfaktor auf diesem Weg von „concept to cash“, also von der als Ausgangspunkt genommenen Vision oder Idee, eine bestimmte Lösung möglich zu machen, bis zur erfolgreichen und gewinnbringenden Realisierung, ist die Geschwindigkeit. Reibungsflächen und Konfliktfelder, die ein Projekt ausbremsen und die Zeitachse unnötig in die Länge ziehen können, lauern insbesondere im Übergang vom Entwicklungsstadium zur Phase der Inbetriebnahme, also zwischen „Development“ und „Operations“. Ein Grund für mögliche Brüche liegt in den unterschiedlichen Arbeitsweisen: Entwickler bevorzugen angesichts der wachsenden Komplexität moderner Entwicklungsprojekte das Scrum-Framework als Vorgehensmodell, das empirisch, inkrementell und iterativ operiert, statt auf Lasten- und Pflichtenhefte mit detaillierten vorformulierten Vorgaben zu setzen; im Operations-Bereich setzt wiederum die Best-Practice-Sammlung der IT Infrastructure Library (ITIL) de facto international den Standard. Die unterschiedliche Sprache stellt ein weiteres Reibungsfeld dar; der Entwickler fokussiert sich auf JavaEinbindung oder Web Services, während den Operator Fragen der Datenbank-Indexierung, der Verfügbarkeit oder der Größe und Dimensionierung umtreiben. Um solche Konflikte zu überwinden, müssen Development und Operations zusammengebracht werden zu „DevOps“, um voneinander zu lernen und gemeinsam die wichtigste Frage im Auge zu behalten: 1.Was sind die Bedürfnisse des Kunden? Was will der Kunde – diese Frage steht im Mittelpunkt. Die Bedürfnisse der Kunden von IT-Services lassen sich als Pyramide darstellen. Die Basis bilden dabei die grundlegenden Ansprüche an Sicherheit und Kontrolle; darauf aufbauend die erweiternden Anforderungen an die Flexibilität von IT-Services; an der Spitze schließlich die innovativen Elemente, die letztlich den Kunden begeistern und den Ausschlag geben beim Cash-Back. Grundlegende Ansprüche an Sicherheit und Kontrolle, die nicht zur Debatte gestellt werden können, sind fehlerfreie und stringente Code-Qualität, die Stabilität des Systems, das jederzeit sicher laufen muss, die Nachvollziehbarkeit von Änderungen und Dokumentation, ferner die Reproduzierbarkeit von im System ausgeführten Aktionen, also das Prinzip, dass gleiche Aktionen immer zum gleichen Ergebnis führen müssen, sowie die maximale Verfügbarkeit und Störungsfreiheit des IT-Systems. Flexibilität gewinnt der Kunde durch hohe Performanz des Systems, das leistungsstark genug sein muss, um allen Anforderungen gewachsen zu sein, durch kurze Bereitstellungszeiten, die in Stunden und nicht in Wochen gemessen werden sollten, durch Skalierbarkeit – die Fähigkeit, die Zahl der User rasch und ohne großen Aufwand zu erweitern – und generell durch hohe Anpassungsfähigkeit: Es muss möglich sein, innerhalb des Systems Wechsel und Umstellungen rasch und flexibel vorzunehmen, ohne jedesmal von neuem die Entwicklung damit befassen zu müssen. Schließlich die Innovation, das also, was ein neues IT-System einzigartig macht und den Kunden überzeugt: Die wesentlichen Faktoren hierfür sind echter Mehrwert („Business Value“), der grundsätzlich andere, bessere Prozesse einführt als die zuvor praktizierten – ein Beispiel hierfür war der Übergang vom analogen zum Online-Banking; ferner „Time to Market“ oder der Wettbewerbsvorteil, der sich daraus ergibt, eine Innovation schneller als die Konkurrenz einzuführen, und schließlich die Diversifikation und Vielseitigkeit des Systems. Sicherheit, Kontrolle und Flexibilität sind notwendige und wichtige Voraussetzungen, aber der Innovationswert entscheidet letztlich über den Zeitpunkt des „concept to cash“. Je schneller die eingesetzte Arbeitsleistung zum Kunden gebracht wird, desto eher wird der Aufwand rekapitalisiert. Die Herausforderung besteht also darin, eine höhere Durchsatzgeschwindigkeit bei gleicher Qualität und Stabilität zu erreichen. 2.Wie erreichen wir kürzere Durchlaufzeiten? Aus der schlanken Produktion in der Industrie stammt das Instrument des „Value Stream Mappings“: Die Wertschöpfungskette wird analysiert und auf Möglichkeiten zur Zeiteinsparung durchforstet. Das Instrument lässt sich vom „lean manufacturing“ auf „lean IT“ übertragen. Eine typische Wertschöpfungskette im IT Service Management könnte beispielsweise so aussehen: Die Testläufe sind dabei zum einen notwendig und zum anderen oft kaum zu beschleunigen – sie brauchen ihre Zeit. Beschleunigung lässt Value Stream Mapping ... Release testen Releasefreigabe Release Build Übergabe an Operations Release prüfen Freigabe Deployment Release Deployment Abbildung1: Value Stream Mapping itSM Heft 23 - März 2013 „From ‚DevOops‘ to DevOps“ sich daher am ehesten dadurch erreichen, dass die Zahl der Übergänge reduziert und unnötige Übergaben wegoptimiert werden. Mit anderen Worten: Es geht darum, wertschöpfende und nicht-wertschöpfende Tätigkeiten sauber zu trennen und die nicht-wertschöpfenden nach Möglichkeit zu eliminieren. Taiichi Ohno, der Erfinder des Toyota-Produktionssystems und Vater der nicht nur in der Automotive-Industrie längst zum Standard gewordenen logistischen Basismethoden Kanban und Just-in-timeProduktion, hat das zugrundeliegende Prinzip in einem vielzitierten Lehrsatz auf den Punkt gebracht: „All we are doing is looking at the timeline, from the moment the customer gives us an order to the point where we collect the cash. And we are reducing the timeline by reducing non-value added waste.” 2.1.„7 Wastes“ in industrieller Produktion und IT-Service-Bereitstellung Die Beschleunigung der Durchlaufzeit von der Auftragsvergabe bis zum Cash-Back verlangt demzufolge die Eliminierung aller Bestandteile der Wertschöpfungskette, die keinen Mehrwert für den Kunden erzeugen, um die Produktivität zu steigern. Die von Taiichi Ohno begründete Produktionsweise hat sieben solcher Bestandteile identifiziert, die es vor allem zu eliminieren gilt: Materialbewegungen, Lagerbestände, Produktionsschritte, Wartezeiten, Verarbeitung, Über- produktion sowie Defekte und Ausschuss. Diese „7 Wastes“, die in der industriellen Produktion zum Allgemeingut geworden sind, lassen sich auch auf die IT-Service-Bereitstellung übertragen: Überflüssige Materialbewegungen auf Produktionsstraßen entsprechen dann unnötigen Übergaben, z.B. mehrfache Mitteilungen und Abstimmungen bei der Datenbankeinrichtung; zu hohe Bestände kann man mit dem zu häufigen Herunterfahren von IT-Services für Wartung und Änderungen vergleichen; überflüssige Produktionsschritte kommen zu häufigem Task Switching gleich, wenn Changes in zu vielen Schritten erfolgen, die jedesmal neues Einarbeiten in verschiedene Aufgaben verlangen; Zeitverluste durch Wartezeiten entsprechen Verzögerungen bei der IT-Bereitstellung, Verarbeitung der Wiedereinarbeitung, Überproduktion dem Vorhalten ungenutzter Ressourcen und Defekte und Ausschuss in der Produktion den gefürchteten „Incidents“ im IT-Bereich. 2.2.Automatisierung identifiziert und minimiert Ressourcenvergeudung „Speed is the absence of waste“, hat Mary Poppendieck, engagierte Verfechterin der “schlanken” Software-Entwicklung, das für beide Disziplinen gültige Prinzip zusammengefasst: Beschleunigung wird durch die Vermeidung von Ressourcenvergeudung erreicht. Der beste Weg zu diesem Ziel ist die Automatisierung von Prozessen: Konse- automaIT ® INTELLIGENT DATA CENTER AUTOMATION 80% der Arbeitszeit geht in der IT mit manuellen Arbeitsabläufen verloren. Automatisieren Sie Ihr Rechenzentrum mit automaIT®! 9 10 „From ‚DevOops‘ to DevOps“ quente Automatisierung identifiziert und minimiert alle Formen von „Waste“. Kapselung von Informationen und Logik pro Configuration Item fördert zugleich die Ideen von ITIL. In der Softwareentwicklung ist die Automatisierung schon recht weit gediehen. Wo aber soll man beim Betrieb von IT-Services ansetzen? Die Best Practice-Sammlungen der ITIL geben dafür nicht allzu viel her. Ein auf diese Weise gewonnenes Modell ist in der Lage, einen ZielZustand zu beschreiben und zugleich den aktuellen Ist-Zustand laufend zu dokumentieren. Die Wiederverwendbarkeit von Informationen erhöht die Konsistenz bei systemübergreifenden Konfigurationen. Beispiel einer solchen Wiederverwendung sind Informationen, die zur Konfiguration einer Datenbank und des zugehörigen Datenbankzugriffs im Application Server notwendig sind. Ein wesentlicher Vorteil des modellbasierten Ansatzes ist die Automatisierung von Tests, die auf die jeweilige Modellebene heruntergebrochen und daher wesentlich realitätsnäher erfolgen können. Wird beispielsweise eine Datenbank mit einem Application Server mit vorgeschaltetem Load Balancer verbunden, kann beispielsweise in einem ersten Testlauf der Zugriff mehrerer Application Server auf die Datenbank geprüft werden, während bei der Abnahme unter realistischen Bedingungen das Zusammenspiel von Load Balancer, Application Server und Datenbank getestet wird; in der Produktion schließlich agieren Load Balancer, mehrere Application Server und die Datenbank sicher zusammen. Ein möglicher Ansatz für flexible Automatisierung ist die modellbasierte Provisionierung. IT-Services setzen sich aus einzelnen „Configuration Items“ (CI) zusammen, die bestimmte Attribute haben und bestimmte Operationen ausführen – Datenbanken oder Application Server zum Beispiel. Manche dieser Configuration Items werden von mehreren Services benötigt. Der modellbasierte Ansatz geht daher mit bewährter Methodik objektorientiert, abstrahierend und modular vor; er ist kooperativ durch intensive Kommunikation mit möglichst vielen Beteiligten und strebt danach, möglichst kleine Einheiten zu größeren zusammenzusetzen (kompositär). 2.3 Flexible Automatisierung mit modellbasiertem Ansatz Der modellbasierte Ansatz ist flexibel, weil er keine Einschränkungen in der Vielfalt der Abbildungen kennt und mit skalierbaren CIs arbeitet; und er zeichnet sich durch Erweiterbarkeit und Wiederholbarkeit aus – mittels objektorientierter Modellierung von IT-Services ist beispielsweise der Wechsel hin zu einer Hochverfügbarkeitslösung mit mehreren verteilten Rechenzentren sehr einfach möglich. Ein weiterer wichtiger Punkt ist die Ausführbarkeit: Zusammen mit den CIs wird auch die dazugehörige Ausführungslogik vorgehalten. Die 2.4.„DevOps“: Infrastruktur als Code Je höher die Bereitstellungsebene, desto häufiger ändern sich die Anforderungen. In Produktkonfiguration und Anwendungs-Deployment sind Änderungen an der Tagesordnung: Ein Datenbank-Cluster wird benötigt, um die Verfügbarkeit zu erhöhen; für die Speicherung der GPS-Daten wird noch eine NoSQL-Datenbank verlangt oder die Abbildung 2: Modellbasierter Ansatz itSM Heft 23 - März 2013 „From ‚DevOops‘ to DevOps“ Berechnung des Jahresabschlusses mit SAP-FI über einen Enterprise Service Bus soll ermöglicht werden. Der modellbasierte Ansatz kann mit neuen Services und Änderungen auch in komplexen verteilten Umgebungen schnell und effizient umgehen, weil das Modell jederzeit erweiterbar und praktisch „niemals fertig“ ist. Die infrastrukturelle Abbildung wird selbst zum Code, der bei Änderungen wie eine Software behandelt wird, und schließt damit die Kluft zwischen Entwicklung und Betrieb. Diese Struktur erlaubt den übergreifenden Einsatz bewährter Entwicklungspraktiken wie Software Configuration Management oder Release Tracking. Durch die konsequente Automatisierung finden Tests laufend statt, indem man den automatisierten Prozess laufen lässt; die Testumgebung muss nicht bei jeder Änderung komplett neu aufgesetzt werden. Das Modell wird dabei an den Lebenszyklus der Anwendung gekoppelt; Anwendung und Modell durchlaufen dieselben Stufen, es gibt keine disjunkten, nicht eingebundenen Anwendungen mehr. Auf diese Weise wird ein „DevOps“-Prozess etabliert: Entwicklung und Betrieb haben eine gemeinsame Schnittstelle und ziehen an einem Strang. 3.No more Waste… Die Vorteile dieses Prozesses lassen sich an der Checkliste des „7 Wastes“ gut ablesen: Die Zahl der Übergaben wird deutlich reduziert, weil die Bereitstellung von Datenbanken und anderen Configuration Items automatisiert anhand des Modells erfolgt; langwierige Wartungsstillstände entfallen ebenfalls, da Änderungen komplett „am Stück“ erfolgen können; das Expertenwissen steckt im Modell, das zeitfressende Hin- und Herschieben von Changes bis zu ihrer vollständigen Realisierung entfällt. Das bedeutet zugleich ein Weniger an Task Switching; automatisierte Kooperation im „DevOps“-Prozess ermöglicht den Einsatz von cross functional teams, die das gesamte Expertenwissen, das für etwaige Changes erforderlich ist, an einem Ort vereinigen. Dass es aufgrund dieser Faktoren generell weniger Verzögerungen gibt und auch weniger Reibungsverluste durch Wiedereinarbeitung entstehen, liegt auf der Hand. Ungenutzte Ressourcen sind im modellbasierten Ansatz sofort zu identifizieren; was wegfallen kann, ist jederzeit transparent. Und weil das zentrale Modell konsistent ist, verhindert es wirksam Incidents aus Übergabefehlern, Misskonfigurationen oder anderen Fehlerquellen aus der manuellen Bereitstellung. Als Ergebnis lässt sich festhalten: Im automatisierten, modellbasier- Dev Infrastructure as Code Abbildung 3: “DevOps”-Prozess Ops ten „DevOps“-Prozess sind Entwicklung und Betrieb von Anfang an koordiniert und arbeiten zusammen; der Betrieb und seine Anforderungen sind frühzeitig in einen gemeinsamen Prozess eingebunden, beide Disziplinen durchlaufen von Beginn an dieselben Test. Änderungen, die erst direkt in der Produktion durchgeführt werden, sind immer ein Spiel mit dem Feuer. „DevOps“ ermöglichen komplexere Architekturen bei gleichzeitiger Steigerung von Qualität und Geschwindigkeit. Automatisierung maximiert die Qualität im Betrieb bei gleichzeitig optimierter Bereitstellungsdauer. Die Idee ist schneller beim Kunden – Ziel erreicht. Ein kostenloser Testzugang für „automaIT2go“ kann unter [email protected] angefordert werden. Frank Scheffler ist Leiter des Kompetenzbereichs „RZ-Automatisierung“ bei der NovaTec GmbH. In diesem Zusammenhang unterstützt er als Berater seine Kunden bei der Automatisierung der IT-Servicebereitstellung vom Test bis hin zur Produktionseinführung, wobei ihn seine mehrjährige Erfahrung in der Entwicklung von Java-EnterpriseAnwendungen unterstützt. Als zertifizierter Professional Scrum Product Owner verantwortet er zudem die Produktentwicklung von Automationswerkzeugen in der NovaTec. Frank Scheffler NOVATEC Ingenieure für neue Informationstechnologien GmbH Dieselstrasse 18/1 70771 Leinfelden-Echterdingen [email protected] www.novatec-gmbh.de 11 „From ‚DevOops‘ to DevOps“ Because having only one option isn’t an option: HEAT IT Service Management FrontRange bietet Hybrid IT Service Management (ITSM) Lösungen für Unternehmen jeder Größe. Mit den Anwendungen der HEAT Familie wird die FrontRange Service Management Lösung zur einheitlichen Plattform für Ihr gesamtes Service Management. Mit dem Cloud- oder On-Premise-Bereitstellungsmodell entscheiden Sie, ob Betriebskosten anfallen oder eine Investition getätigt wird — die HybridLösung bietet eine Kombination aus beiden. FrontRange liefert eine IT Service und Support Management Lösung mit integrierter VOICE-Automatisierung, sowie einem voll integrierten Desktop und Server Management. So können Ihre Prozesse vom Service Request bis hin zur automatisierten Softwareverteilung durchgängig abgebildet werden. Etablieren Sie mit Hilfe der vorkonfigurierten Software-Lösung von FrontRange schnell und zielorientiert eine für Ihr Unternehmen integrierte passgenaue Lösung. Profitieren Sie von der hohen Automatisierung und einem schnellen ROI! Mehr Informationen: FrontRange Solutions Deutschland GmbH Ohmstraße 4 85716 Unterschleißheim Gottlieb-Manz-Straße 10 70794 Filderstadt Deutschland Tel: +49 (0)711 340190 0 Fax: +49 (0)711 340190 5119 www.frontrange.com Wie viel Agilität verträgt ITSM? Wie viel Agilität verträgt ITSM? Perspektiven agiler Methoden im IT Service Management Sascha Meyer, Franziska Wauch Auf Enterprise 2.0 folgt die Agile Organisation Seit Jahren etablieren sich agile Methoden in der IT. Und wenn eine Methode in einem Bereich erfolgreich eingesetzt wird, ist es nur noch eine Frage der Zeit, bis diese auf andere Bereiche übertragen wird. Das Schlagwort Enterprise 2.0, welches durch den Erfolg von SocialSoftware-Systemen wie Wikipedia in aller Munde gelangte, hat bereits weitgehend Einzug in die Unternehmensrealität gehalten. Nun dreht es sich vielerorts um das „Agile Unternehmen“ oder die „Agile Organisation“. Ob das zu weit gegriffen ist? Das werden die ersten Erfahrungen in den nächsten Jahren zeigen. Naheliegend ist die Idee, agile Werte und Methoden in andere Unternehmensbereiche zu übertragen, auf jeden Fall. Agilität in Unternehmen wird nicht erst seit den Erfolgen von Scrum & Co. gefordert (vgl. bspw. [Förster & Wendler 2012] oder [Scheer et al. 2006]). Die Etablierung agiler Werte und Methoden hat sich in IT-Projekten und der Softwareentwicklung weitgehend als sehr erfolgreich herauskristallisiert. Direkt betroffen davon sind auch ITSM-Bereiche, die sich durch den Einsatz von Scrum & Co. mit neuen Anforderungen konfrontiert sehen. DevOps, Continual Beta oder „Bring your own device“ sind nur einige der neuen Schlagwörter. Häufige Servicebereitstellungen und -updates werden zur Regel. Die Frage, ob und wie ITSM-Bereiche auch von den Vorteilen agiler Werte und Methoden profitieren können, ist somit naheliegend. Wir haben diese Frage auf dem itSMF Jahreskongress im Dezember 2012 in Kassel gestellt. Mit den Teilnehmern der Birds of a Feather Session diskutierten wir, wie viel Agilität eine ITSM-Organisation vertragen kann, was Agilität im ITSM ausmacht, was Mehrwerte sein und in welchen Bereichen positive Effekte erzielt werden können. Einige der Gedanken möchten wir hier nochmals aufgreifen. 1.Agilität – Sitzsäcke und Chaos? Das schnell veränderliche Umfeld und Angebot von ITSM-Organisationen verlangt Mitarbeitern an der Kundenschnittstelle wie in der Technik gleichermaßen Flexibilität, Anpassungsfähigkeit und Reaktionsfähigkeit ab. Doch wie kann das bei gleichzeitig geforderter Stabilität funktionieren? Ist die Übertragung agiler Werte und Methoden auf das Prozessmanagement und die IT-Prozesse des Rätsels Lösung, um die geforderte Wendigkeit zu erreichen? Zur Annäherung an diese Frage sollte zunächst geklärt werden, was unter Agilität eigentlich zu verstehen ist. Spontaneität, unstrukturiertes und chaotisches Vorgehen, ganz viel „miteinander reden“, nichts mehr aufschreiben und dokumentieren…? Reicht es vielleicht, Sitzsäcke und eine Lounge bereitzustellen, um transparente Kommunikation und effiziente Prozesse sicherzustellen? Wohl eher nicht. Auch die Beschränkung des Begriffs „agil“ auf ein Synonym für das Framework „Scrum“ ist zu eng gefasst. Unter Agilität verstehen wir vor allem die Verankerung von Werten und Prinzipien, die einer Organisation innerhalb bestehender Ziele, Pläne und Restriktionen (wie Compliance-Anforderungen) Gestaltungsfreiräume lässt, um auf zwangsläufige Veränderungen zu reagieren. Prinzipiell ist dies keine neue Forderung und die Antworten sind beispielsweise im kybernetischen Management längst bekannt: „Organisiere ein komplexes System so, dass es sich weitgehend selbst organisieren, selbst regulieren und evolvieren kann“. [Malik, 2006]. Dennoch ist die Realität meist weit davon entfernt und so kann der Drang nach Agilität eine Chance sein, die Werte einer Organisation zu hinterfragen und anzupassen. Ein Beispiel für ein formuliertes Werteschema ist das aus der Softwareentwicklung bekannt gewordene „Agile Manifesto“ [Beck et al. 2001]: • Individuals and interactions over processes and tools • Working software over comprehensive documentation • Customer collaboration over contract negotiation • Responding to change over following a plan Das Manifest ist nicht dogmatisch auszulegen. So fordert der Grundsatz „Working software over comprehensive documentation“ nicht dazu auf, nichts zu dokumentieren. Diese Sichtweise wäre zu eng und in der Realität nicht haltbar. Vielmehr wird eine funktionierende Software als wichtiger angesehen, als eine umfangreiche Dokumentation. Genau dieses Beispiel zeigt aber auch, dass sich das „Agile Manifesto“ aufgrund des starken Fokus auf die Softwareentwicklung nicht zur direkten Anwendung als Werteschema für alle Bereiche eignet. Vielmehr sollte jede Organisation ihr spezifisches „agiles Werteschema“ entwickeln. Dabei ist in jedem Fall zu berücksichtigen, dass die Einigung auf ein solches Werteschema vor allem einen organisatorischen Wandel mit sich bringt – und damit gutes (Change) Management erfordert. Das Werteschema dient als Grundlage für das Management. So sollte beispielsweise zum Erreichen von Selbstorganisation den Mitarbeitern tatsächlich (innerhalb der Zielarchitektur und Restriktionen) der notwendige Freiraum eingeräumt werden, um Änderungen zu initialisieren und umzusetzen. Für das Erreichen von Agilität empfehlen sich folgende Grundsätze [Meyer & Wauch 2012]: • Fokussierung auf den geschäftlichen Nutzen. • Klare, offene, direkte und kontinuierliche Kommunikation. • Zusammenarbeit in Teams innerhalb selbstorganisatorischer Freiräume. • Vereinbarte Qualität ist nicht verhandelbar. • Arbeit ist geprägt von inkrementellen und iterativen Vorgehensweisen. 2.Agilität im ITSM-Prozessmanagement 2.1 Was macht Prozessmanagement in IT-Bereichen aus? Um sich der Fragestellung nach der Sinnhaftigkeit und dem möglichen Mehrwert von agilen Werten und Methoden im Prozessmanagement von IT-Organisationen zu nähern, werfen wir zunächst einen Blick auf die verschiedenen Aspekte des Prozessmanagements in IT-Organisationen. • D ie Implementierung von ITSM-Prozessen ist häufig getrieben von der Notwendigkeit der Professionalisierung des Tagesgeschäfts und der Sicherstellung der von den Kunden erwarteten Servicequalität. Auch an der Schnittstelle zu Betrieb und Entwicklung sowie zu Dienstleistern besteht der Bedarf zu klar definierten Prozessen. Häufig wird dafür auf ITIL als Prozess- 13 14 Wie viel Agilität verträgt ITSM? • • • • Framework zurückgegriffen, um Best Practices nutzen und Standardisierung erreichen zu können. Zu berücksichtigen sind bei ITSM-Prozessen vor allem Skalierbarkeit, Transparenz, Dokumentationspflichten und Compliance-Anforderungen. Die Anforderungen sind daher häufig sehr komplex. Die Standardisierung von Begriffen, Prozessen und Schnittstellen stattet die Mitarbeiter mit einer weitgehend einheitlichen Basis für Sprache und Kommunikation im ITSM aus. Weniger von Frameworks wie ITIL berücksichtigt, aber dennoch von großer Relevanz für ITSM-Prozesse, ist die Transparenz über schwach strukturierte und schwer vorhersagbare Prozesse. Hier ist vor allem Process Knowledge Management von großer Relevanz. Flexibilität einerseits und Stabilität andererseits sind von entscheidender Bedeutung für die Sicherstellung des Zusammenspiels zwischen den verschiedenen Akteuren im ITSM (z.B. Techn. Betrieb, SLM, Support, Dienstleister). Viele dieser Aspekte werden durch den De-Facto-Standard ITIL abgedeckt. Projekte zur Einführung von ITIL werden häufig – wie im Prozessmanagement weit verbreitet – als große, komplexe Projekte aufgesetzt. Nach einer umfangreichen Ist-Aufnahme erfolgen eine Analyse und eine Soll-Konzeption (z.B. spezifiziertes ITIL-Modell). Die betroffenen Mitarbeiter werden in vielen Projekten bis dahin nur wenig bis gar nicht eingebunden. Zuletzt wird das erarbeitete Prozessmodell – wenn möglich inklusive ITSM-Tool – über die ITOrganisation ausgerollt. 2.2 „Mit mir nicht“ – Prozesseinführungen nach dem Wasserfall-Modell Spätestens hier zeigt sich häufig ein Problem: Prozesseinführungen im Wasserfall-Modell scheitern etwa ebenso oft, wie IT-Projekte nach diesem Vorgehen. Die Ursachen sind vielfältig. Dauert die Soll-Konzeptions-Phase zu lange, so sind die vorher dokumentierten Ist-Prozesse ggf. bereits wieder veraltet und das Delta der umzusetzenden Veränderungen wird zu einer unbekannten Variable. Organisation und Mitarbeiter sind nicht auf so umfassende prozessuale und daVom Wasserfall … Design Test Realisierung ... zur Prozess Design Iteration Analyse Prozess Design Iteration Analyse Design Design Test Test Prozess Design Iteration Analyse Design Test Realisierung Retrospective 2.3 Ansätze für agile Werte und Methoden ins Prozessmanagement Agile Werte und Methoden setzen genau bei diesen Problempunkten an. Die Grundidee agiler Methoden beruht auf der selbstorganisatorischen Zusammenarbeit in kleinen, hoch kompetenten Teams, die in Iterationen und mit direkter Kommunikation mit den Stakeholdern an der Erreichung priorisierter und definierter Ergebnisse arbeiten. Dabei sind die zu erreichende Qualität, Ressourcen und Zeitrahmen (Timebox) für jede Iteration klar definiert. Überträgt man diese Grundideen in einen methodischen Ansatz für „agiles“ Prozessmanagement im ITSM, so kann, ausgehend von einer Prozessarchitektur (z.B. organisationsspezifisches ITIL-Framework), ein phasenorientiertes Modell zur Prozessimplementierung oder -professionalisierung durch ein iteratives Vorgehen abgelöst werden. Der tatsächliche Umfang der notwendigen Veränderungen kann so sukzessive erarbeitet werden. Auf Basis der Prozessarchitektur in Verbindung mit (Self-) Assessments werden Prozesse definiert und priorisiert. Diese können nun kontinuierlich zerlegt und weiterentwickelt werden. Die so ermittelten Arbeitspakete, die als Process Stories (Prozessanforderungspakete) formuliert werden, werden von interdisziplinär besetzten Teams in Design-Iterationen bearbeitet. Dabei werden in jeder Iteration die Phasen Analyse, Design, Test, Implementierung und Retrospektive durchlaufen. Die Iterationen unterliegen dabei Restriktionen wie Qualität, Ressourcen und Timebox. Die in den Iterationen erarbeiteten Prozessverbesserungen können sukzessive implementiert werden. Nach der Implementierung der Prozesse werden in einer Retrospektive Erfolge und Verbesserungsmöglichkeiten betrachtet. Die Ergebnisse aus der Iteration sowie aus der Retrospektive werden wiederum mit der Prozessarchitektur abgeglichen. Unterstützt wird das Vorgehen durch ein entsprechendes partizipatives Rollenmodell, bei dem interdisziplinäre Teams im Vordergrund stehen und von Prozessmanagementexperten unterstützt werden. Diese stellen auch den „Fit“ zur Gesamtarchitektur sicher. Der Process Owner liefert und koordiniert Anforderungen und Akzeptanzkriterien und nimmt die Ende-zu-Ende-Perspektive ein [vgl. hierzu ausführlich bspw. Meyer & Wauch 2012/2]. Analyse Prozess Design Iteration mit täglich greifbare Veränderungen in der eigenen Arbeitsweise und ggf. auch im eigenen Kompetenzbereich eingerichtet und fühlen sich überrannt. In der Praxis ist immer wieder eine ablehnende Haltung der Mitarbeiter zu beobachten, die sich in einer Opferhaltung und in Syndromen wie „Not-invented-here“, „Mit-mir-nicht“ oder „Istmir-doch-egal“ zeigt [Becker et al. 2005]. Nach der Einführung der Prozesse erfolgen in vielen Fällen keine Aktualisierungen und kontinuierliche Verbesserung mehr, auch wenn ITIL dies bereits vorsieht. Statische Prozesssilos entstehen. Realisierung Retrospective Realisierung Retrospective Abbildung 1: Abbildung 2: Vom Wasserfall zur Prozess-Design-Iteration 2.4 Etablierung agiler Werte und Methoden im ITSM-Prozessmanagement Für das Prozessmanagement können aus einem agilen Werteschema wie dem Agile Manifesto sowie den Grundideen agiler Methoden folgende Grundsätze abgeleitet werden: • Klare Zielarchitektur: Die gemeinsame Zielarchitektur ist bekannt und klar formuliert. Für IT-Bereiche kann es sich hier um ein organisationsspezifisch angepasstes ITIL-Prozessmodell handeln. itSM Heft 23 - März 2013 Wie viel Agilität verträgt ITSM? • Design Constraints: Nicht nur Restriktionen und Leitlinien wie z.B. Dokumentationspflichten, Compliance-Anforderungen, eingegrenzte Kompetenzbereiche müssen bekannt sein. Auch Anforderungen an die Qualität müssen klar formuliert und bekannt sein. • Definierte Designvorgaben: Wenige aber klare Vorgaben zum Prozessdesign und zur Prozessdokumentation ermöglichen eine einfache, klare, gemeinsame Prozesssprache und damit gegenseitiges Verständnis. • Robuste und transparente Tools: Um eine einheitliche und für alle Teilnehmer nachvollziehbare Kommunikation und Dokumentation sicherzustellen, sollten Werkzeuge eingesetzt werden, die für alle Beteiligten zugänglich und einfach in der Nutzung sind. •Backlog: Detaillierte, kontinuierlich veränderte und sortierte Liste der ITSM-Prozesse als zentrales Element der Planung und Priorisierung. •Process Stories: Knappe, Nutzen- und kommunikationsorientierte Dokumentationsform von Prozessen und deren Akzeptanzkriterien. •Collaboration Software: In vielen Unternehmen wird bereits Collaboration Software eingesetzt, die in diesem Rahmen genutzt werden kann. • Mitarbeiter zu Change Agents machen: Die enge Einbindung derjenigen Mitarbeiter, die mit den Prozessen arbeiten, ermöglicht es nicht nur, deren Know-how zu nutzen. Die daraus resultierende Akzeptanz und damit der langfristige Erfolg der Maßnahmen steigen. • Regelmäßiger Rollout von Prozessen: Veränderungen erfolgen in kleinen, reversiblen Schritten und können kontinuierlich ausgerollt werden. Erfolge sind schneller sichtbar, Quick Wins können realisiert werden. Eine sukzessive inkrementelle Prozessoptimierung wird früh sichtbar und messbar (z.B. geringere Reaktionszeiten bei Supportanfragen von Kunden, schnellere Bearbeitungszeit für Service Requests o.ä.). Damit kann nicht nur die Kundenzufriedenheit erhöht werden, auch die Motivation der Mitarbeiter steigt. Die Veränderungen erfolgen in einem Umfang, in dem sie von den Mitarbeitern getragen werden können. Dissatisfaktoren, wie sie bei großen Veränderungsprojekten oftmals entstehen, werden minimiert. • Zyklische und Ad-hoc-Verbesserungen annehmen: Prozessmanagement ist mehr als ein Projekt. Erst die langfristige Implementierung und der Aufbau eines Kontinuierlichen Verbesserungsmanagements ermöglichen es einer Organisation, die Vorteile von Prozessmanagement zu nutzen. Dazu gehört auch, dass Ad-hoc-Anforderungen für Änderungen angenommen, geprüft und priorisiert werden. Wie das Zusammenspiel dieser Aspekte mit einem methodischen Ansatz für „agiles“ und kontinuierliches Prozessmanagement im ITSM aussehen kann, zeigt Abbildung 3 [in Anlehnung an Meyer & Wauch 2012]. Die wohl größte Herausforderung dabei ist wohl nicht, Tools und Strukturen zu implementieren, sondern die Mitarbeiter einzubinden und mitzunehmen: • Early adopters finden: In fast allen Organisationen gibt es Mitarbeiter, die besonders offen für Neues sind. Diese sollte man finden und frühzeitig einbinden, denn sie können zu Multiplikatoren werden und damit den Projekterfolg nachhaltig stärken. • Teamentscheidungen akzeptieren: Teamentscheidungen zu akzeptieren heißt gegebenenfalls auch, die eigene Meinung zurückzustellen und bedeutet vielleicht sogar für das Management (gefühlte) Einschnitte in die eigenen Steuerungs- und Kontrollmöglichkeiten. Ohne einen grundlegenden Wertewandel, der Teamentscheidungen mitträgt, wird das Vorgehen ad absurdum geführt, die Motivation gebremst. Vertrauen in die Mitarbeiter ist hier eine grundlegende Voraussetzung. • Reduzierung der Komplexität: Zur Reduzierung von Hemmnissen für die Initiierung und Umsetzung von Verbesserungen sollte eine Umgebung sichergestellt werden, in der schnelle Entscheidungen und Handlungen ermöglicht werden (z.B. kein umfangreicher Change-Request-Prozess für Prozessanpassungen, sondern einfache Aufnahme von Punkten in ein Process Backlog und Fokussierung über Priorisierung der Themen). 2.5 Die Sehnsucht nach dem Meer Gerade in IT-Abteilungen, in denen traditionell in vielen Bereichen eine Tendenz zur Umgehung von bestehenden Strukturen zu beobachten ist, sind agile Methoden bei ITSM-Einführungen sinnvoll. Hier werden die Kenntnisse und häufig sehr pragmatischen Ansätze der Mitarbeiter in die Prozessgestaltung einbezogen und damit auch akzeptiert. Doch nicht nur für ITSM-Einführungen sind agile Methoden im Prozessmanagement sinnvoll. Häufig ahnen Mitarbeiter, dass „etwas besser laufen könnte“, wissen aber noch nicht genau, wie es besser gemacht werden kann. Auch für diese kontinuierliche Weiterentwicklung von Prozessen, für die sukzessive Professionalisierung und Erhöhung des Reifegrades, bietet sich die Etablierung agiler Werte und Methoden an. Vision & Ziele der IT-Abteilung (Self-) Assessment Permanente Rückkopplung zw. Design, Architektur und Zielen Prozess Architektur (z.B. organisationsspezifisches ITIL-Framework) Design Sprint Prozess Backlog Abbildung 2:Agile Methoden im Prozessdesign [Meyer & Wauch 2012] Prozess Implementierung von Prozessen Entscheidend für ITSM-Einführungen und die Weiterentwicklung der ITSM-Prozesse mit agilen Methoden ist nicht der Reifegrad der Organisation, sondern eher die Kultur und die Kommunikation, die Möglichkeit, die Veränderungsbereitschaft und die Veränderungen tatsächlich in die Organisation zu bringen. Ein agiles Vorgehen mit vielen „verdaubaren“, realistischen und realisierbaren Iterationen macht es leichter, die Mitarbeiter an Bord zu holen und zu halten. So 15 16 Wie viel Agilität verträgt ITSM? wird auch der Aufbau eines kontinuierlichen Prozessmanagements ermöglicht. Nur dann können die Vorteile von ITSM-Einführungen langfristig genutzt werden (Spagat zwischen Flexibilität und Stabilität, gemeinsame Sprache, Service- und Kundenorientierung) und ITSM-Bereiche können sich zu einem (prozessorientierten) BusinessPartner weiterentwickeln. [DeGrace & Stahl 1990]. Entscheidungen werden bei diesem Konzept im spätesten vertretbaren Moment getroffen, also idealerweise wenn der Change in der nächsten Timebox tatsächlich durchgeführt werden kann und die Kosten der Verzögerung höher wären als der Nutzen der Umsetzung [vgl. hierzu auch Meyer & Wauch, 2012]. Insgesamt bleibt auch beim Einsatz agiler Werkzeuge im ITSM-Tagesgeschäft zu beachten, dass agile Methoden nur in Verbindung mit einem Umdenken und Hinterfragen etablierter Good Practices zur Generierung von Vorteilen führen, um der Komplexität und Veränderlichkeit in ITSM-Bereichen besser begegnen zu können. Und so kann man es im ITSM-Prozessmanagement - wie in vielen anderen Bereichen auch - mit Saint-Exupéry halten: „Wenn Du ein Schiff bauen willst, dann trommle nicht Männer zusammen, um Holz zu beschaffen, Aufgaben zu vergeben und die Arbeit einzuteilen, sondern lehre die Männer die Sehnsucht nach dem weiten, endlosen Meer.“ Literatur 3.Agilität in ITSM-Prozessen – Das agile Tagesgeschäft? • [Malik. 2006] Malik, F.: Führen Leisten Leben, Campus Verlag, Frankfurt/New York, 2006, S.28 • [Beck et al. 2001] Beck, K. et al.: Manifesto for Agile Software Development; 2001; im Internet unter: http://www.agilemanifesto.org; Stand 19.02.13 • [Becker et al. 2005] Becker, J. et al.: Projektmanagement, in: Becker j. et al.: Prozessmanagement – Ein Leitfaden zur prozessorientierten Unternehmensgestaltung, Springer Verlag Berlin Heidelberg, 2005, S. 17-44 • [DeGrace & Stahl 1990] DeGrace, P., Stahl, L. H.: “Wicked Problems, Righteous Solutions-A Catalogue of Modern Software Engineering Paradigms”. Yourdon Press. PTR Prentice Hall Building.Englewood Cliffs, 1990 Neben den dargestellten Ansätze und Ideen zur Nutzung der Vorteile von agilen Methoden und Werten im ITSM-Prozessmanagement kann man darüber hinaus noch betrachten welche Vorteile Agile Best Practices innerhalb der eigentlichen ITSM-Prozesse bieten. Während im Workshop auf dem itSMF Jahreskongress Agilität im Prozessmanagement auf sehr gute Resonanz gestoßen sind, ist den Teilnehmern die Diskussion um Agilität in den täglich gelebten Prozessen schwerer gefallen. Dies ist auch verständlich, da der Begriff Agilität innerhalb von Prozessen suggeriert, dass diese willkürlich, schwer planbar und intransparent werden. Dies ist jedoch bei näherer Betrachtung agiler Methoden nicht zwangsläufig der Fall. Tatsächlich können mit diesen Themen wohl ganze Bücher gefüllt werden, zumal die bereits verbreitete Nutzung von Ansätzen wie DevOps bereits Auswirkungen auf die organisatorischen Aspekte von ITSM-Prozessen haben. So haben sich im ITSM-Tagesgeschäft bereits einige agile Elemente verbreitet. Im Request Fulfillment, Change und Release Management wird bereits Kanban zur Visualisierung der anstehenden Aufgaben und der Engpässe eingesetzt. Auch der Einsatz weiterer Good Practices wie Timeboxing oder Backlogs ist gut vorstellbar, ebenso die Ausrichtung von Entscheidungen beispielsweise im Change-Prozess am Grundsatz des „Last Responsible Moment“ Process-Backlog Übersicht über die priorisierten Process-Stories Design-Iterationen Kontinuierliche Weiterentwicklung Team Prozess Change Mgt. Design-Iterationen Gemeinsames Ziel Gemeinsame Zielarchitektur Team Prozess Service Desk • [Förster & Wendler 2012] Förster, K. u. Wendler, R.: Theorien und Konzepte zu Agilität in Organisationen; Dresdner Beiträge zur Wirtschaftsinformatik, Nr. 63/12, 2012, zum Download unter: http://wwwpub.zih.tu-dresden.de/~isih/Publikationen/Foerster_Wendler_2012_TheorienKonzepte-Agilitaet.pdf, Stand 20.02.13 • [Meyer & Wauch 2012] Meyer, S. u. Wauch, F.: Agilität im IT-Servicemanagement: Ansätze für flexible Stabilität, in: HMD, 49. Jg., Heft 288, S. 87-93, 2012 • [Meyer & Wauch 2012/2] Meyer, S. u. Wauch, F.: Agilität als Wegbereiter für lebende Prozesse, in: IT-Projektmanagement 2012+ im Spagat zwischen Industrialisierung und Agilität? Beiträge zur Konferenz >>interPM<< Glashütten 2012, hrsg. v. Engstler, M. et al . dpunkt.verlag, Heidelberg , 2012 • [Scheer 2006] Scheer, A.-W. et al.: Agilität durch ARIS Geschäftsprozessmanagement: Jahrbuch Business Process Excellence 2006/2007, Springer Verlag Berlin Heidelberg, 2006 Operationalisierbare Prozesse Ad-hoc und zyklische Validierung und Aktualisierung der Prozesse 2 Abbildung eines kontinuierlichen Prozessmanagements mit agilen Methoden 26.02.2013 3: Aufbau Cassini Consulting – Grafiken zu Artikel für ITSM-Magazin itSM Heft 23 - März 2013 Wie viel Agilität verträgt ITSM? Franziska Wauch verfügt über langjährige branchenübergreifende Berufserfahrung in den Bereichen Geschäftsprozessmanagement, Organisation und Projektmanagement und arbeitet mit diesen Schwerpunkten bei Cassini Consulting. Für verschiedene Publikationen hat sie sich bereits mit der Notwendigkeit von Veränderungen im Management von Unternehmen beschäftigt (vgl. bspw. Wikimanagement, Komus/Wauch, Oldenburg Verlag, 2008). Franziska Wauch Cassini Consulting Nord GmbH Oberwallstr. 24 10117 Berlin [email protected] www.cassini.de Q-Perior Sascha Meyer verhilft IT-Organisationen zu mehr Flexibilität und höherer Geschwindigkeit bei der Markteinführung von Produkten und Dienstleistungen. Er setzt dabei seit über 10 Jahren Lean Management und agile Vorgehen wie Scrum und Kanban ein. Seine Tätigkeitsschwerpunkte als Senior Consultant sind hierbei Projektleitung, Organisations- und Prozessberatung sowie Interimsmanagement. Sascha Meyer Cassini Consulting Nord GmbH Johannisbollwerk 16 20459 Hamburg [email protected] www.cassini.de 17 Next Generation IT-Automatisierung Next Generation IT-Automatisierung Hans-Christian Boos Die Automatisierung des IT-Betriebs ist zurzeit in aller Munde. Die neueste Generation von Automatisierungslösungen arbeitet wissensbasiert und erfordert somit nicht länger Standardisierung. Neben einer Erläuterung der Funktionsweise und Stärken wissensbasierter Automatisierung wird dieser Ansatz auf den Ebenen „Technologie“, „Arbeitsweise und Prozesse“ sowie „geschäftliche Risiken“ diskutiert. Die technologische Validität des dargestellten Ansatzes wird anhand von Erfahrungen mit dem arago AutoPilot für den IT-Betrieb illustriert [Boos 2011]. 1.Automatisierung 2.0 - Definierbare Aufgaben durch Maschinen erledigen lassen! In der Industrie sind Standardisierung, Konsolidierung und Taylorismus seit langem ein Erfolgsmodell zur Effizienzsteigerung. Auch in den IT-Betrieb hat diese Methode mittlerweile Einzug in Form von skriptbasierten Automatisierungslösungen gehalten, die ähnlich wie ein Fließband funktionieren und auf Skaleneffekte abzielen. Jedoch sind solchen Tools schnell Grenzen gesetzt. Die standardisierten IT-Plattformen, die diese Lösungen voraussetzen, stellen stets eine Vergangenheitsbetrachtung dar und sind zu schwerfällig, um auf die schnellen Innovationszyklen der IT reagieren zu können. Zudem ist diese Art der Automatisierung nur auf gut 10 bis 20 Prozent des ITStacks gut anwendbar, wie z.B. die Administration des Betriebssystems oder von Standard-Applikationen. Wissensbasierte Automationsverfahren wie der arago AutoPilot punkten hier mit der Fähigkeit, von IT-Experten zu lernen, das vorhandene Wissen flexibel anzuwenden und die Erkenntnis aus dem Gelernten bei zukünftigen Lösungen zu berücksichtigen. Die Maschine übernimmt autonom die ihr übertragenen Aufgaben und greift zu deren Erledigung auf einen Wissenspool zurück, also eine Wissenssammlung über den IT-Betrieb des Unternehmens, die von verschiedenen Experten kontinuierlich zusammengetragen und erweitert wird. So ist die Lösung in der Lage, genau wie ein menschlicher Kollege, die gesamte IT-Umgebung zu administrieren – vom Betriebssystem bis hin zu jeder denkbaren Individualapplikation. werden kann und wie gut dieses Wissen dann genutzt werden kann. Man erhält also eine Vorhersage der Adaption neuer Verhältnisse und kann die IT damit bei der Veränderung des Geschäftsumfeldes schneller – durch bloßen Wissenstransfer – umstellen und zudem die Umstellungsgeschwindigkeit und Umstellungsqualität vorhersagen. Durch die Zentralisierung von Wissen, das bisher entweder in den Köpfen einzelner Mitarbeiter oder im Mitarbeiterstab eines Providers eingesperrt war, in einem Wissenspool, der direkt dem Unternehmen gehört und durch die sofortige Anwendbarkeit des dort hinterlegten Wissens, verringert sich darüber hinaus die Abhängigkeit von einzelnen Personen oder Providern enorm. 2.Funktioniert eine autonome und von Experten lernende Automatisierungslösung in der Praxis? Die Leistungsfähigkeit einer derartigen Software ist für viele Menschen, die jeden Tag mit IT arbeiten, nur schwer nachvollziehbar. Führungskräfte, die Verantwortung für Qualität und Sicherheit von IT-Umgebungen tragen, finden die Vorstellung verlockend, dass eine Maschine die Aufgaben des Tagesgeschäftes wirklich selbstständig übernimmt, machen sich aber Sorgen, wie man diese scheinbar künstliche Intelligenz kontrollieren und im Zaum halten kann. „Was passiert, wenn diese Maschine nicht funktioniert und ich viel Geld investiert habe?“ oder „Was passiert, wenn diese Maschine eine falsche Entscheidung trifft?“ Prozessverantwortliche fragen sich eher „Wie können die Experten mit einer solchen Maschine zusammenarbeiten?“ oder „Wie kann man die Arbeit einer solchen Maschine überwachen, kontrollieren und steuern?“ Technischen Experten hingegen stellen sich die grundlegende Frage „Funktioniert so etwas überhaupt?“ oder „Was wird meine Aufgabe sein und wie fügt sich eine Automatisierungslösung ins tägliche Arbeiten ein?“ Im strategischen Bereich punktet eine wissensbasierte Automatisierung mit ihrer geschäftlichen Flexibilität. Bei einem System wie dem AutoPilot wird die Fähigkeit gemessen, wie schnell Wissen auf bisher nicht bekannte Situationen erfasst 4.000 40% 3.000 30% 2.000 20% 1.000 10% 0 Aug Sep 10 10 Okt Nov Dez 10 10 10 Jan 11 Feb Mrz 11 11 Apr 11 Mai 11 Jun 11 Jul 11 Automatisierungsgrad Durch die Reduktion manueller Aufgaben lassen sich im laufenden Kurz und knapp gesagt, stellt sich bei einer solchen Technologie für jeTagesgeschäft diverse operative Nutzen erzielen: So werden weniger den die „Vertrauensfrage“. Abhängig von der Aufgabe in der jeweiligen Mitarbeiter für den IT-Betrieb benötigt, können sich verstärkt kreati- Organisation sind das unterschiedliche Ausprägungen derselben Fraveren Aufgaben widmen und somit ihre Innovationskraft vollständig ge, nämlich „Kann ich so einer Automatisierungslösung vertrauen?“ Arbeitsverteilung Systembetrieb arago dem Unternehmen zu Gute kommen las100% 10.000 sen. Ein weiterer positiver Effekt: Durch 90% 9.000 die Vereinigung der Expertise verschie80% 8.000 dener Fachkräfte in einer Softwarelösung verringern sich zudem die Durchlaufzeit 70% 7.000 und der Overhead bei der Abarbeitung 60% 6.000 von Aufgaben, was die Kosten enorm Manuell 50% 5.000 Engine senkt. Anzahl Vorfälle 18 Automatisierungsgrad 0% Abbildung 1: Automatisierungsgrad in einer produktiven IT-Umgebung itSM Heft 23 - März 2013 Next Generation IT-Automatisierung 2.1Technologie Die Funktionsweise autonomer und wissensbasierter Automatisierungslösungen als solche ist schnell erklärt. Es handelt sich um ein Stück Software, das ihm übertragene Aufgaben mit dem ihm zur Verfügung stehenden Erfahrungswissen zu lösen versucht. Der Lösungsansatz entspricht dabei dem Lösungsansatz eines IT-Experten mit genau dem gleichen Erfahrungswissen – vielleicht ist die Automatisierungssoftware in der Dokumentation etwas genauer oder weniger emotional, aber die Aktionen sind genau die gleichen, wie die eines hypothetischen Administrators - keine besseren. So einfach das Ergebnis der Automatisierungssoftware zu erläutern ist, umso komplexer ist die notwendige Technik im Inneren dieser Software. Detailinformationen, wie die Algorithmen funktionieren, die eine solche Software treiben, werden aus Gründen des Erfindungsschutzes in der Regel nicht offen gelegt. Von daher lässt sich die Funktionsweise nur anhand von Ergebnissen der Automatisierungslösung einschätzen. Eine Möglichkeit zur Einschätzung der technischen Leistungsfähigkeit sind Track Records, in denen dokumentiert ist, was die Software in produktiven Umgebungen tatsächlich leistet. Abbildung 1 zeigt, wie durch den Einsatz des arago AutoPilot im IT-Betrieb der arago AG über 90 Prozent der Fehler und Störungen automatisiert behoben werden und unterstreicht damit auch die Lernfähigkeit der Automatisierungslösung. Ein weiterer Funktionsnachweis ist durch eine externe Zertifizierung beispielsweise nach ISO 25051 möglich, bei der unabhängige Experten bestätigen, dass eine Software einen definierten Funktionsumfang erfüllt. Für Fachleute, die sich mit entsprechenden Experten- bzw. Entscheidungssystemen auseinandersetzen, ergibt sich eine zentrale Frage aus der erforderlichen Rechenleistung zur Abarbeitung der Entscheidungsalgorithmen. In der Theorie entsteht ein fast unendlich großer Entscheidungsbaum, wenn man das Universum der möglichen Aufgaben nicht sehr klar eingrenzt. Da sich der IT-Betrieb beispielsweise aufgrund der dynamischen Anforderungen der Fachbereiche täglich ändert, ist eine Einschränkung des Entscheidungsbaumes nicht zielführend. Eine Lösungsmöglichkeit, um mit der Komplexität umzugehen, besteht darin, auch sehr große Entscheidungsbäume in kleine Berechnungspakete zu teilen und einen Großteil dieser Pakete von der tatsächlichen Berechnung auszuschließen. Somit kann die benötigte Rechenkapazität stark beschränkt werden. Moderne Systeme wählen dazu einen Graphen-Ansatz und erreichen damit neben der guten Performance der Berechnung und einem sehr hohen Durchsatz gleichzeitig eine Parallelisierung der Bearbeitung und Skalierbarkeit des Systems. Moderne Automatisierungslösungen haben hierzu eine Softwarearchitektur implementiert, die den algorithmischen Kern von den Schnittstellen zu anderen Systemen trennt und diese Schnittstellen an offenen Standards orientiert. Damit findet beispielsweise die Kommunikation des Systems oder die Ablage von Daten in XML mit definierten Schemata statt. Zusätzlich werden fertige Schnittstellen zu gängigen Ticket-, Monitoring- oder anderen ITSM-Systemen angeboten. In einer derartigen Architektur legt sich die Automatisierungslösung sozusagen wie eine Schale um die vorhandene Tool-Welt und unter die vorhandenen Arbeitsprozesse. Beides bleibt – wenn nicht anders gewünscht – unberührt. 2.2 Arbeitsweise und Prozesse Zudem gilt es, mit der Fragestellung umzugehen, welche Veränderungen in der Arbeitswelt – sowohl aus Sicht der einzelnen Person, als auch aus Sicht der Organisation – entstehen. Von existenziellen Fragen („Was mache ich, wenn die Maschine meine Arbeit macht?“) bis hin zur unternehmensinternen Steuerung („Wie kann ich ohne Änderungen an unseren Compliance-Prozessen ein solches Werkzeug überhaupt nutzen?“) oder Fragen der Sicherheit („Eine solche Maschine müsste sich den gleichen Regularien unterwerfen wie unsere IT-Experten, das geht doch gar nicht!“) tauchen viele Argumente auf, warum Automatisierung sich scheinbar nicht in den Arbeitsalltag integrieren lässt. Durch die Einführung von Automatisierung sind in Unternehmen schon immer Stellen verloren gegangen oder haben sich verändert. Aber nur ein Unternehmen, das ohnehin bereits finanzielle Probleme hat, wird es sich erlauben, gute Mitarbeiter gehen zu lassen. Gerade im IT-Markt sind gute Mitarbeiter schwer zu finden und die Einarbeitungszeiten für neue Mitarbeiter sind hoch. Deswegen wird kein Manager auf die Idee kommen, einen Mitarbeiter, der einen Beitrag zum Unternehmen leistet, leichtfertig gehen zu lassen. Werden durch Automatisierung dennoch Arbeitsplätze abgebaut, so liegt das nicht am Fakt der Automatisierung, sondern daran, dass das Unternehmen diese Kostenersparnis ohnehin betreiben musste – sprich diese Stellen wären auch ohne Automatisierung verloren gegangen. Aus Sicht des Unternehmens gibt es ebenfalls Bedenken. Ein Unternehmen muss – aus Eigenschutz oder wegen gesetzlicher Vorgaben – für Sicherheit sorgen. Gerade in der IT hat das einen ganzen Kata- Eine weitere Problematik auf der technischen Ebene besteht darin, inwieweit sich eine derartige Automatisierungslösung in bestehende IT-Betriebsumgebungen einbinden lässt, ohne beispielsweise auf jeder zu betreibenden Maschine zusätzliche Software installieren oder vorhandene Software anpassen zu müssen. Diese Problematik ist verbunden mit der Frage nach dem Schutz bestehender Investitionen. Abbildung 2: Architektur einer modernen Automatisierungslösung 19 Next Generation IT-Automatisierung log von Vorschriften zur Folge, die in den Arbeitsprozessen einzelner Mitarbeiter wieder auftauchen. Es stellt sich die Frage, ob eine Automatisierungslösung außerhalb dieser Sicherheitsvorschriften und Prozesse steht und als eine Art Über-Administrator auf einmal „alles darf “ – natürlich mit den entsprechenden Risiken. Nun, jeder Administrator würde sich diese Position wünschen und kein Administrator – selbst in einem sehr kleinen Unternehmen – wird diese Position jemals erlangen. Das Gleiche gilt auch für eine Automatisierungslösung. Sie muss sich den Prozessen und geltenden Vorschriften unterwerfen. Diese Vorschriften werden – wie das technische Wissen selbst – im Wissenspool der Maschine abgelegt. Die Automatisierungslösung wird sich an diese Vorschriften halten, Freigaben anfordern oder besondere technische Verfahren einsetzen, um das Recht zu erhalten, bestimmte Aktionen durchzuführen (z.B. strong authentication). Beim Thema Compliance haben Automatisierungslösungen sogar einen einfacheren Stand als ein menschlicher Experte. Bei allen Compliance-Richtlinien geht es in erster Linie um die Nachvollziehbarkeit und das Einhalten gewisser Regeln. Ein Mensch, der unter Stress steht, wird sich nicht in allen Situationen an alle Dokumentationsregeln halten oder will ggf. auch nicht alle Dinge, die getan wurden, dokumentieren, um sich nicht angreifbar zu machen. Die Maschine ist hier vollkommen emotionslos. Sie dokumentiert zuverlässig mit, was sie wann und vor allem auch warum getan hat. Dabei berücksichtigt sie alles Wissen, das man ihr über interne Regelwerke und Verhaltensweisen beigebracht hat. In diesem Kontext stellt sich natürlich auch die Frage, ob eine Automatisierungslösung Fehler machen kann, wie sie damit umgeht und wie diese vermieden werden können. Wie bereits beschrieben, ist es das Ziel der Automatisierungslösung, eine Maschine so arbeiten zu lassen wie einen IT-Administrator. Diese machen bei der Durchführung von Changes oder beim Beheben von Incidents oder anderen operativen Aufgaben ab und an Dinge, die überflüssig oder im schlimmsten Falle falsch sind. Die Automatisierungslösung agiert genau wie ein Systemadministrator. Das bedeutet aber auch, dass sie – wie ein menschlicher IT-Experte – einen gemachten Fehler erkennt und sofort beginnt, mit dem zur Verfügung stehenden Wissen diesen Fehler wieder zu beheben. Gravierende Fehler treten ohnehin selten 100% auf. Öfter ist es der Fall, dass Tätigkeiten ohne Einfluss auf die eigentlich zu erledigende Aufgabe ausgeführt werden. Ähnlich wie ein Administrator arbeitet, sucht sich die Automatisierungslösung einen möglichen Weg durch das zur Verfügung stehende Erfahrungswissen und kann dabei Dinge ausprobieren, die nicht zur direkten Lösung einer Aufgabe beisteuern. Wie bei den menschlichen Experten ist das aber nicht weiter schlimm und im Gegensatz zu den menschlichen Kollegen kann man die Dokumentation der Tätigkeiten auf derartige Umwege hin analysieren und sie leicht aus dem Wissenspool durch das Hinzufügen von weiterem Wissen, das das Vorgehen genauer spezifiziert, für die Zukunft ausschließen. Im Zusammenhang mit der Zuverlässigkeit einer Automatisierungslösung sprechen praktische Erfahrungswerte eine deutliche Sprache. So betreibt die arago AG bereits seit dem Jahr 1996 Systeme auf Basis der AutoPilot-Technologie. Im Jahr 2010 wurde eine Umgebung mit insgesamt 1.429 Services betrieben. In dieser Umgebung sind im gesamten Jahr 2010 insgesamt 106.859 Tickets von dem Systembetrieb bearbeitet worden. Unter Tickets werden dabei Incidents, Problems, Changes, Capacity Requests und Service Requests verstanden. Von diesen 106.859 Tickets hat der AutoPilot 93% voll automatisch bearbeitet. Lediglich 7% aller Tickets mussten von Administratoren von Hand bearbeitet werden. Da hauptsächlich individuelle Fachanwendungen als Subdienstleister von IT-Providern betrieben werden, handelt es sich bei diesen erledigten Aufgaben um eine bunte Mischung aus technischen und fachlichen Herausforderungen, die mit gängigen – auf Standardisierung basierenden – Automatisierungswerkzeugen gar nicht angegangen werden können. 2.3 Geschäftliche Risiken Durch den Einsatz von Maschinen haben sich in der Vergangenheit große Vorteile für die Unternehmen ergeben. Allerdings birgt der Einsatz von Maschinen auch immer ein gewisses Risiko. Durch den normalerweise hohen Investitionsbedarf in Maschinen ist das größte Risiko die Funktionalität der Maschine an sich. Denn funktioniert diese nicht wie erwartet, können sich getroffene Investitionen nicht rechnen und sind als Verlust abzuschreiben. Das zweite geschäftliche Risiko tritt dann ein, wenn eine Maschine einen Fehler macht und Sinkende Autopilotkosten bei interner Effizienzsteigerung dadurch schlechte Qualität produziert wird oder Mehraufwand entsteht. 18% 90% 24% 36% 80% 55% 70% Arbeitskosten 20 Einsparung 60% Kosten AutoPilot Kosten Arbeitsumgebung 50% Kosten Arbeit 40% Automationsgrad Andere Effizienzgewinne 30% 20% 10% 0% Jahr 0 Jahr 1 Jahr 2 Jahr 3 Jahr 4 Abbildung 3: Effizienzgewinn durch IT-Automatisierung (Beispiel arago AG) Ein Ansatz zur Schaffung von Vertrauen in die Investition in eine Automatisierungslösung auf dieser Ebene ist die Implementierung eines geeigneten Geschäftsmodells. Bei der Lösung der arago AG werden den Kunden beispielsweise keine Vorab-Investitionen in Form von Lizenzen abverlangt. Das Geschäftsmodell sieht vor, dass nur dann bezahlt werden muss, wenn die Automatisierungslösung tatsächlich die ihr übertragenen Aufgaben erfüllt („on demand“ oder „pay per use“ Preismodell). Im Automatisierungsumfeld kann ein solches Preismodell noch dadurch er- 1| itSM Heft 23 - März 2013 Next Generation IT-Automatisierung gänzt werden, dass sich die Bezahlung an den eingesparten Kosten der bisher manuell durchgeführten Aufgaben orientiert. Diese Kosteneinsparung kann beispielsweise mit zur Branche des Kunden passenden Benchmarks für IT-Betriebskosten eingeschätzt werden. an. Die Anbieter hinterlegen diese Technologie oft auch mit einem vollkommen neuen Geschäftsmodell. Diese Neuerungen haben für Unternehmen einen großen wirtschaftlichen Mehrwert und bieten ihnen gleichzeitig die Möglichkeit, ihr eigenes Innovationspotenzial enorm zu steigern. Wer effektiv und flexibel automatisieren möchte, setzt daher auf eine wissensbasierte Lösung. Diese Art der Automatisierung ist zukunftsorientiert und zahlt sich für Unternehmen aus, indem sie sie auf eine neue Stufe der Effektivität hebt – sowohl im strategischen als auch im operativen Bereich. Zusätzlich kann die Nutzungsvergütung durch eine eingebaute Incentivierung ergänzt werden: Ein Kunde kann z.B. jährlich die Kennzahlen für Betriebskosten oder veränderte Benchmarks vorlegen. Dementsprechend passt sich der Preis für automatisch erledigte Aufgaben diesen neuen Kennzahlen an. Praktisch bedeutet das, dass ein Kunde, der die durch Automatisierung freigewordene Zeit tatsächlich für Verbesserungen in seiner IT nutzt, diese Verbesserungen auch auf alle Aufgaben überträgt, die bereits automatisiert sind – indem der Preis für diese Aufgaben fällt. Literatur [Boos 2011]: Hans-Christian Boos: Automatisierung ist Vertrauenssache – arago Autopilot – Maßnahmen zum Vertrauensaufbau. Whitepaper arago AG 2011, http://www.arago.de/wp-content/uploads/2011/06/Whitepaper_Automatisierung-ist-Vertrauenssache_ final1.pdf, abgerufen am 20.02.2012. Bei nutzungsorientierten Preismodellen und speziell im Automatisierungsumfeld stellt sich sehr häufig die Frage, ob ein Hersteller, der nach Nutzung bezahlt wird, das System so auslegt, dass die Nutzung automatisch und für den Kunden nur schwer nachvollziehbar erhöht wird. Hans-Christian Boos ist Vorstand der 1995 von ihm gegründeten arago AG. Er studierte Informatik an der Eidgenössischen Technischen Hochschule (ETH) in Zürich sowie an der Technischen Hochschule Darmstadt. Seinen beruflichen Werdegang begann er im Finanzbereich der Dresdner Bank. Heute ist er neben seiner Funktion bei arago als Aufsichtsrat und Berater bei verschiedenen Unternehmen und Organisationen tätig. So unterstützt er unter anderem als Referer bei HackFwd die europäische Gründerszene mit Rat und Tat. Hans-Christian Boos ist Autor zahlreicher Fachpublikationen zu den Themen ITAutomatisierung, Information Modelling und IT-Strategien. Eine Lösung hierzu stellt die Offenlegung des genutzten WissensPools dar. Dadurch, dass der Wissens-Pool nicht Eigentum des Systemlieferanten ist und die Nutzer ermutigt werden, das Wissen untereinander zu teilen, kann hier die erforderliche Transparenz gewährleistet werden. Zusätzliche Transparenz kann durch die Bereitstellung statistischer Werkzeuge zur Analyse des Wissens sowie durch den Nachweis entsprechender QS-Prozesse geschaffen werden. Die Kontrolle und Transparenz im Betrieb der Lösung kann zusätzlich durch entsprechende Visualisierungs-Tools unterstützt werden, die zu jedem Zeitpunkt eine Übersicht über die anstehenden Arbeiten im Gesamtsystem (Was wird aktuell abgearbeitet? Wie verteilen sich die Arbeiten auf das System? Wo treten Engpässe auf?) liefern bis hin zu einer grafischen Darstellung des Bearbeitungsstatus einer einzelnen Aufgabe. Hans-Christian Boos arago AG Eschersheimer Landstraße 526 -532 60433 Frankfurt am Main [email protected] www.arago.de Fazit Wissensbasierte Automatisierungslösungen wie der arago AutoPilot bieten nicht nur eine revolutionäre Technologie zur kontinuierlichen Optimierung und Automatisierung aller Aufgaben des IT-Betriebs FTEs Experten 120 112 1429 Services 106.859 Aufgaben p.a. 100 78 80 ohne Automation 30% Automation 60 50% Automation 45 80% Automation 40 arago (93% Automation) 22 20 8 0 ohne Automation 30% Automation 50% Automation Abbildung 4: Einsparung Personalkapazitäten (FTEs Experten) 80% Automation arago (93% Automation) 21 22 Integration von Providerprozessen Integration von Providerprozessen bei selektivem Sourcing Jörg Bujotzek Unternehmen setzen beim IT-Outsourcing zunehmend nicht mehr nur auf einen, sondern auf mehrere externe Provider, an die jeweils ein in sich geschlossenes Aufgabengebiet übergeben wird. Bei diesem sogenannten selektiven Sourcing stellt sich im Rahmen der Integration eines Providers die Aufgabe, die Providerprozesse mit Schnittstellen zu internen IT-Einheiten oder anderen Providern an diesen so zu gestalten, dass alle beteiligten Einheiten möglichst effektiv und reibungslos zusammenarbeiten. Da die externen Provider und die interne IT-Abteilung nicht alle mit den gleichen Workflow-unterstützenden Tools arbeiten, kann diese Aufgabe eine Herausforderung darstellen. Im Folgenden sollen Ansätze aufgezeigt werden, wie die Integration der Providerprozesse bei unterschiedlichen Rahmenbedingungen angegangen werden kann. Tools einsetzt wie die von dieser beauftragten Provider, ist gemeinsam mit jedem Provider die Gestaltung der einheitsübergreifenden Schnittstellen besonders sorgfältig vorzunehmen, während die Gestaltung der providerinternen Prozessteile möglichst dem Provider zu überlassen ist: hierdurch hat er die Chance, seine etablierten Standardprozesse zu nutzen und dadurch höchstmögliche Qualität und Effizienz zu realisieren. 1.Ausgangssituation In Option 1 besteht die Möglichkeit, alle beteiligten internen und externen Dienstleister in einer Tool-Landschaft zu integrieren. Diese Option bietet beste Voraussetzungen für eine weitgehend nahtlose Integration und hohe Automatisierung der Prozesse, auch über einheitsübergreifende Schnittstellen hinweg. Mit selektivem Sourcing wird im IT-Bereich in der Regel angestrebt, die eigene Fertigungstiefe im IT-Bereich zu verringern und von Skaleneffekten und der stets aktuellen Expertise von spezialisierten Providern profitieren zu können, ohne in zu große Abhängigkeit dieser Provider zu geraten. Um mit dieser Strategie im IT-Betrieb erfolgreich zu sein, ist eine wesentliche Voraussetzung, neben einem effizient gestalteten Providermanagement, insbesondere eine sorgfältige Gestaltung der Betriebsprozesse [vgl. IAOP 2010, S. 166-167]: Vor Übergabe des Betriebs einer IT-Leistung an einen Provider sind gemeinsam mit diesem die Prozesse mit Schnittstellen zu internen Organisationseinheiten bzw. anderen Providern zu definieren und zu implementieren. Die Effizienz der Prozessimplementierung hängt in der Regel von der technischen Unterstützung der Prozesse durch Tools ab. Da die interne IT-Abteilung in der Regel nicht die gleichen Abbildung 1 Die Möglichkeiten der Gestaltung der Prozessschnittstellen sind abhängig von den Rahmenbedingungen des Einzelfalls. 2.Varianten der Schnittstellengestaltung Es lassen sich grundsätzlich folgende Optionen für die Gestaltung der Prozessschnittstellen unterscheiden: In der Ausgangslage der zweiten Option setzen der externe und der interne Dienstleister unterschiedliche Tools ein, aber beide Seiten sind gewillt, Prozessschnittstellen durch die Schaffung technischer Schnittstellen zwischen den verschiedenen Tools zu unterstützen. Bei der dritten, im Folgenden „organisatorische Prozessschnittstelle“ genannten Option bestehen Hinderungsgründe für eine technische Schnittstelle zwischen den prozessunterstützenden Tools. Grund kann zum Beispiel eine zu überbrückende Betriebsphase bis zur Beendigung der Schnittstellenimplementierung, aber auch eine fehlende Klärung der Schnittstellenhandhabung vor Abschluss des Outsourcing-Vertrags sein. In letzterem Fall fehlen dann Zeit und Geld für die Realisierung der Tool-Schnittstellen. In derartigen Fällen sind gemeinsam organisatorische Maßnahmen zu planen und zu implementieren, die eine angemessene Vorgangsbearbeitung auch ohne Toolintegration an den einheitsübergreifenden Schnittstellen ermöglichen. Integration von Providerprozessen bei selektivem Sourcing, amendos gmbh Abbildung 1: Gestaltung der Schnittstellen zu externen Providern 25-02-2013 Die erste Option bietet die besten Möglichkeiten, einen reibungslosen Prozessablauf zu gestalten, die Voraussetzungen für diese Option sind allerdings gerade im Rahmen des selektiven Sourcings, d.h. bei Einsatz von mindestens zwei Providern eigentlich nie gegeben. Die zweite Option ist möglichst schon im Rahmen der Phase der Providerauswahl für die extern zu erbringende Leistung, d.h. im Lastenheft zu berücksichtigen. Am Markt angebotene Bridge-Systeme itSM Heft 23 - März 2013 Integration von Providerprozessen zur Kopplung verschiedener Workflowsysteme vereinfachen zum Teil die Implementierung von Schnittstellen zwischen verschiedenen Tools, trotzdem ist der Aufwand für die Implementierung nicht zu unterschätzen. Die dritte Option birgt aufgrund des geringsten Automatisierungsgrades das höchste Risikopotential bezüglich mangelnder Prozesseffizienz. Trotzdem lässt sie sich bei einigen Ausgangssituationen – zumindest temporär - nicht vermeiden. 3.Gestaltung der organisatorischen Prozessschnittstelle Sollte die Ausgangssituation die Realisierung einer Prozessschnittstelle ohne direkte technische Schnittstelle zwischen den Tools erzwingen, so ist für die Gestaltung des Prozesses ein angemessenes organisatorisches Konzept gemeinsam mit dem Provider zu erarbeiten, mit ihm abzustimmen und zu implementieren. Auch wenn keine direkten Schnittstellen zwischen den Systemen von internem und externem Provider möglich sind, sollte auf Systemunterstützung und Teilautomatisierung an den Schnittstellen nicht verzichtet werden. Im Folgenden soll an zwei Beispielen aufgezeigt werden, wie ein solches Schnittstellenkonzept aussehen kann. 3.1 Prozessbeispiel „Incident Management“ Der häufigste Fall des Auftretens einer Prozessschnittstelle beim selektiven Sourcing ist das Incident Management: Hat die interne IT-Abteilung einen Service Desk als Single Point of Contact für Abbildung 2 23 Endanwender eingerichtet und werden dann Second und Third Level Support für eine Applikation oder ein IT-Infrastrukturgewerk (zum Beispiel das Datennetzwerk) an einen externen Provider gegeben, so sind Incidents in dem entsprechenden Themenfeld, die der Service Desk nicht direkt lösen kann, an den externen Second Level Support weiterzuleiten. Dies ist in Abbildung 2 dargestellt, wobei die vom Provider zu erbringenden Prozessschritte hier rot gekennzeichnet sind. Das gemeinsam mit dem Provider zu entwickelnde Prozesskonzept sollte insbesondere folgende Aspekte zu adressieren: • Die Prozessfestlegung (inklusive Schnittstellen), • Rollen und Zuständigkeiten, • Festlegungen bezüglich der auszutauschenden Tickets, die in beiden Ticketsystemen entsprechend abzubilden sind (z.B. Prioritäten, Kategorien, Status), • ein Eskalationskonzept (auslösende Fälle, Rollen, Ablauf einer Eskalation usw.), • ein Schulungskonzept für die am Prozess Beteiligten. Die Prozessschnittstelle zur Übergabe des Tickets vom internen zum externen Provider erfolgt mangels direkter Toolschnittstelle im Beispiel via E-Mail. Um die Ticketübergabe in diesem Fall möglichst einfach zu gestalten, sind für verschiedene Standardvorgangsfälle möglichst E-Mail-Vorlagen einzusetzen: Dies ermöglicht eine einfache Lesbarkeit der Ticketdetails für alle Prozessbeteiligten und zudem bieten diese E-Mail-Vorlagen die Chance, Ticketübergabe-Mails automatisch aus dem Ticketsystem generieren und in dieses wieder einlesbar zu machen. Hierdurch werden manuelle Fehlerquellen an der Schnittstelle je nach Implementierungsgestaltung verhindert beziehungsweise deutlich reduziert. Für das Incident Management sind mindestens folgende E-Mail-Vorlagen festzulegen: Abbildung 3 • Erstmalige Übergabe eines Tickets, • Empfangsbestätigung für das Ticket (da bei E-Mail keine garantierten Service Levels für die Übertragung sichergestellt werden können; durch das Bestätigungsmail entsteht ein Zeitstempel, Absender Empfänger [email protected] [email protected] Betreffzeile ccccccccccc (IT-interne Ticketnummer) Beispiel 192790223 Text der Email Meldungsheader: Internes Ticket Priorität Kategorie Provider Ticket Fehlermeldung beim Buchen von Beleg 192790223 3 Incident Mitteilungstext beliebig langer Mitteilungstext der ursprünglichen (neuerstellen) Meldung aus dem IT-internen Ticket-System Inhalte au IT- interne Anlagen ursprüngliche Anlagen aus dem IT-internen Ticketsystem Kontaktinformationen interner Melder Peter M, Abteilung [email protected] +49 40 123456 interner KeyUser Rolf B, Abteilung rolfb@ IT-intern.com +49 40 123456 Process Owner Alfred C, Finanzen alfredc@ IT-intern.com +49 40 123456 Eskalation 1 Andrea R, SAP-Abt. [email protected] +49 40 123456 Eskalation 2 Matthias P, SAP-Abt. matthiasp@ IT-intern.com +49 40 123456 Integration von Providerprozessen bei selektivem Sourcing, amendos gmbh Abbildung 2: Incident Management bei selektivem Sourcing 25-02-2013 Abbildung 3: E-Mail-Vorlage für die erstmalige Übergabe eines Tickets Integration von Providerprozessen bei selektivem Sourcing, amendos gmbh 24 Integration von Providerprozessen der für die Messung der Einhaltung von vereinbarten Service Levels bezüglich der Ticket-Bearbeitung durch den Provider genutzt werden kann), • Anforderung der Mitwirkung der internen IT-Abteilung, • Abgabe einer Statusinformation bezüglich der Ticket-Bearbeitung, • Meldung, dass die Bearbeitung des Tickets abgeschlossen ist. In Abbildung 3 ist ein Beispiel für die Gestaltung einer E-Mailvorlage für die erstmalige Ticketübergabe dargestellt. Um die Lesbarkeit für die Beteiligten weiter zu erhöhen, sollten einzelne Informationsinhalte bei den weiteren E-Mail-Vorlagen möglichst gleich aussehen (zum Beispiel der Aufbau von Betreffzeile und Meldungs-Header). 3.2 Prozessbeispiel „Change Management“ Auch im Falle des Change Managements sind Schnittstellen zwischen internem und externem Provider nicht zu vermeiden. Im Folgenden soll anhand eines Standard-Changes ein möglicher Lösungsansatz für die Realisierung der Prozessschnittstelle zum Provider aufgezeigt werden. Wieder wird mangels Möglichkeit der direkten Kopplung der Tools der beiden Provider auf eine E-Mail-unterstützte Vorgangsübergabe aufgesetzt. In Abbildung 4 ist der grundsätzliche Prozess dargestellt. Abbildung 4 Instanz Aktivität XLS-basierendes Formular gemeinsam mit Key-User ausfüllen User Key-User Genehmigungserteilung via Unterschriften auf Formular Key-User Einscannen des gefüllten Formulars, Ticket erstellen mit Formular als Anlage Service Desk Qualitätssicherung des Tickets und des Formulars inkl. Unterschriften Service Desk Generieren der E-Mail an den Provider auf Basis des Tickets, Statuswechsel „on-hold“ Einrichtung der Berechtigung und Direkt-Info an User per Mail; Ticket-Status-Mails Provider Service Desk Übernahme der Ticket-Status-Daten in eigenes Ticket Service Desk Antragsablage im Archiv und Ticket-Status-Wechsel „in Schließung“ Key-User Qualitätssicherung und Ticket-Status-Wechsel „geschlossen“ In diesem Beispiel wird die angeforderte SAP-Berechtigungsänderung in einer auszufüllenden Excel-basierenden Formatvorlage spezifiziert. Um es dem Nutzer möglichst einfach zu machen und mögliche Eingabefehlerquellen weitgehend zu minimieren, lassen sich in eine derartige Vorlage Automatismen und Eingabehilfen einbauen: So verhindern ein Schreibschutz für Bereiche außerhalb der vorgesehenen Eingabefelder sowie Auswahlfelder mit - auch kontextbezogenen - Dropdown-Listen unklare Eingaben, eine schriftliche Benutzeranleitung in der Vorlage erleichtert das Ausfüllen für den Nutzer. Da die Prozessumsetzung mittels E-Mail und Excel-Vorlage trotz der geschilderten Maßnahmen aufgrund der vielen manuell notwendigen Handgriffe noch immer ein hohes Fehlerpotential enthält, ist eine derartige Lösung nur als kurzzeitige Zwischenlösung sinnvoll. Soll eine Lösung für einen längeren Zeitraum geschaffen werden, sollten weitere Automatisierungsmöglichkeiten genutzt werden: So ist zum Beispiel eine Abbildung des SAP-Berechtigungsänderungsformulars inklusive des Genehmigungsantrags im eigenen Workflowsystem eine erheblich elegantere Prozesslösung. Im Anschluss an die interne Genehmigung im System kann dann mit automatischem Export des Antrags im Rahmen der automatischen E-Mail-Generierung die Übergabe des Vorgangs an den Provider ausgelöst werden. 4.Umgang mit Risiken organisatorischer Schnittstellen Auch wenn organisatorische Prozessschnittstellen gemeinsam mit dem Provider sauber ausgeplant und implementiert sowie alle am Prozess Beteiligten ausreichend geschult wurden, bergen sie für den Betrieb große Risiken: Dies sind neben der mangelnden Prozesseffizienz im Wesentlichen das hohe Fehlerpotential aufgrund der geringen Automatisierung sowie die potentiell hohe Intransparenz bezüglich des Status von über die Schnittstelle weitergereichten Vorgängen [siehe auch OGC 2007, S. 63-64]. Ein von Beginn an etabliertes Risikomanagement, wie in Abbildung 5 dargestellt, kann die Risiken abmildern. Trotzdem bleibt die Option der organisatorischen Prozessschnittstelle der letzte Ausweg, wenn keine technisch unterstützte schnittstellenübergreifende Workflow-Lösung mehr möglich ist. Abbildung 5 Abbildung 4: Beispielhafter Prozess „SAP-Berechtigungsänderung“ Risiko Auswirkung / Schaden Wertung Schaden Wertung Wahrscheinlichkeit Maßnahmen-Beispiele Fehlerpotential durch manuelle Aktionen Einführung von Teilautomatismen (u.a. automatische E-Mail-Generierung) keine garantierte TicketÜbertragung via E-Mail schriftliche Empfangsbestätigung der Gegenseite Unklarheit durch fehlende Zeitstempel bei Übergabe Zeitstempel in schriftlicher Bestätigung der Gegenseite Unklarheit durch mangelnde Statustransparenz nach Vorgangsübergabe Vereinbarung regelmäßiger schriftlicher Statusmeldungen der Gegenseite vermehrte SLAÜberschreitungen durch „On-hold“ Tickets Etablierung einer effizienten Eskalation; konsequentes Überwachen und Eskalieren Mehraufwand / höhere Kosten Einführung von Teilautomatismen (siehe oben) Verschlechterung der Qualitätskennzahlen im SD Einführung von Teilautomatismen und konsequente Eskalation Abbildung 5: Risikomanagement itSM Heft 23 - März 2013 Integration von Providerprozessen 5. Fazit Die Schwachstellen organisatorischer Prozessschnittstellen zwischen interner IT-Abteilung und Providern können bei sorgfältiger Planung und Implementierung deutlich abgemildert werden. Hierdurch werden derartige Lösungen als Übergangslösungen durchaus betreibbar. Beseitigen lassen sich die Schwachstellen und daraus resultierende Ineffizienzen aber nicht vollständig. Sie können in einer längeren Betriebsphase durchaus immer wieder deutliche Minderungen der Servicequalität verursachen. Daher sollte im Vorfeld des IT-Outsourcings bei gegebener selektiver Sourcing-Strategie eine technische Schnittstelle zwischen den Tools von interner IT und Provider(n) immer Teil einer Gesamtplanung sein. In den Verhandlungen mit dem Provider ist die Handhabung der Realisierung von technischen Toolschnittstellen im Vertrag zu konkretisieren. Literatur • [ IAOP 2010] International Association of Outsourcing Professionals (IAOP): Outsourcing Professional Body of Knowledge, 1. Edition, June 2010, Van Haren Publishing, Zaltbommel (NL) • [OGC 2007] Office of Government Commerce (OGC): ITIL Service Operation 2007 Edition, erschienen 2007 bei TSO. 25 Jörg Bujotzek ist Geschäftsführer des Beratungsunternehmens amendos gmbh. Er ist seit mehr als 15 Jahren als Berater im ITInfrastrukturbereich tätig und hat in zahlreichen auch internationalen IT-Projekten für mittlere und große Unternehmen unterschiedlichster Branchen mitgewirkt bzw. die Leitung übernommen. Hierdurch hat er umfangreiche Erfahrungen in der Gestaltung von IT-Organisationen und deren Prozessen sowie im IT-Outsourcing aufgebaut. Jörg Bujotzek amendos gmbh Grüner Deich 15 20097 Hamburg [email protected] www.amendos.de Zurücksetzen von Passwörtern im SAP durch den Benutzer Einfach Kostengünstig Sicher mit dem netpoint Password Generator netpoint gmbh Korschenbroicher Straße 112 41065 Mönchengladbach Telefon +49 2161 49524-0 Telefax +49 2161 49524-10 eMail [email protected] www.netpoint.de Besuchen Sie uns auf dem itSMF Kongress in Kassel am 3./4.12.2012 auf dem Stand B02 26 itSMF Performance News Quo vadis IT-Governance? IT-Risikomanagement und IT-Compliance sind zentrale Themen der IT-Governance. Viele Unternehmen versuchen, diesen gesetzlichen Anforderungen mit allen Konsequenzen gerecht zu werden. Dabei bleibt die wichtigste Frage der Umsetzung meist unbeantwortet: „Wie stellen wir sicher, dass IT-Governance funktioniert?“ Der Betrieb der Informationstechnologie ist für Unternehmen mit unüberschaubaren Risiken und Kosten verbunden. Neben der fortschreitenden Technologie macht die stete Zunahme an Regelwerken in Form von Gesetzen, Verordnungen, Normen, Standards, Verträgen und Richtlinien zu beachtende Vorschriften unüberschaubar. Potenzielle Regelverstöße sind die Folge. Transaktionsorientierte Branchen wie Finanzindustrie oder Telekommunikation setzen sich darum besonders intensiv mit IT-Governance auseinander. Tatsächlich gefordert sind jedoch alle Unternehmen. Risiko Haftung und Kosten Seit 1998 das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich (KonTraG) in Kraft getreten ist, sind die Anforderungen an ein rechtssicheres ITRisikomanagement erheblich gestiegen. Im Schadensfall sind Vorstandsmitglieder und Geschäftsführer heute gemäß Paragraf 93, Abs. 2 des Aktiengesetzes beziehungsweise gemäß Paragraf 43, Abs. 2 des GmbH-Gesetzes persönlich haftbar. Da in vielen Unternehmen die IT-Kosten einen hohen, intransparenten Block an Gemeinkosten bilden, deren Umlage in der Regel mit groben Schlüsseln erfolgt, besteht zudem die permanente Gefahr ausufernder IT-Kosten. Diese Situation ist sowohl für die IT als Dienstleister als auch für die Unternehmensbereiche als IT-Kunden unbefriedigend. Denn in der Regel lassen sich weder die IT-Kostentreiber auf der Geschäftsseite enttarnen noch ist der Nutzen der IT-Leistungen für die Kunden ersichtlich. Hinzu kommt, dass der hohe Kostendruck und die hohe Intransparenz der IstKosten im IT-Betrieb die Preisbildung von IT-Services sowie die Budgetierung und Planung beeinträchtigt. Die zwei Seiten der IT Der Grund dafür liegt in den unterschiedlichen Sichtweisen auf den IT-Betrieb. Während es für die IT-Abteilung um die Technologie und deren Management geht, steht für die IT-Kunden die geschäftsorientierte Ausrichtung dieser Technologie im Fokus. Diese Trennung gilt es für die erfolgreiche Einführung und Einhaltung von IT-Governance zu überwinden. Aus Sicht des geschäftsorientierten Managements bleiben damit folgende Fragen offen: Was wird im IT-Betrieb tatsächlich eingesetzt und welche Kosten und Risiken sind damit verbunden? Welche IT-Komponenten gehören zu einem spezifischen Service? In welcher Beziehung stehen Geschäftsprozesse, Services sowie Hard- und Software? Und: Was konkret bedeuten Änderungen für die Geschäftsprozesse in Bezug auf Kosten und Risiko? Auch das technische Management steckt im Dilemma: Was bedeutet die IT-Strategie für die technische Betriebsführung konkret? Welche technischen Komponenten im IT-Betrieb werden vom geschäftsorientierten Management kritisch gesehen oder positiv beurteilt? Die Intransparenz hinsichtlich Kosten, Leistungen und Risiken wirkt sich bis zur geschäftsorientierten IT-Führung aus. Anstatt bei Entscheidungen auf fundierte Kennzahlen setzen zu können, werden diese aus dem Bauch getroffen. Angesichts der technologischen Durchdringung von Unternehmen eine unhaltbare Situation, die es zu meistern gilt. Erfolgreiche Wege aus dem Dilemma Dank Ansätzen und Technologien wie SNMP, MOF, ITIL oder COBIT finden sich im IT-Betrieb eine Vielzahl von Modellen. Der Grund dafür liegt auf der Hand: Ohne deren Einsatz ist es schwierig bis unmöglich, in komplexen und dynamischen Zusammenhängen Maßnahmen zu verstehen, Ergebnisse zu verifizieren und Verhaltensweisen zu erkennen. Die resultierenden Informationen bilden ein wesentliches Element der Kommunikation und Dokumentation im IT-Betrieb. Unternehmen können damit Entscheidungen und Maßnahmen, die im Zuge der Definition der IT-Strategie, des Designs, der Implementierung, der Überführung in den Betrieb und der Durchführung getroffen wurden, leichter nachvollziehen. sein. Historisch gewachsene IT-Strukturen, verteilte Datenhaltung und Probleme der Integration führen ebenso zu Unstimmigkeiten. Hier ist das IT-Controlling als Informationsversorger gefordert, die Qualität der Daten sicherzustellen. Die Menge an zu verarbeitenden Informationen, die Unterschiedlichkeit in Bezug auf die Datenformate und -quellen sowie die Änderungshäufigkeit im IT-Betrieb erfordern die automatisierte Auswertung und Bereitstellung. Zukunft IT-Governance Die bestmögliche Unterstützung von Geschäftsprozessen durch die IT-Organisation lässt sich erreichen, indem IT-GovernanceLösungen mehrere Bedingungen erfüllen: der Einsatz erprobter und standardisierter Verfahren, die Wiederverwendung existierender Daten und Produkte, sowie die automatisierte Beschaffung und Aufbereitung der Informationen. Die Integration von technologischem und geschäftsorientiertem IT-Management harmonisiert Kontrollen, senkt Gesamtkosten und macht aus Bauchentscheidungen Köpfchen. Joachim Hörnle Blue Elephant Systems GmbH joachim.hoernle@ blue-elephant-systems.com www.blue-elephant-systems.com Die Basis für die Nachvollziehbarkeit bilden die Daten, die den Steuerungssystemen zugrunde liegen. Aktuelle Kennzahlen lassen sich in Projekten definieren, in denen Business- und IT-Fragen gleichermaßen berücksichtigt werden. Unscharfe Kennzahlen weisen auf Mängel in der Datenbasis hin und können durch leere Feldeinträge, Dubletten oder Formatfehler bedingt itSM Heft 23 - März 2013 itSMF Performance News ITSM = IT Stress Management?! Vielleicht denken Sie jetzt „Nicht noch ein Artikel über Stress!“ und da kann ich Sie gut verstehen. Doch wir spüren es alle deutlich - gerade im IT- und Service-Bereich: Wir geraten immer mehr unter Druck, fühlen uns schnell überfordert und gestresst. Mit folgendem Text möchte ich Sie anregen, sich mit der kompliziertesten Infrastruktur zu beschäftigen, mit der Menschen konfrontiert werden können: sich selbst. Es ist Fakt: Stress ist auch, was man selbst aus einer Situation macht. Was zunächst unglaublich vereinfachend klingt, ist nur der Anfang einer Reise in unwegsames und zugleich ungemein spannendes Terrain. Wer diese Reise wagt, kann am Ende mit anderen Augen auf bisher stressende Situationen blicken und mit neuen Möglichkeiten versuchen, etwas zu ändern. Stresserleben und -verarbeitung wird durch verschiedene Faktoren bestimmt. Dabei spielen extrinsische Faktoren aus den Umwelten, in denen man sich bewegt, wie z. B. Arbeitsplatz, Familie, Freunde usw. eine Rolle, wie auch intrinsische Kräfte, z. B. eigene Ansprüche, Werte, Ziele usw. Der vorliegende Artikel beschränkt sich auf den Bewertungsmechanismus und was Sie damit anfangen können. Ihr Tagesablauf besteht aus einer Reihe aneinandergefügter Situationen. Jedes Mal, wenn sich die Situation ändert, findet automatisch eine Neubewertung durch Ihr Gehirn statt. Es kennt dabei drei mögliche Ergebnisse: irrelevant, herausfordernd und bedrohlich. Nur bei anspruchsvollen oder bedrohlichen Situationen findet eine zweite Bewertung gemäß der verfügbaren Ressourcen statt. Die Frage lautet dabei: Was ist die beste Strategie, um diese Situation zu meistern? Immer dann, wenn Ihr internes Rating für die Bewältigungsfähigkeit der Situation zu wenig „Likes“ auf seiner Facebook-Seite erhält, bereiten Sie sich unbemerkt auf die letzten, ältesten Alternativen eines jeden Menschen vor: Kampf, Flucht oder Totstellen. Ein bunter Hormoncocktail ergießt sich in Ihre Blutbahn, der Sie physisch fit macht, um zu überleben. Wie Sie sich vorstellen können, nutzt Ihnen das im Büro oder beim Kunden herzlich wenig. Alles das passiert in wenigen Zehntelsekunden, und vor allem, an Ihrem bewussten Denken vorbei. Und all das nur, weil Sie, oder besser gesagt, Ihr Gehirn, auf brainblog.me gepostet hat, dass es mit der aktuellen Situation nicht zurechtkommt. Haben Sie das verdient? Sie stemmen die Beine in den Boden für einen Sprint-Start, 27 28 itSMF Performance News Gut gerüstet für die Zukunft: Hybrid-ITSM erhöhen Ihren Puls und installieren einen Tunnelblick Richtung Notausgang, und das nur wegen eines Blogeintrags? So geht’s nicht weiter. Was können Sie nun dafür tun, dass sich das Ergebnis dieses Bewertungslaufs verändert? Situationen umdeuten Bestimmt sind Ihnen Situationen eingefallen, die für Sie unangenehm oder stressig sind. Stellen Sie sich jetzt die Frage, was genau Sie daran in Unruhe versetzt. Hilfreich kann es sein, diese Situationen einer vertrauten Person zu schildern. Gemeinsam fällt es leichter, diese Situationen aus einer anderen Perspektive zu betrachten. Schauen Sie hin, was Ihnen in den Situationen schon gut gelingt und welche Entwicklungschancen für Sie darin stecken. So können Sie leichter eine Bedrohung in eine Herausforderung umdeuten. Erfahrungen neu bewerten Nachdem man bedrohliche Aufgaben überstanden hat, ist man froh, dass es vorbei ist. Jetzt können Sie beginnen, das Erlebte neu zu bewerten und für die nächste, ähnliche Konstellation vorzubauen. Dabei helfen Ihnen Fragen danach, ob es wirklich so schlimm war, wie erwartet. Wenn ja, was genau? Wenn nicht, was hat geholfen oder gut geklappt? Wiederholen Sie diese Neubewertung nach jeder stressigen Situation und Sie werden feststellen, dass sich Ihre Bewertung verändert. Aus Unterschieden lernen Sicher fallen Ihnen Kollegen ein, die in Situationen, die Sie in Wallung versetzen, gelassen bleiben. Haben Sie sich schon mal gefragt, wieso das so sein könnte? Befragen Sie diese Personen bei einer entspannten Tasse Kaffee, woher ihre Gelassenheit rührt und lernen Sie aus dem Unterschied zu Ihrer eigenen Situation. Kollegen können Ihnen auch helfen, eine andere Sichtweise auf die Situation zu bekommen. Ressourcen aufbauen Bei der Neubewertung der Situation decken Sie vielleicht konkret mangelhafte Ressourcen auf. Bauen Sie hier gezielt Kompetenz auf, um die Ressourcen-Bewertung positiv zu beeinflussen und Vertrauen in die eigenen Fähigkeiten zu stärken. Perspektive wechseln Stellen Sie sich die anstrengenden Situationen vor oder erzählen Sie sie einer Person Ihres Vertrauens davon, so als würden Sie von einem Theaterstück erzählen. Lassen sie sich beschreiben, wie die Situation auf den anderen wirkt. Wichtig ist dabei, dass Ihr „Beobachter“ sich mit Ratschlägen zurückhält und viele Verständnisfragen stellt. Fazit Stress wird durch die Kombination verschiedener Faktoren zur Belastung. Milderung erreichen Sie durch gezieltes Aufdecken und Bearbeiten „Ihrer“ Stressoren. Regelmäßige Minuten der Stille, Vertrauenspersonen und Seminare können Sie dabei unterstützen, neue Wege zu finden, mit internen und externen Stressoren besser umzugehen und das Unvermeidliche für Ihren Alltag aushaltbarer oder sogar nutzbringend zu gestalten. Roland Englmann Service Desk Academy [email protected] www.servicedesk-academy.de Abbildung: Stresserleben und -bewältigung Mit dem richtigen Ansatz genügt eine einzige IT-Service-Management-Lösung für das Management von klassischen Systemen und Cloud-Anwendungen. Durch die wachsende Verbreitung von Cloud Services entstehen in Unternehmen zunehmend heterogene IT-Umgebungen, in denen die herkömmliche IT-Infrastruktur mit Services aus der Cloud kombiniert wird. Dies wirkt sich zunehmend auf die Gestaltung des ITSM aus: Denn neben den klassischen Systemen müssen auch die in der Cloud genutzten Anwendungen (Public, Private und Hybrid) berücksichtigt werden. In der Realität nutzen viele Firmen dazu momentan mehrere Systeme parallel. Oft existieren klassische System-Management-Konzepte und Cloud-ManagementPlattformen nebeneinander. Diese Strategie hat einen entscheidenden Nachteil: Die Gefahr wächst, dass sich die unterschiedlichen Lösungen zu organisatorischen Silos entwickeln, die nicht vollständig interoperabel sind. Zudem bestehen oft getrennte Werkzeugbedingungen für Nutzer, Inventarisierung, Service und Client Management. Auch End-toEnd-Prozesse und Workflows fehlen häufig. Dies stellt die IT nicht nur vor neue technische Herausforderungen, sondern verursacht auch hohe Integrationskosten durch die zahlreichen Einzellösungen. Grund genug, die eigene Strategie zu überdenken und die ITLandschaft auf den neusten Stand zu bringen. Flexibilität statt Entweder-Oder Während sich Unternehmen bei der Auswahl ihrer ITSM-Lösung bislang zwischen einem On-Premise- oder SaaS-Bereitstellungsmodell entscheiden mussten, bieten neue, sogenannte Hybrid-Modelle ihnen jetzt mehr Flexibilität. Lösungen wie die HEAT-Suite von FrontRange lassen sich beispielsweise sowohl im eigenen Rechenzentrum oder in der Cloud installieren – oder als Kombination aus beiden Optionen nutzen. Wichtig ist dabei, dass der Kunde sich mit seiner Entscheidung nicht fest bindet, sondern jederzeit die Möglichkeit hat, sein IT Service Management flexibel an die eigenen Bedürfnisse anzupassen und bei Bedarf auch schrittweise zu erweitern. Ein Wechsel von der Cloud zum On-Premise-Modell oder umgekehrt ist dadurch jederzeit möglich. Egal, für welche itSM Heft 23 - März 2013 itSMF Performance News Cloud Computing Foundation mit international anerkannter Zertifizierung Option sich ein Unternehmen entscheidet: System, Daten und User Interface bleiben gleich. Die Anpassungsfähigkeit der Lösung zeigt sich aber auch bei den Finanzierungsmöglichkeiten, die sowohl die Abrechnung als Investition, als laufende Betriebskosten oder eine Mischform zulässt. Neues Seminar für IT Manager, Business Manager, Service Manager, IT Professionals und Einkaufsspezialisten von Cloud-ProviderOrganisationen und Cloud-Kunden: „Cloud Computing Foundation“ Was bedeutet “Federation” im “Identity Management” bei Cloud Services ? Durch ihre einfache Skalierbarkeit loh- Wenn Sie diese Frage auf Anhieb beantworten nen sich Hybrid-Ansätze vor allem für Fir- können, sind Sie auf dem richtigen Weg, Cloud men, die ein starkes Mitarbeiterwachstum Computing als DAS neue Business-Modell für erwarten, mehrere Standorte haben oder IT-Services erfolgreich einsetzen zu können. Neeine Applikation schrittweise weiteren Nut- ben diesem security-relevanten Thema ist aber eine ganzheitliche Auseinandersetzung mit den zergruppen zugänglich machen möchten. Spezifika des Cloud Computings hinsichtlich Introduction Gleichzeitig profitieren sie von einem einArchitektur, Prozessen, Organisation, Skillsets, heitlichen und anforderungsgerechten Ser- Service Management und Governance erforderIntroduction vice Management, das den gesamten ITIL | lich. Course objectives Overview Cloud Computing | Service Lifecycle abdeckt. Folgende Konzepte, Prinzipien und Modelle werden vermittelt: 1. Prinzipien des Cloud Computings • • • • • Alleinstellungsmerkmale Deployment- und Servicemodelle Die Entwicklung des Cloud Computings Cloud-Computing-Architekturen Vorteile und Beschränkungen 2. Implementation und Management der Cloud • Aufbau einer Cloud-Umgebung • Hard-und Softwarekomponenten • Service-Management-Konzepte 3. Benutzung der Cloud From Knowledge. To Proficiency. To Implementation. Anwender können Services und Änderungen über die ITSM-Plattform komfortabel beantragen, die IT-Abteilung kann geeignete Korrekturmaßnahmen einfach planen und die Änderungen automatisch bereitstellen. Auch die Überwachung von ComplianceAnforderungen und der zugehörigen SLAs sowie die Steuerung des Service-Portfolios lassen sich so einfach und schnell realisieren. Dies hilft nicht nur, den Nutzern einen erstklassigen und effizienten Service zu bie© Glenfis AG | www.glenfis.chAbbildung: Übersicht © EXIN | Cloud Computing Foundation Cloud Computing ten und so deren Zufriedenheit zu steigern, sondern reduziert gleichzeitig auch die damit Der notwendige und strukturierte Wissensverbundenen Kosten sowie Komplexität. erwerb für erfolgreiches Cloud Computing, sowohl auf Anbieter, als auch auf KundenseiFazit te steckt noch in den Anfängen. Viele offene Um für neue Anforderungen gerüstet zu sein, Stellen bleiben heute unbesetzt - der Mangel an sollten Unternehmen hybrid-fähige ITSM- Cloud-Experten verschärft sich. Dem Bereich Lösungen wählen, die sich flexibel an ihre Cloud Computing wird jedoch das grösste ITJob-Wachstum der nächsten Jahre vorausgesagt. individuellen Bedürfnisse anpassen lassen und mit der Firma mitwachsen. So können Viele der vorhandenen Bildungsangebote sie mit einer Plattform sowohl ihre klassi- fokussieren sich rein auf die Technologiesche IT-Infrastruktur als auch cloud-basierte managementkomponenten von Cloud ComAngebote abdecken, ohne neue Informati- puting. Mit dem durch EXIN akkreditierten onssilos sowie hohe Integrationskosten zu Kurs „Cloud Computing Foundation“ bietet riskieren. Dies hilft, die betriebliche Effizienz Glenfis seit letztem Herbst umfassendes Wiszu maximieren, die IT-Kosten zu reduzieren sen über alle Cloud Service-Komponenten sowie die Servicequalität und Compliance zu hinweg an. Damit werden entscheidende Voraussetzungen geschaffen, die Kursteilverbessern. nehmer zu wertvollen „Change Champions“ bei der Entwicklung oder dem Einsatz von Cloud Computing aufzubauen. Anton Kreuzer FrontRange Solutions Deutschland GmbH [email protected] www.frontrange.com Der Kursinhalt wurde in enger Zusammenarbeit mit führenden IT-Industrie- und Beratungsfirmen, abgestimmt auf die Bedürfnisse von CloudAnbietern und Cloud-Kunden, entwickelt. • Cloud-Access für Benutzer • Unterstützte Business-Prozesse • Traditionelle Service Provider und die Cloud 4. Cloud Security- und Compliance-Konzepte • Security-Risiken und deren Management • Management von „Identity“ und „Privacy“ • Internationale und spezifische Standards, Gesetze und Zertifizierungen 5. Evaluation von Cloud-Computing-Angeboten • Business Case für Cloud Computing • TCO-Betrachtungen 1 • Evaluation von Cloud-ComputingAngeboten • Selektion von Anbietern Das Seminar dauert 2 Tage und richtet sich unter anderem an folgende Teilnehmer: Kundenseite: IT-Leiter, IT-Einkäufer, Programm Manager, Service Manager, Business Manager, Supplier Manager, Quality, Compliance- und Risk-Manager Anbieterseite: Account Manager, Service Manager, Transition Manager, Bid Manager, Vertragsmanager Einzigartiges Angebot in Zentraleuropa: Der Kurs ist eines der wenigen Angebot dieser Art in Zentraleuropa. Die Unterrichtssprache ist entweder Englisch oder Deutsch. Der Kurs kann auch als In-house-Kurs gebucht werden, die Mindestteilnehmerzahl ist 6. Das Examen besteht aus einer 40 Fragen Multiple-Choice-Prüfung in Englisch. Die Prüfung kann entweder papierbasierend oder elektronisch abgelegt werden. Die Teilnehmer, welche 26 und mehr richtige Antworten erreichen, erhalten das EXIN Cloud 29 30 itSMF Performance News Neustart für den Service-Desk Computing Foundation Zertifikat. Dieses Zertifikat, kombiniert mit dem EXIN IT Service Management und dem Security Management Zertifikate berechtigen zum Erwerb des „EXIN Certified Integrator Secure Cloud Services“ Titel. Glenfis als unabhängiger Cloud-Service-Begleiter Basierend auf den umfassenden Kenntnissen und Erfahrungen im IT-Governance- und Sourcing-Bereich, bietet Glenfis einen Coaching/Consulting-Service für Firmen an, die sich entschliessen, Cloud-Strategien zu entwickeln und umzusetzen. Der Service umfasst u.a. • • • • Cloud Readiness Assessments Cloud Control Matrix Evaluation des Cloud-Anbieters Aufsetzen der Governance Frame Works zwischen Kunde und Anbieter. Antwort zur Eingangsfrage Es handelt sich um Cloud-basiertes „identity management” das ein “single-sign-on“ für mehrere Systems ermöglicht. Ben Martin Glenfis AG Vom Kennen. Zum Können. Zum Tun. [email protected] www.glenfis.ch HP Service Anywhere vereint Vorteile von SaaS und lokaler ITSM-Lösung HP hat die Service-Desk-Lösung HP Service Anywhere von Grund auf neu entwickelt. Damit reagiert der Anbieter auf Forderungen nach einer leicht zu bedienenden und flexibel erweiterbaren SaaS-Lösung (Software as a Service). Dies äußert sich vor allem in Anpassungen ohne Programmieraufwand („Codeless Configuration“) sowie in der klaren Trennung von Programm- und CustomizingCode, um auch bei kundenspezifischer Erweiterung für problemlose Upgrades zu sorgen. Bislang hatten Service-Desk-Leiter die Qual der Wahl: Entweder setzt man auf eine per Customizing bis ins Kleinste auf die Bedürfnisse der eigenen IT-Support-Organisation ausgerichtete lokal installierte ITSM-Lösung - oder aber man profitiert von den Kostenund Betriebsvorteilen der Public Cloud, wie das zunehmend beliebte SaaS-Modell sie verspricht. Ein Mittelweg schien lange nicht möglich, galten doch SaaS-Angebote als vergleichsweise starr und unflexibel. Doch nun hat HP Software mit HP Service Anywhere die nächste Generation seiner ITSM-Lösungen auf den Markt gebracht: Diese Service-Desk-Lösung, Ende Oktober 2012 nach umfangreichen Beta-Tests mit Kunden vorgestellt, ist speziell darauf ausgelegt, die von Unternehmen geforderte leichte Bedienbarkeit und flexible Anpassungsfähigkeit mit den Vorteilen einer SaaS-Lösung zu kombinieren. Intuitive Bedienung HP Service Anywhere präsentiert sich dem ITSM-Verantwortlichen wie auch dem Ser- vice Desk Agent mit einer aufgeräumten, intuitiv bedienbaren Web-Oberfläche. Die hinterlegten Workflows sind selbstverständlich an den ITIL Best Practices ausgerichtet, der Benutzer erhält via grafischer Darstellung Angaben über den aktuellen Status des jeweiligen Ablaufs. Ein Self-Service Interface für die Endanwender bzw. Kunden beschleunigt die Ticket-Erfassung, Chat-Funktionalität erleichtert - ganz im Sinne einer „Social Collaboration“ - die zügige Bearbeitung vom First bis zum Third Level Support. Die Lösung unterstützt das Incident-, Problem- Change- sowie das Configuration-Management und damit die für den Service-Desk-Alltag wichtigsten ITIL-Prozesse. Anpassungen an Design, Prozessen und Workflows sind ohne Programmierkenntnisse durchführbar; die Software speichert Modifikationen separat und ermöglicht so reibungslose automatische Upgrades, wie sie bei SaaS-Lösungen zu erwarten sind. Wie der große On-Premise-Bruder HP Service Manager 9.3, so nutzt auch HP Service Anywhere HPs leistungsstarke UCDMB als zentrales Daten-Repository. Teile des Codes von HP Service Anywhere beruhen auf HPs bewährter On-Premise-Software, in die sich die SaaS-Lösung entsprechend leicht integriert. Dies erlaubt bei Bedarf den Aufbau einer hybriden ITSM-Umgebung. Das Beste beider Welten HP Service Anywhere kombiniert intuitive Bedienung, leicht anpassbare hinterlegte ITIL-Prozesse, Self-Service-Funktionalität und Social Collaboration mit den automatisierten, transparenten Upgrades und der hohen Skalierbarkeit einer SaaS-Lösung bei einer garantierten Verfügbarkeit von 99,9% - all dies SaaS-typisch ohne initiale Investitionen in Hard- oder Software. Ein weiteres Plus: Den leichten Umstieg bietet HP Consulting zum Pauschalpreis. Testen kann man die Cloud-Lösung jederzeit unter www.hpserviceanywhere.com. Service Anywhere Benutzerinterface Im übersichtlichen Web-Interface von HP Service Anywhere sieht der Service Desk Agent jederzeit den Status des jeweiligen Arbeitsablaufs, im Bild die Kategorisierung eines Incidents im Rahmen des IncidentManagements. Abbildung: Service Anywhere Benutzerinterface Christian Schütz Hewlett-Packard GmbH [email protected] www.hp.com/de itSM Heft 23 - März 2013 itSMF Performance News Advertorial Projekt P A C E - Sieger itSMF-Projekt-Award 2012 HP Service Anywhere Leistungsfähiger und intuitiver Service Desk auf SaaS-Basis Mit HP Service Anywhere hat HP eine komplett neue Service-Desk-SaaS-Lösung für das IT-Service-Management auf den Markt gebracht. Diese unterstützt Unternehmen dabei, Störungen in der IT schnell zu beheben. Als SaaS-Lösung ist HP Service Anywhere einfach zu implementieren, zu bedienen und zu aktualisieren. HP Service Anywhere verfügt über eine intuitive Drag-and-Drop-Benutzeroberfläche und Konfigurationstools die mit Assistentenunterstützung gesteuert werden. Die Bereitstellung über SaaS von HP vereinfacht die Bewertung, beschleunigt die Implementierung und macht die Lösung durch nahtlose Skalierbarkeit und Upgrades zukunftssicher. HP Service Anywhere ist nach ISO/IEC 27001 zertifiziert und überzeugt mit der Zuverlässigkeit, die Sie von einem anerkannten Marktführer erwarten können. HP Service Anywhere bietet Ihnen umfassende Service-Desk-Funktionen: Die Lösung verarbeitet eingehende Anfragen und beherrscht die IT Service Configuration ebenso wie das Incident-, Problem- und Change-Management. Zu ihren Besonderheiten gehört die direkte Kommunikation über Social Collaboration Methoden: Per Chat können Mitarbeiter Fragen und Hinweise zur Fehlerbehebung austauschen. Die vertraglich zugesicherte Verfügbarkeit von HP Service Anywhere liegt bei 99,9 Prozent. HP Service Anywhere im Überblick • Service Anywhere hat vollständig Web-basierte Werkzeuge für das ProzessDesign. Sie lassen sich zu 100 Prozent über grafische Benutzeroberflächen bedienen. Das Schreiben von Skripts oder Codes ist überflüssig. Die Werkzeuge entsprechen den „Best Practices“ der Information Technology Infrastructure Library für Incident-, Problem- und- Change-Management. • Mit den Werkzeugen von Service Anywhere lassen sich auch Upgrade-Workflows ohne Skripte oder Programmierung erstellen. Das vereinfacht die Erweiterung von Datenmodellen und die Gestaltung einfach bedienbarer Eingabemasken. • HP Service Anywhere beschleunigt die kontextbezogene Bearbeitung von Stör- oder Sicherheitsvorfällen. Vorfälle werden mit der Social-CollaborationSoftware „HP Enterprise Collaboration“ aufgenommen, zwischen ServiceDesk-Nutzern geteilt und mit den Service-Desk-Objekten in der Datenbank des Systems verknüpft. • H P Service Anywhere nutzt Schlüsseltechnologien wie die HP Universal Configuration Management Database (UCMDB). Die UCMDB enthält Informationen über IT-Services, Anwendungen und Hardware und deren Beziehungen zueinander über die gesamte IT-Umgebung hinweg. Die nötigen Informationen erhält die Datenbank unter anderem von der HP Universal Discovery Software: Sie erkennt automatisch kritische IT Bestandteile und stellt deren Beziehungen über das sogenannte „Dependency Mapping“ dar. • HP Service Anywhere lässt sich flexibel mit HP’s IT Service Management Lösung „HP Service Manager“ kombinieren. Wenn Sie Fragen zu HP Service Anywhere haben, dann rufen Sie uns einfach unter Telefon +49 (0) 69 66 30 80 25 an. Oder Sie testen HP Service Anywhere gleich 30 Tage unverbindlich unter www.hpserviceanywhere.com Mehr Informationen zu HP Software, Trial Software sowie Whitepaper finden Sie unter www.hp.com/de/software Abbildung 1: Projektteam PACE Professional and Agile Contribution to operational Excellence Als Teil der französischen Großbank Société Générale ist die Gruppe Société Générale Equipment Finance führender Anbieter für spezialisierte Finanzdienstleistungen in Europa und weiteren Geschäftseinheiten außerhalb Europas. GEFA - Gesellschaft für Absatzfinanzierung mbH, GEFA-Leasing GmbH und PEMA GmbH sind die Unternehmenseinheiten, die in Deutschland das Geschäftsfeld Société Générale Equipment Finance repräsentieren. Die GEFA IT ist als interner Service-Provider seit 2007 auf Basis der Norm ISO/IEC 20000 zertifiziert. Die von der IT zu erbringenden Serviceleistungen werden konsequent auf die Unternehmensziele und Geschäftsprozesse der internen Kunden ausgerichtet. Die in Ergänzung zur Aufbauorganisation etablierte prozess- und serviceorientierte Ablauforganisation hat sich nachhaltig erfolgreich bewährt, was sich auch in den Ergebnissen unserer regelmäßigen Kundenzufriedenheitsmessungen deutlich zeigt. Unsere Geschäftsprozesse werden durch wirtschaftliche, zuverlässige und effektive ITServices und ITSM-Prozesse sowie bedarfsgerechte IT-Lösungen unterstützt und bieten einen sicheren Zugriff auf leistungsstarke Anwendungen und korrekte Daten. Um diese konsequente Ausrichtung der IT noch zu untermauern, wurde die langfristig angelegte, und von der Geschäftsleitung unterstützte strategische Initiative improve it ins Leben gerufen. Diese Initiative steht für die Leistungsbereitschaft und Leidenschaft, mit der sich alle Mitarbeiterinnen und Mitarbeiter der GEFA IT in ihre tägliche Arbeit einbringen und den Anspruch haben, sich und unsere IT-Services kontinuierlich immer weiter zu verbessern. 31 32 itSMF Performance News Das am itSMF Jahreskongress am 3. Dezember mit dem Project Award 2012 ausgezeichnete Projekt PACE (Professional and Agile Contribution to operational Excellence) ist ebenfalls Ausdruck und Spiegelbild für die seit mehreren Jahren in der GEFA IT durchgeführten Optimierungs- und Verbesserungsprojekte und das hohe Engagement der Mitarbeiterinnen und Mitarbeiter, unser ITSM noch effizienter zu gestalten, sodass unsere internen Kunden ihre Geschäftsprozesse noch schneller und effektiver bewältigen können. Mit dem Projekt sind wir einen weiteren innovativen und herausfordernden Schritt in unserer IT-Service-Management-Organisation gegangen. Es beinhaltete nicht nur die Realisierung fachlicher Anforderungen im Rahmen eines umfassenden ITSM-ProzessRedesigns, sondern vereinte gleich mehrere unterschiedliche methodische und technologische Zielsetzungen, Herausforderungen und Chancen: • Erhöhung des ITSM-Prozess-Reifegrades von ITIL V2 auf V3 sowie im Kontext zur Novelle der ISO/IEC 20000:2011 • Industrialisierung von ITSM-Abläufen Einführung ITIL Prozesse Zertifizierung ISO/IEC 20000 2006 2007 • E inführung eines Self-Service-Portals für Kunden zum Abruf automatisierter Services und einer durchgängigen Transparenz über die Effizienz und Effektivität in der IT-Leistungserbringung • Automatisierte Kundenzufriedenheitsumfragen sowie -auswertungen • Einführung einer neuen ITSM-Suite • Weiterentwicklung unseres Projektmanagement-Frameworks durch Anwendung von Elementen agiler Softwareentwicklung [SCRUM] mit Elementen des klassischen Projektmanagements [PRINCE2], um „das Beste aus beiden Welten“ in einer effizienten Methodik zu vereinen • Integration des Projekts in den Ausbildungsplan unserer Auszubildenden inder IT • Durchführung von Aus- und Weiterbildungsmaßnahmen bereits während der Projektlaufzeit, u.a. SCRUM-Professional-Master-Zertifizierungen sowie Software-Administratoren-Schulungen • Auftragsvergabe zur Erstellung einer Bachelorarbeit zum Thema ‚Optimierung der internen Kundenumfragen und Ergebnisanalysen‘ in Zusammenar- Kontinuierliche Verbesserung 2008/2009 Rezertifizierung ISO/IEC 20000 2010 Re-Engineering ITSM Prozesse 2011/2012 Abbildung 2: ITSM-Historie GEFA IT-Organisation Rechtzeitige Einbindung der Stakeholder Angebot von Individualtrainings Soft-Skills des Projektteams Frühzeitige Planung der Trainings Projekterfolg Marketingkonzept Abbildung 3: Erfolgsfaktoren im Projekt PACE Standardisiertes Trainingskonzept Angebot von Individualtrainings Bedarfsgerechte Trainingseinheiten beit mit der Hochschule Bochum • Umfassendes Trainingskonzept für alle ITMitarbeiter sowie beteiligte Fachbereiche Nachfolgende konsequent über die gesamte Projektlaufzeit umgesetzte Aspekte haben maßgeblich zum Erfolg des Projektes beigetragen und basieren in erster Linie auf einer frühzeitigen Einbindung („Mach-mit-Effekt“) aller von den Änderungen betroffenen Stakeholdern. Die von Beginn an intensive Anwenderund Kundenbetreuung über unseren skilled Service Desk zur Klärung aller Fragen, sind zusätzliche Verstärkungsfaktoren, die helfen, das Verständnis und die Akzeptanz für die Neuerungen beim Anwender und Kunden zu erzeugen und den Added value für den Kunden in den Vordergrund zu rücken. Abschließend noch ein kurzer Ausblick wie wir unsere ITSM-Reise in 2013 weiter fortsetzen werden, natürlich ebenfalls im Kontext unserer strategischen Initiative improve it: • Integration weiterer Business-Prozesse anderer Fachbereiche wie z.B. HumanRessource-, Marketing- und Organisationsprozesse mit dem Ziel, durch automatisierte Verarbeitung von Standardabläufen eine messbare Entlastung für die Fachbereiche zu schaffen • Erweiterung des Self-Service-Portals als zentrale Kommunikationsplattform im Unternehmen • Weiterer Ausbau der bereits in 2011 gestarteten strategischen Initiative im Off-Shoring-Bereich durch den Verstärkungsfaktor Testautomation für die geschäftskritischen Applikationen • Erneute Bestätigung des internationalen Güte-siegels ISO/IEC 20000-1:2011 (Oktober 2013) • Optimierung unserer Information Security- und Risiko Management Prozesse im Kontext zur ISO/IEC 27001 und COBIT Melanie Poppe-Merfels Societe Generale Equipment Finance GEFA Gesellschaft für Absatzfinanzierung mbH GEFA-Leasing GmbH [email protected] www.gefa.de itSM Heft 23 - März 2013 itSMF Performance News Wissen auf Lager legen und die IT-Performance erhöhen Automatisierung und Orchestrierung sowie Standardisierung sind wirksame Werkzeuge, die IT-Performance zu verbessern. Die Leistungsfähigkeit von IT-Abteilungen steht regelmäßig auf dem Prüfstand. Hierbei geht es darum, was eine IT-Abteilung als Organisationseinheit zu leisten vermag. Die ITPerformance variiert je nachdem, wie modern oder veraltet die eingesetzten Systeme sind, welche Methoden und Techniken die Mitarbeiter für den Umgang mit den Systemen anwenden und wie gut sie dafür ausgebildet sind. Anerkannte Mittel, die eigene Leistungsfähigkeit zu steigern, sind Virtualisierung und vor allem Automatisierung und Orchestrierung. Sie steigern die Qualität der Leistungen insgesamt: Die Umsetzung wird gleichartig und nachvollziehbar. So lassen sich Fehler reduzieren und Richtlinien besser einhalten. Darüber hinaus erhöht sich die Geschwindigkeit zur Bereitstellung der Leistungen und Bereitstellungszeiten lassen sich garantieren. Ebenfalls wichtig ist, dass die Leistungserbringung unabhängiger von menschlichen Ressourcen wird. Diese Vorteile einzufahren, erfordert einige Vorarbeiten in Automatisierung und Orchestrierung. Es bringt aber den Nutzen, dass sich diese Vorarbeiten zu einem späteren Zeitpunkt als Lagerware abrufen und beliebig duplizieren lassen. Die vorgefertigten Komponenten – so genannte StandardBuilding-Blocks – werden später nach Bedarf ausgeführt. Es sind technische Einheiten, die einen Service erbringen. Sie enthalten alle Informationen darüber, welche Technologien sie abbilden, welche Richtlinien einzuhalten sind und welche Konfigurationen inkl. Herstellungsmethoden ihnen zugrunde liegen. Standardisierte Prozesse Die Grundlage für eine effiziente Automatisierung sind standardisierte Prozesse, Technologien und Komponenten. Als Standard-Building-Blocks gut geeignet sind beispielsweise die Installation von Betriebssystemen, Datenbanken und Web-Servern. Beispielsweise bei der Bereitstellung von virtuellen Servern ist der Nutzen schnell spürbar. Einmal konfiguriert, funktionieren die Abläufe immer gleichartig und halten alle erforderlichen Richtlinien konsequent ein. Doch nicht nur so genannte Massenthemen, die Arbeitszeit sparen, eigenen sich für Standardisierung und Automatisierung. Auch häufig wiederkehrende, komplexe Prozesse mit hohen Qualitätsanforderungen sind prädestiniert dafür. Insgesamt erhöhen Standardisierung und Automatisierung deutlich die Flexibilität der IT. IT-Automatisierung teilweise noch Neuland Bereits weit verbreitet sind Standardlösungen für die Automatisierung, wie beispielsweise für die Bereitstellung von Clients und Servern. Auch ist es üblich, dass Mitarbeiter im Rechenzentrum ihre individuellen Sets an Skripten entwickeln und wiederkehrende Arbeiten automatisieren. Diese Sets an Skripten sind oftmals jedoch nur von wenigen Eingeweihten bedienbar. Für viele IT-Abteilungen noch Neuland ist die vollständig werkzeuggestützte Runbook-Automatisierung, wie sie von einem Change-Management gefordert wird und die immer gleichartig abläuft. Runbooks unterstützen den Roll-Out der weiter oben angeführten Building-Blocks. RunbookAutomatisierung wird auch als Serviceorchestrierung bezeichnet. Wie dieser Begriff andeutet, dient die Serviceorchestrierung zur Automatisierung von Serviceprozessen, wie zum Beispiel der Bereitstellung eines neuen Arbeitsplatzes, einer Anwendung oder eines Servers. Die Serviceprozesse können sich über Anwendungs- und Infrastrukturgrenzen hinweg erstrecken. Der Orchestrierungsprozess umfasst die Annahme des Automatisierungsauftrags, die Anforderung von prozessrelevanten Daten und die Ausführung technischer Automatisierungsprozesse anderer Werkzeuge bis zur Auslieferung des angeforderten Services. Damit ist die Serviceorchestrierung bzw. Runbook-Automatisierung eine übergeordnete Managementinstanz, die die heute vorherrschende Siloorganisation in den IT-Abteilungen miteinander verbindet. Sie schafft den Brückenschlag zwischen den organisatorischen Serviceprozessen und den einzelnen Automatisierungsschritten in den technischen Silos. Mithilfe einer solchen Managementinstanz können die Siloorganisationen auch künftig unterschiedlich bleiben. Silos über Brücken verbinden Wie die perfekte Nutzung der Siloorganisation in der IT aussieht, lässt sich anhand eines altgriechischen Tempels darstellen: Die verschiedenen Säulen – Silos – sind die tragenden Fundamente. Darüber liegt ein Tragbalken – eine Schicht für Automatisierung und Prozesse. Die Prozesse sind die Leitplanken der Automatisierung. Mithilfe dieser Schicht können Prozesse, Systeme und Komponenten auch über Silogrenzen hinweg zusammenarbeiten. Das Dach des Tempels bilden schließlich die Anforderungen der Fachbereiche. Um die wichtige Automationsschicht aufzubauen, muss die IT ihre Prozesse definieren und beantworten, wie die Verfahren und Systeme untereinander funktionieren sollen. Im Anschluss an die organisatorischen Überlegungen gilt es, eine geeignete Architektur sowie eine Orchestrierungs- und Automatisierungslösung zu finden, die die Daten eines Verfahrens und Systems abgreift und anderen bereitstellen kann. In die Auswahl fließen die eingesetzten und somit zu unterstützenden Technologien sowie das in den IT-Bereichen vorhandene Know-how ein. Materna verwendet dazu den ServiceLifecycle-Ansatz, bei dem entlang aller Teilschritte zur Bereitstellung von Services die jeweils notwendigen Daten und Prozesse ermittelt werden. Mittels Service Lifecycle Management kann die IT ableiten, welche Leistungen an welchen Stellen in der IT-Organisation erbracht werden, wie der Input verarbeitet und Ergebnisse ausgegeben werden, wie die Bereitstellungsprozesse sind und welche Schnittstellen existieren. Dann können die Unternehmen auch ihre Silos beibehalten. Michael Ziegler Materna GmbH [email protected] www.materna.de 33 34 itSMF Performance News Ran an den Speck: Wie sich eine schlanke Serviceorganisation als Schwergewicht im Unternehmen behauptet Das Gewicht der IT-Serviceorganisation im Unternehmen als Schnittstelle zwischen IT und Business nimmt zu. Sie muss immer neue Anforderungen aufnehmen, den laufenden Betrieb kosteneffizient sicherstellen und die Fachabteilungen am Besten in Eigeninitiative mit intelligenten Lösungen unterstützen. Gleichzeitig wird ihr als Produzent bzw. Anbieter von Services ein konsequentes Schlankheitsprogramm verordnet: Schlanke Produktion, schlanke Organisation – so lautet die interne Devise. Oder mit anderen Worten: Mit intelligenten Lösungen Prozesse automatisieren, Kosten sparen und Service zu einem positiven Erlebnis für den Endanwender machen. Wie ist beides unter einen Hut zu bringen? Wie gelingt es, die Rolle als Schwergewicht im Unternehmen trotz bzw. mit dem (selbst)verordneten Schlankheitsprogramm zu behaupten? Ein wichtiger Schritt in die richtige Richtung ist die konsequente Beschäftigung mit Themen, die schon längst vom Trend zum festen Bestandteil der IT-Management-Agenda geworden sind. Dazu gehören unter anderem Handlungsfelder wie IT-Self-Service und Mobility. Vom Full-Service zum Self-Service: Selbst ist der Kunde! Self-Service-Angebote haben in unserer Gesellschaft ihren festen Platz: Ob Geldautomaten, Schnellrestaurants oder Selbstbedienungskassen– sie alle sind aus unserem zeitgetriebenen Alltag praktisch nicht mehr wegzudenken! Das Dienstleistungsgewerbe verspricht sich vom Self-Service vor allem Kostenreduktion, Zeitersparnis und eine bessere Verfügbarkeit. Auch IT-Service-Organisationen versuchen seit geraumer Zeit mit Self-Service-Angeboten auf Kundenseite ein qualitativ hochwertiges Serviceerlebnis zu schaffen und gleichzeitig Personal- und Betriebskosten zu reduzieren. haben Endanwender u.a. die Möglichkeit • eigene Störungsmeldungen zeit- und ortsunabhängig aufzugeben, • den Bearbeitungsfortschritt nachzuverfolgen, • mit dem integrierten Webshop Hardware und Systemzugriffe zu bestellen, • oder Service Requests einzureichen. Das Ergebnis ist eine erhöhte Verfügbarkeit von Services, ein qualitativ hochwertiges Serviceerlebnis und eine Entlastung der Servicemitarbeiter von Routineaufgaben, die schließlich mehr Zeit für individuelle Problemlösungen oder die proaktive Erarbeitung von Serviceangeboten für die Fachabteilungen schafft. ITSM für die Hosentasche: Applikationen für mobile Endgeräte Moderne Kommunikation ist heute ohne den Einsatz mobiler Technologie wie Smartphone, Tablet oder PDA undenkbar. Auf dem Weg zur schlanken Serviceproduktion, kommt die IT-Serviceorganisation deshalb auch am Thema Mobility nicht mehr vorbei. Zunächst als einer von vielen Trends gehypt, ist der Einsatz mobiler Endgeräte für die qualitativ hochwertige und effiziente Serviceerbringung inzwischen schon längst unabdingbar. Vor allem wer viele Servicemitarbeiter im Außendienst beschäftigt, weiß den stets griffbereiten Zugriff seiner Teams auf Störungsmeldungen, Zeitbuchungsfunktionalitäten und die Registrierung der aufgewendeten Materialien zu schätzen - nicht zuletzt im Sinne einer direkten Fakturierung. Mobiler Service: Direkte Kommunikation - Direkte Fakturierung Wer also eine anwenderfreundliche mobile Applikation für das IT Service Management zum Einsatz bringt, profitiert von effizienter Kommunikation, der Möglichkeit Störungsfälle im Blick zu behalten und bei Bedarf zuzuordnen, Time und Material zu registrieren und die Aufwände schließlich direkt zu fakturieren. Wendias Applikation für mobile Endgeräte besticht mit einem benutzerfreundlichen Interface und mit innovativen Features wie • Zeitbuchungsfunktionalitäten, • der Identifikation und Protokollierung eingehender Calls, • Zuweisung und Priorisieren von Tickets, • SLA-Kontrolle, • Zugriff auf die Knowledge-Datenbank, • Real-Time-Dashboards Die Applikation für mobile Endgeräte basiert auf HTML 5 und ist im Einsatz plattformunabhängig. Der Zugriff ist über alle gängigen Browser möglich. Ihre Serviceorganisation soll schlanker werden? Gerne unterstützen wir Sie mit wirksamen Lösungen und dem richtigen Programm! Sprechen Sie uns an: T +49 89 54 052 214 [email protected] Miriam Gögelein Wendia AG Deutschland / Wendia AG Schweiz [email protected] www.wendia.de Wie geht guter Self-Service? Mit der IT-Service-Management-Software von Wendia ist guter Self-Service mit wenigen Mausklicks machbar. Er verschafft dem Endanwender einen Vorteil gegenüber dem klassischen Full-Service der IT. Dazu gehören unter anderem spürbar bzw. messbar kürzere Lösungszeiten genauso wie die Verfügbarkeit von Service und Support-Leistungen unabhängig von Standort und Geschäftszeiten. Mit dem Self-Service-Portal der Toolsuite itSM Heft 23 - März 2013 36 itSMF Performance News Change the Business, Run the Business – Leadership in Transition Das Interview führte Jürgen Dierlamm für den itSMF Deutschland e.V. mit Hartmut Stilp, dem Gründer und Geschäftsführer der Maxpert GmbH. Das Unternehmen war 2001 einer der Mitgründer des Vereins. Jürgen Dierlamm: Hartmut, Du veranstaltest in diesem Jahr am 15./16. Mai zum ersten Mal eine Konferenz. Was hat Dich dazu bewogen? Hartmut Stilp: Dafür gibt es zwei Gründe. Zum einen haben unsere Kunden den Wunsch an uns heran getragen etwas zu machen, bei dem wir über den Tellerrand der Hype-IT-Themen hinaus schauen, neue Impulse setzen und grundsätzliche Fragen angehen. Zum anderen wünschen sie eine Konferenz, die nicht wie eine Messe daher kommt und die Pausen zum Basar werden. Wir haben keine Sponsoren und Aussteller an Bord, bieten aber ein außergewöhnliches Programm für kleines Geld. Wir wollen damit nichts verdienen. JD: Impulse setzen und über den Tellerrand hinausschauen nehmen alle Konferenzen in Anspruch. Was unterscheidet denn die Maxpert Konferenz? HS: Zuerst wollen wir wissen, welche Trends und Entwicklungen den Wandel bestimmen und welche Schlüsse sich daraus ziehen lassen. Müssen neue Visionen her? Wir haben Andreas Steinle gebeten, mit uns seine Einblicke zu neuen Märkten, Cross Innovations und Consumer Power zu teilen. Von Uli Hoeneß wollen wir wissen, wie aus einem Deutschen Meister der wirtschaftliche und sportliche Global Leader wird. Wie schaffte er es mit dem Unternehmen FC Bayern, sich über Jahrzehnte fest an der Weltspitze zu etablieren? Wie plant er, wie geht er auf die unterschiedlichen Stakeholder ein? Wie werden die Risiken gemanagt? Fragen, die uns jeden Tag beschäftigen. Wir sind sehr auf die Antworten dieses Top-Managers gespannt. Es gibt wenige mit einem solchen Record an Managementerfahrung. JD: Nun ist die Maxpert ja auch im Programm- und Projektmanagement unterwegs. Hören wir dazu etwas, das deutsche Projektgeschäft sorgt ja weltweit für Aufsehen? Made in Germany bekommt derzeit ein ganz neues Image. HS: Wir haben Klaus Grewe interessieren können. Er war der Koordinator aller Projekte von Olympia 2012. Von ihm interessiert uns, warum die Olympiade 2012 „in time and in budget“ auf den Punkt fertig geworden ist. Was ist sein Code für erfolgreiche Großprojekte? Die haben in London ja nicht nur einen Bahnhof gebaut. Er soll uns den Schlüssel dazu in die Hand geben. Und dann schauen wir uns das Thema Führung in der Tiefe an. Wandel braucht Leadership. Wie müssen sich Leader wandeln? Und in welche Richtung? Die Erwartungshaltung an das Management ändert sich stark. Reinhard Sprenger wird uns mit seinen unbequemen, provokativen und erfolgreichen Thesen konfrontieren. Wir sind gespannt. JD: Welche grundsätzlichen Fragestellungen greift die Konferenz auf? HS: Die dramatische Geschwindigkeit, Komplexität, Transparenz und die Wechselwirkungen in unserer heutigen Gesellschaft erzeugen Transformationen beispielloser Größenordnungen. Deshalb sind Unternehmen und ihre Leader gefordert, auf allen Ebenen nachhaltige Fähigkeiten für die Gestaltung des permanenten Wandels zu entwickeln. „Leadership in Transition“ ist unser Thema. Das treibt uns an, hier werden wir Impulse setzen und konkrete Vorschläge machen. JD: Welche Fähigkeiten müssen vorhanden sein, oder welche sind zu schaffen? Was können die Teilnehmer an neuen Einsichten erwarten? HS: Bevor ich darauf eingehe, möchte ich unsere grundsätzliche Sicht beschreiben. Wir unterteilen den Unternehmensglobus in die zwei Hälften ‚Run the Business‘ und ‚Change the Business‘. Im „Run“ haben wir die betrieblichen Abläufe, die wir immer besser machen wollen. Bessere Qualität, weniger Kosten, höhere Produktivität und zufriedenere Kunden sind die klassischen Treiber. Wir befinden uns im täglichen Wettbewerb; es ist schwer, immer wieder Schritt zu halten oder damit die Wettbewerbsfähigkeit überdurchschnittlich zu verbessern. JD: Ja, das kennen wir auch aus unserer Arbeit im itSMF. Die Methoden und Verfahren sind allseits bekannt, hier gibt es keine Geheimnisse mehr. HS: Das ist richtig. Trotzdem stellen wir fest, dass es in sehr vielen Unternehmen noch ganz grundsätzliche Probleme mit den betrieblichen Basisprozessen gibt. Incident, Problem und Change Management sind in vielen Fällen noch nicht ausreichend beherrscht, Asset und Configuration Management unterbelichtet. Ganz zu schweigen von den Schnittstellen der Entwicklung in den Betrieb. Das Anforderungsmanagement hin zu den Service-Design-Prozessen sind weiße Flecken. Servicekataloge und die Ermittlung der Preise oder die Verrechnung der Kosten hat selbst bei großen Service Providern, die ihr Geld damit verdienen, keinen ausgeprägten Reifegrad. Wir schulen und beraten jährlich Tausende von Leuten aus allen Branchen und Größenordnungen und was wir feststellen ist, dass es hier noch riesige Potenziale gibt. Bevor wir uns mit Bring Your Own Device, Mobile, Cloud, Big Data, Social Collaboration und den anderen Hypes beschäftigen, müssen wir das Fundament dafür bauen. JD: Erläutere doch bitte unseren Lesern, was mit ‚Change the Business‘ gemeint ist. HS: Das ist die Fähigkeit einer Organisation, Projekte erfolgreich zu stemmen. In Projekten kommen Mitarbeiter, Lieferanten und Kunden erstmals zusammen, um ein einmaliges Projektergebnis herzustellen, das dann in den Betrieb überführt wird. Oder es ist ein ganzes Bündel von Projekten, wir nennen es Programm, um eine komplexe Aufgabenstellung zu lösen. Die Chance, diese Einmaligkeit erfolgreich zu gestalten ist dann groß, wenn Projekt- und Programmmanagement als Kernkompetenz fest im Unternehmen verankert ist. Dazu bedarf es eines klaren Verständnisses und Willens des Managements, diese Fähigkeit in einer Organisation zu entwickeln. Es ist nicht damit getan, Projektmanager auszubilden und alle Verantwortung an diese zu delegieren. Die Unternehmensführung muss Rechenschaft ablegen, ob mit den Innovationsressourcen erfolgreich umgegangen wird. Aus erfolgreichen Projekten und Programmen entstehen itSM Heft 23 - März 2013 itSMF Performance News Wettbewerbsvorteil, Zukunftssicherung und Standortvorteil. Es ist die wichtigste Aufgabe des Managers, dafür zu sorgen. JD: Das deckt sich mit meiner persönlichen Einschätzung. Ich denke ebenfalls, dass wir zukünftig diese beiden Hälften des Globus stärker in den Fokus stellen müssen, ohne aber die Service Transition als Nahtstelle zwischen den beiden Hälften aus den Augen zu verlieren. Jürgen Dierlamm itSMF Deutschland e. V. [email protected] www.itsmf.de Hartmut Stilp Maxpert GmbH [email protected] www.maxpert.de HS: Damit komme ich zurück auf unsere Konferenz. Am zweiten Tag zeigen wir in mehreren Streams, wie ‚Change the Business‘ und ‚Run the Business‘ funktionieren kann. Wir freuen uns sehr auf das Treffen mit unseren Besuchern, wir haben der Diskussion und dem Erfahrungsaustausch einen großen Platz eingeräumt. am 15. und 16. Mai 2013 in Frankfurt/Main Uli Hoeneß Präsident FC Bayern München Dr. Reinhard Sprenger Führungsexperte und Bestsellerautor Andreas Steinle Geschäftsführer Zukunftsinstitut Klaus Grewe Projektkoordinator der Olympischen Spiele 2012 in London Sichern Sie sich jetzt Ihren Platz für das spannendste Event in 2013. Unsere Top-Referenten zeigen Ihnen, wie die Transformation bewährter Methoden in die Praxis gelingen wird. www.xperience-xchange.de 37 38 itSMF Performance News IT-Analytics. Mehr als Dashboards. Besser als BI Ist die Steuerung Ihrer IT auf Kennzahlenbasis heute effizient genug? Oftmals scheitert eine positive Beantwortung dieser Frage an der fehlenden Flexibilität der Werkzeuge. Denn weder statische Excel-Listen noch das konzernweite Business Intelligence erfüllen die heutigen Anforderungen im Bereich IT. Aber auch fehlende, falsche oder zu viele KPIs erschweren den klaren Blick. Black Box IT. Obwohl sich der Begriff „IT Performance Management“ mittlerweile etabliert hat und auch ITIL „Key Performance Indicators“ zur Steuerung der IT anpreist, ist der Einsatz von BI-Lösungen im IT-Bereich die Ausnahme. In vielen IT-Organisationen fehlt ein zentrales Steuerungsinstrument für IT-Servicemanagement (ITSM). Das IT-Reporting ist komplex und limitiert durch eine Vielzahl vorhandener Werkzeuge das Fehlen bereichsübergreifender Analysemöglichkeiten. Die Menge an auswertbaren Daten ist immens – es fehlen jedoch geeignete Informationen. Häufig scheitern Lösungsmöglichkeiten an den hohen Kosten für Software und Hardware, dem zu hohen Aufwand für den Aufbau eines Datawarehouses, die aufwändige Integration der Datenmodelle und an zu langen Projektlaufzeiten. Dazu kommt, dass das reine „Führen nach Kennzahlen“ zu kurz greift. Denn für die optimale Steuerung von IT-Services geht es auch um die Beantwortung variabler Fragestellungen oder Prognoseverfahren. Zum Beispiel sollten sich Fragen zu den Ursachen bestimmter Entwicklungen oder abweichender Zahlen (Root Cause Analysis) durch rasches Navigieren zu der betroffenen Datenebene (Drill-Down) oder durch Korrelationsanalysen umgehend beantworten lassen. Letztendlich geht es darum, Informationen aus verschiedenen IT-Managementprozessen und Quellsystemen wie z.B. IT-Service-Desk oder IT-Asset-Management übergreifend zu analysieren und zu aussagekräftigen Kennzahlen zu verknüpfen. Damit sollen Verantwortliche den Extrakt aus operationalen Business-Daten und IT-Servicemanagement-Prozessdaten erhalten. Idealer Weise stehen auch grafische Auswertungen in rollenbasierten Dashboards für die Ad-hocAnalyse bereit, auch auf mobilen Endgeräten wie z.B. auf dem iPad. Soweit die Problemstellung und das ZielSzenario. Betrachtet man die Praxis, sehen IT-Verantwortliche vor allem zwei Herausforderungen bei der Implementierung eines IT Performance Managements: Neben dem IT-Analytics Anforderungen an eine standardisierte Best-Practice-Lösung für die intelligente ITSteuerung. • V erständnis der Steuerungsmechanismen in der IT, Integration von Erfahrungswissen im IT- und Service-Management zur Optimierung der benötigten Kennzahlen und Strukturen • Integration standardisierter Prozesse, z.B von ITIL. • Bereitstellung so genannter Instant-KPIs als Best-Practices, dadurch minimierte Projektlaufzeiten • Sofort produktiv, auch als SaaS-Lösung nutzbar, läuft auch auf mobilen Endgeräten wie z.B. iPad. • Vorkonfigurierte Adaptoren für alle marktgängigen Systeme, um die heterogen verteilten Datenquellen rasch anbinden zu können. Das bietet die Grundlage, um –herstellerunabhängig - Informationen miteinander verknüpfen und interpretieren zu können • Verwendung von Opensource-Technologie für eine preisgünstige Gesamtlösung • Multidimensionale, visualisierte Auswertungen möglich, • Drill-Down-Analyse zur Identifizierung von möglichen Problemfeldern • Rollenbasierte, dynamische Dashboards für die interaktive Datenanalyse • Pivot-Funktion, um Informationen neu anzuordnen, Daten mehrdimensional anzuzeigen und dadurch zu vergleichen bzw. Trends zu erkennen • Auswertungen sollten auf Knopfdruck als pdf speicherbar, druckbar und als E-Mail versendbar sein fehlenden Know how, ein entsprechendes Konzept zu etablieren, ist häufig unklar, was eigentlich gemessen werden soll. Fachliche und technische Key-Performance-Indikatoren für die IT sind der Schlüssel für aussagekräftige Reports. Bei deren Definition ist fundiertes Erfahrungswissen im IT Service Management unerlässlich. Damit lassen sich etwa für den Prozess Incident Management folgende KPIs erstellen: Anzahl der Incidents, Anzahl doppelter Incidents, Anzahl der Incidents (und Problems), die auf fehlerhaft dokumentierten CIs basieren, Anzahl unerledigter Tickets, Incident-Lösung durch Fernzugriff, Anzahl der Eskalationen etc. Aber auch für andere Einsatzszenarien ist die Analyse von IT-Daten wertvoll, z.B. Service Monitoring, Change Management, Asset Management oder Finance Management. Die neue IT braucht Analytics IT-Organisationen stehen heute unter immensem Druck. Denn Trends wie BYOD, Outsourcing, Outtasking oder Cloud Computing nagen nicht nur am Image, sondern auch an deren Existenz. Und so muss sich die IT von Grund auf neu ausrichten und zu einer kundenzentrierten Serviceorganisation entwickeln. Aber wie gestalten die ITVerantwortlichen künftig ihr Marktangebot bedarfsgerecht und wirtschaftlich? Und wie sichern sie ihre Lieferfähigkeit? Wie also steuern sie die Durchführung ihrer Services? Basis hierfür sind valide Kennzahlen und multidimensionale Auswertungsmöglichkeiten, die alle ITSM-Prozesse treiben und absichern sollen. IT Analytics bietet dies - ohne die hohen Kosten und den Zeitbedarf herkömmlicher Business-Intelligence-Projekte. Kostenlose Mitmach-Workshops im März 2013 in 5 Städten Wie Unternehmen die IT-Datenflut über KPIs und Dashboards besser steuern und in einen Wertbeitrag für Ihr Geschäft umsetzen können – das wird Interessenten im Rahmen einer Roadshow vermittelt. Weitere Informationen und Anmeldung unter: www.it-steuerung.info. Dr. Thomas Gerick USU Software AG [email protected] www.usu-software.de itSM Heft 23 - März 2013 itSMF Performance News Flexibilität hat ihren Preis. Fertige ITSM-Applikation statt Toolbox? Die IT-Service-Management- (ITSM) Industrie ist nun schon mehr als 25 Jahre alt. Nach dem Start auf Großrechnern mit IBMs InfoMan wurde ITSM durch die stetige Verbreitung der Information Technology Infrastructure Library (ITIL) mehr und mehr zu einem bei vielen Unternehmen akzeptierten Vorgehen. Über die Jahre war zu beobachten, dass die Entwicklung der IT-Service-Management-Tools konvergierte und zur Abbildung sehr ähnlicher oder nahezu gleicher Funktionalität geführt hat. Trotz dieser Tatsache liegt der Fokus der Tools sehr oft nicht darauf, genau die Funktionalität anzubieten, ITIL Prozesse out-of-the-box zu unterstützen. Stattdessen wird die Priorität vieler Produkte darauf gesetzt, den Kunden das größtmögliche Maß an Flexibilität bereit zu stellen, um dieses an alle erdenklichen Anforderungen anzupassen. Dies gibt dem Anbieter stets die Möglichkeit mit „Ja“ auf jede Frage in einer Toolauswahl zu antworten. Diese Flexibilität hat allerdings ihren Preis. Zuerst einmal sind da die offensichtlichen Kosten für Berater, die zur Durchführung der Anpassungen engagiert werden müssen. Aber es gibt noch weitere Kosten. Unternehmen sehen sich mit dem Problem konfrontiert, sehr viel Zeit darauf zu verwenden, bei der Klärung simpler Punkte wie zum Beispiel der Optionen einer Kategorie- oder Impactauswahl einen Konsens zu finden. Und da sind noch die Kompromisse im Bereich Performance. Toolboxen, wie man diese Applikationen nennt, können nicht vom Hersteller für jede individuelle Implementierung und Anpassung jedes Kunden optimiert werden, da der Hersteller nicht weiß, in welcher Weise der Kunde die Applikation verändern wird. Eine reduzierte Nutzungsdauer solcher Toolbox-Applikationen ist ein weiterer Nachteil der Flexibilität. Weil es eben so einfach ist, Felder hinzuzufügen und neue Auswahlen anzubieten, ist es exakt das, was Kunden schließlich auch tun. Besonders in größeren Organisationen führt dies zu Formularen und Bildschirmen, welche sehr viele Felder enthalten. Diese wurden guten Gewissens hinzugefügt, um sicher zu stellen, dass jede Anforderung jedes Stakeholders erfüllt wurde. Unglücklicherweise führt so ein Vorgehen letztendlich zu einer Applikation, die so schwer zu benutzen und so langsam ist, dass die IT-Mitarbeiter Widerstände zeigen diese zu verwenden. Das wiederum veranlasst die IT-Organisation im Ergebnis sich nach einem anderen ITSM-Tool umzusehen. Während die Entwicklung der ITSM-Tools wie geschildert ablief, ist auch die ITSM-In- dustrie weiter gereift. Die Prozesse und somit die Anforderungen von Organisationen sind optimiert und über verschiedene Unternehmen hinweg sehr ähnlich geworden. Mit der Erfahrung von über 100 ITSM-Implementierungen weltweit haben die Mitarbeiter des ITRP Instituts vor vier Jahren damit begonnen eine Applikation zu entwickeln, welche eine vollständig vorkonfigurierte ITSM-Umgebung bereitstellt. Der Fokus lag dabei nicht auf Flexibilität, sondern auf Geschwindigkeit und einer sehr guten Usability. Statt endlose Customizing-Möglichkeiten anzubieten, nutzt ITRP die Informationen der Organisationen, deren Services, Rollen und Verantwortlichkeiten, um automatisch die Konfiguration anzupassen. Beispiele hierfür sind: Zuweisung von Anfragen aus dem User Self Service zu einer spezifischen 1st-Line-Gruppe, der Weiterleitung zum Support-Team der ausgewählten Serviceinstanz, die Registrierung neuer Changes für den Change Manager des betroffenen Services oder die automatische Ermittlung der richtigen Service-Desk-Gruppe aus der Supportvereinbarung. Im Gegensatz zur Aussage „Ja, diese Anforderung kann mit dem Tool umgesetzt werden“, wurde sehr viel Funktionalität bereits in ITRP eingebaut und kann bei Bedarf einfach abgeschaltet werden (wie zum Beispiel Arbeitszeiterfassung, automatische Email-Benachrichtigungen, Zuweisung von Change-Aufgaben zwischen Organisationen, etc.). Keine Toolbox und somit kein Customizing bei einer ITSM-Applikation? Was sagen Organisationen, die dieses Vorgehen gewählt haben, zum Beispiel Danone (ca. 1.900 ITMitarbeiter): “Das hat uns zuerst einmal wirklich beunruhigt, ... aber wenn wir zurückschauen auf die endlose Anpassungsarbeit, die wir früher gemacht haben ... , haben wir realisiert, dass das ein großer Vorteil ist. Eine konsistente und fortschrittliche Applikationslogik zu entwickeln wie sie ITRP direkt bietet, ist selbst für große Unternehmen wie Danone unrealistisch. Die Business-Logik bereits vorkonfiguriert zu haben, hat uns viel Zeit gespart und wird uns in Zukunft auch noch viel Zeit einsparen.” Neben der Tatsache, dass sehr viel Zeit bei der Implementierung der Applikation gespart wird, ist das Resultat intuitiv und sehr performant bedienbar. Aber es gibt noch zwei nicht zu unterschätzende Vorteile: • D urch die definierten Datenstrukturen der Applikation können ohne weite- re Konfiguration SLAs zwischen der IT und dem Kunden, aber auch OLAs sowie UCs zu externen Partnern überwacht werden. • Aus einem ähnlichen Grund bietet ITRP einen zweiten Vorteil: Verschiedene Organisationen können die Applikation nutzen um zusammen zu arbeiten. Es ist keinerlei Mapping von unterschiedlichen Prozessen notwendig. Ein externer Service Provider kann nahtlos an Incidents, Changes oder Requests für Kunden arbeiten, die ebenfalls ITRP verwenden. Schließlich bleibt noch zu erwähnen, dass ein Nachteil bei solch einer Vorgehensweise, ohne Customizing ein ITSM-Tool zu implementieren, nicht zu unterschätzen ist: Der „IKEA Effekt“ entfällt – also die Tatsache, dass man das schiefe Regal ausgezeichnet findet, weil man es selbst zusammengeschraubt hat... Weitere Informationen: http://blog.itrp.com/2011/04/beware-ofikea-effect.html http://blog.itrp.com/2011/05/hidden-opportunity-for-enterprise.html Melhem El-Achkar ncc solutions GmbH [email protected] www.ncc-solutions.com 39 40 Performance News Einfach, einfach! Ihre ITSM-Lösung in der Cloud. ncc solutions GmbH Tel.: +49 89 / 1890436 0 http://www.ncc-solutions.com USU World 2013 Serviceprozesse erfolgreich organisieren USU World 2013: Fachkonferenz für wissensbasiertes Service Management am 12. und 13. Juni 2013 in Esslingen / Stuttgart Group, Bundesagentur für Arbeit, O2, Victorinox oder Voith berichten aus der Praxis, wie ihre Strategien zur Kundengewinnung und -bindung aussehen. Auf der 23. Konferenz für Kunden, Interessenten und Partner der USU-Gruppe erwartet die ca. 300 Teilnehmer ein hochkarätiges Programm, das viele Facetten rund um das „Service Management“ aufgreift. Über 40 Referenten präsentieren praxisnah und aus ihren jeweiligen Perspektiven, wie sich ihre Unternehmen im Wettbewerbsumfeld durch erfolgreiche Servicekonzepte und deren praktische Umsetzung differenzieren. Die Schnittstelle zum Kunden – ob intern oder extern – ist der Ort, wo Vertrauen gefestigt oder verspielt wird. Entsprechende Serviceabläufe sind jedoch komplex und wissensintensiv – ob im technischen Support, im operativen IT-Betrieb, im Call- und ServiceCenter oder in anderen Bereichen. Deshalb ist die intelligente Informations-versorgung entlang der Servicelieferkette erfolgskritisch. Sie ermöglicht konkrete qualitative, aber auch quantitativ messbare Vorteile. Unternehmen wie Apollo Optik, Arburg, Baloise Fünf Themenschwerpunkte werden in eigenen Vortragsreihen behandelt: IT & Service Lifecycle Management nach ITIL, Software Asset Management, Social Media & Social CRM im Kundenservice, Service Apps & ServicePortale sowie Knowledge Solutions im IT- und Kundenservice. Ziel ist es, den Teilnehmern durch einen intensiven fachlichen Erfahrungsund Wissensaustausch Ideen und Ansätze für konkrete und kreative Lösungen ihrer persönlichen Herausforderungen zu liefern. Gelegenheit zum Networking und Austausch zwischen Kunden und Interessenten besteht in Diskussionsrunden, Anwenderforen sowie in der Fachausstellung. Interessierte können sich vor Ort über relevante Lösungen der USUGruppe und ihrer Veranstaltungspartner baramundi, EMDS, Liferay, Scheer Management, Siemens Enterprise sowie Talend informieren. Bereits am 11. Juni finden jeweils ganztägige Workshops statt, u.a. zu den Themen Service Portfolio Management, Sourcing von IT-Services und IT Financial Management. Bis einschließlich 15. April 2013 gilt der Frühbucherpreis von 300 Euro. Rabatte erhalten Teams aus drei und mehr Personen pro Unternehmen sowie Mitglieder der Organisationen itSMF e.V., SERVIEW Institute, Call Center Verband Deutschland und callcenterforum.at. Weitere Informationen und Anmeldung auf der Veranstaltungs-Website www.usuworld.com Mit der kundenspezifische Entwicklung und Pflege komplexer Applikationen formen USU-Experten Anwenderwünsche, Branchen-Know-how und Technologiekompetenz zu maßgeschneiderten Individuallösungen. Weitere breit etablierte Kernkompetenzen sind die Prozess- und Systemintegration sowie das Realisieren von Wissens- bzw. Mitarbeiterportalen. Weitere Informationen: www.usu-software.de Dr. Thomas Gerick USU Software AG [email protected] www.usu-software.de itSM Heft 23 - März 2013 Impressum 41 Impressum Herausgeber Ute Claaßen, Bernd F. Dollinger, Hans-Peter Fröschle, Dr. Kurt Glasner, Steven Handgrätinger, Stefanie Kemp vom itSMF Deutschland e.V., [email protected]. Zeitschrift berechtigt auch ohne Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutzgesetzgebungals frei zu betrachten wären. Inserentenverzeichnis it-Service-Management Organ des IT Service Management Forums Deutschland e.V. (itSMF) http://www.itsmf.de/mitgliederzeitschrift.html 8. Jahrgang – Heft 23 – März 2013 ISSN: 1861-9258 © itSMF Deutschland e.V. itSMF Deutschland e.V. Mainzer Landstrasse 176 D-60327 Frankfurt E-Mail: [email protected] Web: www.itsmf.de Fon: +49 700 - 02 02 2001 Fax: +49 180 - 588 908 8167 Glenfis AG USU AG Materna GmbH COC AG NovaTec GmbH FrontRange Solutions Deutschland GmbH Q-Perior AG netpoint gmbh Blue Elephant Systems GmbH Hewlett-Packard GmbH Wendia AG Maxpert GmbH ncc solutions GmbH U2 U4 S. 5 S. 7 S. 9 S. 12 S. 17 S. 25 S. 27 S. 31 S. 35 S. 37 S. 40 Redaktion Katrin von Goetze it-Service-Management Anzeigen und Vertrieb Katrin von Goetze, itSMF Deutschland e.V. Tel. + 49 7 11 - 7 82 95 95 50, [email protected] Layout und Satz Renate Lahnstein, itSMF Deutschland e.V. Druck team digital GmbH Hopfmannsfelder Str. 7, 36341 Lauterbach Bezugsbedingungen (Stand 1.1.2012): Erscheinungsweise: 4 Ausgaben pro Jahr, Lieferung im Jahresabonnement gegen Vorausberechnung. 4 Lieferungen = 52,00 Euro zzgl. Versand. Das Abonnement verlängert sich zu den jeweils gültigen Bedingungen um ein Jahr, wenn es nicht 8 Wochen vor Ablauf des Bezugszeitraums schriftlich gekündigt wird. GI-, BITKOM-, iSQI-, OCG- und SwissICT-Mitglieder erhalten eine Ermäßigung von 25% auf das Abonnement, der Studentenpreis beträgt 34,00 Euro (Studentenbescheinigung erforderlich). Mitglieder des itSMF Deutschland e.V. erhalten die Zeitschrift im Rahmen ihrer Mitgliedschaft. Einzelheft 14,00 Euro zzgl. Versandkosten. Urheberrecht Die Zeitschrift sowie alle in ihr enthaltenen einzelnen Beiträge und Abbildungen sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Fotokopien für den persönlichen und sonstigen eigenen Gebrauch dürfen nur von einzelnen Beiträgen oder Teilen daraus als Einzelkopien hergestellt werden. Jede im Bereich eines gewerblichen Unternehmens hergestellte oder benützte Kopie dient gewerblichen Zwecken gemäß § 54 (2) UrhG und verpflichtet zur Gebührenzahlung an die VG WORT, Abteilung Wissenschaft, Goethestraße 49, 80336 München, von der die Zahlungsmodalitäten zu erfragen sind. Die Wiedergabe von Warenbezeichnungen in dieser Zeitschrift des itSMF Deutschland e.V. it-Service-Management versteht sich als ein Medium für den Austausch von Informationen aus Praxis und Forschung des IT-Service-Management. Neben Erfahrungen aus der Praxis und Entwicklungen bei aktuellen Standards und Technologien werden Grundlagenbeiträge und Forschungsergebnisse des IT-Service-Management veröffentlicht. Das Spektrum der Beiträge reicht von Einführungen und Praxisberichten bis hin zu wissenschaftlichen Fachbeiträgen. Ein Serviceteil enthält außerdem Informationen zu Konferenzen und Workshops, Services & Produkte sowie neuen Büchern. it-Service-Management ist das offizielle Organ des IT Service Management Forums (itSMF) Deutschland e.V. und informiert auch über Ereignisse und Aktivitäten des itSMF. Vorschau* auf Heft 24 der itSM-Zeitschrift (Juni 2013) Schwerpunkt: „ITSM im Mittelstand“ Wenn Sie zu einer der nächsten Ausgaben der itSM-Zeitschrift einen Beitrag leisten möchten oder Anregungen haben, wenden Sie sich bitte an [email protected] Sie sichergehen wollen, dass Ihr Vorschlag bei entsprechender Eignung berücksichtigt werden kann, wenden Sie sich bitte spätestens ca. 6 Monate vor Erscheinungstermin des jeweiligen Heftes an uns. * Änderungen vorbehalten. Internationale Fachkonferenz für wissensbasiertes Service-Management mehr Infos am 12. und 13. Juni 2013 in Esslingen bei Stuttgart Wissen ist menschlich! Um herausragende, kundenorientierte Services bieten zu können, braucht es mehr als funktionierende Systeme, Prozesse und Standards. Die Nachfrage nach individuellen Service-Leistungen und relevanten Informationen, die jederzeit und überall verfügbar sind, steigt weiter – und damit auch der Druck auf tragfähige Lösungen und Kostenstrukturen in IT und Kundenservice. Auf der USU World lernen Sie neue Ansätze und Strategien kennen, wie der Transfer in die Praxis gelingt. Fünf Brennpunktthemen stehen im Mittelpunkt der USU World 2013: • • • • • IT & Service Lifecycle Management Service Apps & Service-Portale Knowledge Solutions im IT- und Kundenservice Software Asset Management Social CRM – Social Media im Kundenservice batt a R % 0 1 r und e -Mitglied für itSMF ril! bis 15. Ap is re P re Frühbuch Außerdem: Intensiv-Workshops am 11. Juni: • • • • Best Practices für den Aufbau Ihres Service-Portfolios Financial Management – kostenstransparente Services Best Practices rund um den Redaktionsprozess von Lösungsdokumenten Sourcing von IT-Services Unser Konferenzprogramm ist maßgeschneidert für Führungs- und Fachkräfte aus IT-Dienstleistungsbereichen und kundenorientierten Serviceorganisationen. Nutzen Sie die USU World, um gezielt Ihr Fachwissen zu vertiefen und Ihr Netzwerk auszubauen. Jetzt anmelden und bis 15. April Frühbucher-Preis sichern: usuworld.com USU AG • Spitalhof • D-71696 Möglingen • www.usuworld.com The Knowledge Business Conference