itService Management

Transcription

itService Management
Heft Nr. 23 - März 2013 - ISSN 1861-9258 - Zeitschrift des itSMF Deutschland e.V.
itService
Management
■■ Agilität und stabiler Betrieb –
Water-SCRUM-Fall vermeiden
■■ Wege zur automatisierten Servicebereitstellung „From ‚DevOops‘ to DevOps“
■■ Wie viel Agilität verträgt ITSM? - Perspektiven
agiler Methoden im IT Service Management ■■ Next Generation IT-Automatisierung
■■ Integration von Providerprozessen bei
selektivem Sourcing
www.glenfis.ch
Editorial
Editorial
Liebe ITSM-Community, liebe Leserinnen und Leser,
der IT-Betrieb und damit das IT Service Management war schon immer
gefordert, sich an den Bedarfen der
Endbenutzer und Fachbereiche zu
orientieren. Eine weitere Herausforderung, die es zu bewältigen gab,
sind die sich permanent ändernden
Technologien. In der Vergangenheit waren diese Anforderungen im
Wesentlichen durch eine systematische Strukturierung des IT-Betriebs
zu bewältigen. Aktuell scheint sich
Hans-Peter Fröschle,
allerdings dieses Paradigma grundverantwortlicher Herausgeber
sätzlich zu wandeln. Ausgelöst durch
die zunehmende Dynamik der Veränderungen in der Umwelt der
IT und eine damit einhergehende steigende Komplexität, scheinen
die bisherigen Lösungsstrategien an ihre Grenzen zu stoßen. So sind
die etablierten Service-Managementstrukturen und –prozesse vor
dem Hintergrund der aktuell zu beobachtenden Entwicklungen wie
beispielsweise dem nicht mehr aufzuhaltende Einsatz von mobilen
Endgeräten in den Unternehmen (Bring Your Own Device, Consumerization), der zunehmenden Nutzung von Social Media in vielen
Unternehmensbereichen, die auch vor der IT nicht Halt macht oder
der Tatsache, dass Cloud-Computing als Betriebsmodell eine breite
Akzeptanz gefunden haben und sich sicherlich weiter ausdehnen
werden, immer häufiger restriktive Faktoren eines kundenorientierten IT Service Managements.
Damit ist momentan sicherlich der richtige Zeitpunkt, sich im Sinne
eines „Next Generation ITSM“ mit neuen oder ergänzenden Faktoren der Serviceerbringung auseinanderzusetzen. Diese Entwicklung
kommt nicht plötzlich und für Insider überhaupt nicht überraschend.
Schon seit Jahren diskutieren wir in der ITSM-Community Ansätze
wie beispielsweise IT-Industrialisierung oder die rationelle Erbringung kundenspezifischer Services. Das Problem hierbei ist nur, dass
wir im IT Service Management schnellstmöglich die Phase der Diskussion neuer Serviceerbringungskonzepte verlassen und kurzfristig
in deren Umsetzung einsteigen müssen, um überhaupt die Chance
eines effektiven und effizienten Servicemanagements zu wahren. Die
Ansätze sind – häufig durch die Übertragung von Lösungsstrategien
aus anderen Domänen – verfügbar. Weder DevOps noch agile Methoden oder Automatisierung müssen neu erfunden werden. Diese
Ansätze müssen nur konsequent auf das ITSM übertragen und angepasst werden. In den Beiträgen des vorliegenden Heftes möchten
wir Ihnen hierzu Praxisbeispiele und die dahinterliegenden Konzepte
präsentieren und zur Diskussion stellen. Gerade für IT-Organisationen, die in den letzten Jahren ihre „Hausaufgaben“ erledigt haben und
den IT-Betrieb systematisch strukturiert haben, liegen hier neuartige
Potenziale, um schneller und kundenorientiert reagieren zu können
und um Ressourcen, die bislang mit der Bewältigung von Routineaufgaben gebunden sind, für „kreative“, höherwertige Tätigkeiten zu generieren. Nur darüber kann sich das IT Service Management auch
zukünftig als wettbewerbsfähiger Aufgabenbereich definieren.
Greifen Sie die innovativen Lösungsansätze auf und entwickeln Sie
diese gemeinsam mit uns weiter!
Rein zufällig ist dieses Heft zu „Next Generation ITSM“ verbunden
mit „Next Generation itSMF“: Durch die Kündigung meines Dienstleistungsvertrags für itSMF Deutschland e.V. werden neue Zuständigkeiten bei der Veröffentlichung der Zeitschrift entstehen. Ich möchte
mich an dieser Stelle als Herausgeber bei Ihnen verabschieden und
Ihnen für den konstruktiven Dialog der letzten Jahre danken. Mein
besonderer Dank gilt Katrin von Goetze und Renate Lahnstein, ohne
deren Engagement die itSM nicht das wäre, was sie heute ist.
In diesem Sinne wünsche ich Ihnen eine spannende Lektüre und
möglichst viele Impulse für die Zukunft des ITSM.
Ihr Herausgeber
Hans-Peter Fröschle
1
2
Inhaltsverzeichnis
Inhalt
Fachartikel
Agilität und stabiler Betrieb – Water-SCRUM-Fall vermeiden
3
Wege zur automatisierten Servicebereitstellung: „From ‚DevOops‘ to DevOps“
8
Wie viel Agilität verträgt ITSM? -
Perspektiven agiler Methoden im IT Service Management
13
Next Generation IT-Automatisierung
18
Integration von Providerprozessen bei selektivem Sourcing
22
Performance News
Quo vadis IT Governance?
26
ITSM = IT Stress Management?!
27
Gut gerüstet für die Zukunft: Hybrid-ITSM
28
Cloud Computing Foundation mit international anerkannter Zertifizierung
29
Neustart für den Service-Desk
30
Projekt P A C E - Sieger itSMF-Projekt-Award 2012
31
Wissen auf Lager legen und die IT-Performance erhöhen
33
Ran an den Speck: Wie sich eine schlanke Serviceorganisation
als Schwergewicht im Unternehmen behauptet
34
Change the Business, Run the Business – Leadership in Transition
36
IT-Analytics.Mehr als Dashboards. Besser als BI
38
Flexibilität hat ihren Preis.Fertige ITSM-Applikation statt Toolbox?
39
USU World 2013
40
Editorial
Impressum und Vorschau
1
41
itSM Heft 23 - März 2013
2013
Agilität und stabiler Betrieb
Agilität und stabiler Betrieb – Water-SCRUM-Fall vermeiden
Boris van Benthem
1. Herausforderungen durch neue
Geschäftsmodelle
Im Lauf der vergangenen Dekaden hat sich die IT in einem evolutionären Prozess gewandelt. Aus einem Forschungsbereich ist mittlerweile eine der wichtigsten Supportfunktionen für aktuelle Geschäftsmodelle geworden. Dies hat atemberaubende Effizienzgewinne durch
den Einsatz von IT ermöglicht. Dementsprechend ist sie aus keinem
Unternehmen mehr wegzudenken.
Gleichzeitig entwickelten sich IT und Telekommunikation auf Seiten der Verbraucher immer weiter von einem Thema für Bastler und
Nerds zu Produkten für die breite Masse. So leben wir heute in einer
Gesellschaft, deren digitale Durchdringung bereits sehr hoch ist und
stetig beschleunigt steigt.
Dieser hohe Durchdringungsgrad mit Informations- und Kommunikationstechnologie führt zu neuen Chancen für Geschäftsmodelle.
Er erhöht allerdings auch die Erwartungen an deren Qualität und
Stabilität. Ganz konkret beginnt dieser Wandel bei der Einführung
rein digitaler Modelle wie etwa in der Musikindustrie. Ein weiteres
Beispiel ist die Schaffung digitaler Zusatzleistungen für ein etabliertes
Kerngeschäft, beispielsweise durch immer komplexer werdende Steuerungsmöglichkeiten in unseren Autos.
Die Abhängigkeit der Produktion von der IT reicht bis hin zu Produktinnovationen oder regulatorischen Anforderungen, die eine immer weitreichendere IT-Durchdringung der Geschäftsprozesse – und
damit eine immer höhere Handlungsfähigkeit der IT – erfordern.
2. Wachsende Anforderungen an
Flexibilität und Stabilität
Chancen durch IT
 Bedarf an Flexibilität
Ist die zunehmende Nutzung von IT nun ein Fluch oder ein Segen?
Die oben beschriebenen Geschäftsmodelle bieten allesamt große
Chancen durch die starke Einbindung von IT, weisen allerdings auch
große Risiken durch die hohe Durchdringung auf.
Neue Dienste;
Entwicklung
unklar
IT-Basisdienste
für Support
Prozesse
Neue,
IT-gestützte
Geschäftsmodelle
IT-Basisdienste
für Kerngeschäft
Risiken durch IT
 Bedarf an Stabilität
Abbildung1:
Bedarf
Flexibilität
und Stabilität
Cassini Consulting
- Stylean
Guide
und Vorlagen
Um sie dauerhaft erfolgreich betreiben zu können, muss die IT sowohl flexibel wie auch stabil sein. Eine IT-Serviceorganisation muss
die Anforderungen an Flexibilität und Stabilität ins Gleichgewicht
bringen und einen Weg finden, um beides zu gewährleisten. Es ist
also keine Entweder-Oder-Frage, vor der IT-Serviceorganisationen
stehen, sondern eher, welche Services sie zur Verfügung stellen. Dieser
Zusammenhang ist in Abbildung 1 dargestellt. Das Modell lehnt sich
an das IT Strategic Impact Grid nach [Nolan & McFarlan 2005] an.
Im weiteren Verlauf werden wir uns auf den Bereich der neuen Geschäftsmodelle konzentrieren und den Bedarf sowohl nach flexibler
Handlungsfähigkeit als auch stabiler Wertschöpfung durch die IT genauer analysieren.
3.Veränderung ist ein konstanter Zustand
Was machen also die Unternehmen anders, die erfolgreich in diesen
hochdynamischen Märkten ihre IT-Services nutzen oder anbieten? Sie
haben in ihren Organisationen Methoden gestärkt, die es erlauben, Veränderung als konstanten Zustand zu akzeptieren. Gute Beispiele hierfür
sind Anbieter von erfolgreichen Webshops, Betreiber großer sozialer
Netzwerke oder Hersteller von attraktiven mobilen Apps.
Bei diesen Unternehmen kommen agile Entwicklungsmethoden zum
Einsatz. Diese erlauben es, schnell auf neue Prioritäten oder Erkenntnisse aus dem Markt reagieren zu können. Diese Funktionen werden,
sobald sie fertig entwickelt sind, umgehend auf den Weg in Richtung
Produktionssystem gebracht.
Während sich agile Methoden in der Softwareentwicklung in vielen
Unternehmen schon etabliert haben, gehören Methoden zur schnellen Auslieferung von Funktionen noch zu den aktuellen oder zukünftigen Baustellen. Oft werden Funktionen entwickelt und dann über
große Releases zwei- bis viermal im Jahr in Produktion ausgerollt.
Das bewahrt die Stabilität des Produktivsystems – allerdings auf Kosten der Flexibilität.
4.Nicht-produktive Funktionen leisten
einen negativen Wertbeitrag
Kommen neue Funktionen nicht zeitnah an den Markt, so entwickeln
sie nicht ihren Nutzen. Im besten Fall liegen sie als nicht verwendete
Assets herum. Die getätigte Investition bleibt ungenutzt. Gleichzeitig
kumulieren sich die entwickelten Funktionen allerdings auch zu einer großen Änderungsmenge, die ein hohes Risiko beim Update der
Systeme darstellt.
Vielleicht hat der Mitbewerber gleichzeitig gerade eine ähnliche Änderung im Markt platziert. Damit verliert die entwickelte Funktion
an Innovations- und Zugkraft für neue Kunden oder Transaktionen.
Auch das Feedback vom Markt bleibt aus, und kann nicht in den Entwicklungsprozess zurückgeführt werden. So bleibt die Attraktivität
der Funktionen lediglich Spekulation darüber, was der Kunde eigentlich haben will.
Die ausbleibende Nutzung führt, kombiniert mit den sich aufbauenden Risiken, dazu, dass der Wertbeitrag nicht ausgerollter Funktionen am Ende negativ ist.
3
Agilität und stabiler Betrieb
Folgende Bereiche sind zur Ausrichtung der Organisation hin zur
Kombination von Stabilität und Flexibilität zu betrachten:
• Das Produkt als Service begreifen
• Vorlaufzeiten betrieblicher Themen priorisierbar machen
• Frühe Übernahme von Verantwortung
• Jeder steht für die Konseqeuenzen seines Handelns gerade
Das Risiko von Änderungen am Produktivsystem muss durch den größeren Mehrwert der neuen Funktionalität gegenfinanziert werden.
Ziel ist es also, Funktionen schnell in Produktion zu bringen und dabei die Stabilität der Plattform zu gewährleisten. Was aber zahlt auf
diese Kombination von hohen Änderungsraten und der Gewährleistung eines stabilen Systems ein?
6.1 Das Produkt als Service begreifen
Im agilen Vorgehen nach Scrum gibt es den Product Owner, der die
Weiterentwicklung der Funktionen eines Produktes verantwortet. Allerdings werden in vielen Organisationen statt klassischer Produkte
eher Dienstleistungen (also Services) bereitgestellt. Dies gilt in besonderem Maß für IT-Organisationen, wo ausschließlich Dienstleistungen erbracht werden. Und diese bestehen (für alle ITIL-Experten
ist das nichts Neues) aus den Produkteigenschaften (Utility) und der
damit verknüpften Gewährleistung (Warranty). Nur beide zusammen machen einen Service wertstiftend. Konzentrieren wir uns bei
unserem IT-Service also zu stark auf die Produkteigenschaften und
vernachlässigen die Gestaltung der Gewährleistung, vernachlässigen
wir die Wertschöpfung in ihrer Gesamtheit.
5.Welche Elemente verbinden Stabilität
mit Flexibilität?
Im Wesentlichen sind es drei Hauptelemente, die die Verbindung aus
Stabilität und Flexibilität für eine IT sicherstellen:
• Automatisierung und Vereinfachung der Lieferkette von Software
• Lose gekoppelte und modularisierte Architektur
• Organisation und Prozesse, die auf Veränderung und Verantwortungsübernahme ausgerichtet sind
Die Automatisierung der Lieferkette der Software ermöglicht es, den
Lieferprozess häufig und schnell zu durchlaufen. Auf Knopfdruck
werden Umgebungen abgerissen und wieder aufgebaut. Auch die Installation selbst wird so schon auf Umgebungen vor der Produktivlandschaft verprobt, und ist damit risikoärmer. Allerdings gibt es eine
solche automatisierte Lieferkette auch nicht umsonst. Sie ist Teil der
Entwicklung eines Gesamtservice.
Dieser Fehler wird immer wieder begangen, obwohl die Erkenntnis
nicht wirklich neu ist. Wie können wir also diese Tendenz zur Vernachlässigung der Warranty-Kriterien vermeiden oder zumindest
abmildern? Alle Beteiligten am Design und der Entwicklung neuer
Services müssen für die Bedeutung von Verfügbarkeit, Performance,
Sicherheit und Kontinuität sensibilisiert werden.
Eine lose gekoppelte Architektur ermöglicht es, Module unabhängig
voneinander zu entwickeln und auszurollen. Nur wenn die Änderungen überschaubar bleiben und keine Abhängigkeiten untereinander
haben, können die Artefakte getrennt voneinander durch die Lieferkette gebracht werden. Auch dieser Baustein erfordert ein sauberes Design
und stellt Architekten und Entwicklerteams vor die Herausforderung,
sehr diszipliniert die entsprechenden Designpattern einzusetzen.
Nur so können entsprechende User Stories Einzug in das Backlog der
Entwicklungsteams halten und Definitions of Done sinnvoll gesetzt
werden. Hierzu muss in jedem einzelnen Mitarbeiter das Bewusstsein
entstehen, für die gesamte Wertschöpfungskette mitverantwortlich zu
sein. Die folgenden Abschnitte zeigen Möglichkeiten auf, den Blick für
das Ganze zu schärfen und die Konsequenzen erlebbar zu machen.
Beide Themen für sich können ganze Bücher füllen (und haben dies
schon getan). Daher soll hier eine grobe Zusammenfassung genügen.
Wir werden uns im Verlauf des weiteren Artikels auf das dritte Hauptelement konzentrieren, die organisatorische Ausrichtung und die Optimierung der Prozesse. Die Beschreibungen basieren auf der praktischen
Erfahrung mehrerer Organisationsprojekte in verschiedenen Unternehmen und der Beobachtung weiterer erfolgreicher IT-Organisationen.
6.2.Vorlaufzeiten betrieblicher Themen
priorisierbar machen
Betriebliche Vorbereitungen, vor allem auf Infrastrukturebene, haben
oft relativ lange Laufzeiten. Ob es sich nun um die Beschaffung neuer
Hardware, Synchronisierung von Maßnahmen verschiedener Dienstleister oder die Anpassung und Erweiterung laufender Verträge han-
6.Organisatorische Ausrichtung auf
Veränderung und Verantwortungsübernahme
Rein organisatorische Veränderungen bringen vor allem in klassisch
ausgerichteten IT-Organisationen schnell zählbare Fortschritte. So
können bereits optimierte Releasezyklen von 6-12 Releases im Jahr
eine Hilfe darstellen, bevor überhaupt die oben genannten, eher technisch geprägten Maßnahmen notwendig werden.
Komplexität der Veränderung
4
Diese organisatorischen Maßnahmen ermöglichen die ganzheitliche Betrachtung der Prozesse, angefangen von ihrer Idee bis hin zur
Realisation der Wertschöpfung am Markt. Hierbei werden Arbeitsweisen hinterfragt, Verantwortlichkeiten neu geschnitten und Sichtgrenzen zwischen Abteilungen abgebaut. Eine Reihe dieser Konzepte
entstammen den aktuell laufenden Diskussionen der sogenannten
DevOps-Bewegung. Erweitert werden diese Ansätze um Erfahrungen und pragmatische Umsetzungsvorschläge.
Neue Server
Komponente
DB Migration
Neuer
Tablespace
Firewall
Freischaltung
Release
Date
Änderung
Tomcat Port
Vorlaufzeit bis Releasedatum
2
Abbildung 2: Der Ops Funnel ermöglicht priorisierte
Vorbereitung
auf den Release Termin
25.02.2013
Cassini Consulting - Style Guide und Vorlagen
itSM Heft 23 - März 2013
delt – es können gerne einige Wochen oder Monate ins Land gehen,
bis die Themen umgesetzt sind.
ServiceLifecycleManagement
Nun treffen diese Vorlaufzeiten auf den zwei bis drei wöchigen Rhythmus agiler Scrum-Teams. So entsteht bei allen Beteiligten schnell der
Eindruck, dass hier Fortschritte eingebremst werden. Um diesen Effekt zu vermeiden, müssen wir uns den real existierenden Einschränkungen stellen, diese verstehen und dann in die Priorisierung der
User Stories einpreisen. Betrachten wir diese Themen also genauer.
Je näher man dem Rollout neuer Funktionen in Produktivsysteme
kommt, desto weniger Komplexität kann neu in die Produktivsysteme eingebracht werden. Bemerkt man also erst zum Ende eines
Sprints, dass etwa erweiterte Tablespaces der Datenbank erforderlich
werden, kann kaum noch darauf reagiert werden. Besser ist es also,
diese Themen frühzeitig zu erkennen und zu planen.
Die hier beschriebene Abhängigkeit zwischen benötigter Rüstzeit
und verkraftbarer Komplexität ist im sogenannten Ops Funnel (Abbildung 2) dargestellt. Anhand der erkannten Abhängigkeit kann nun
beschrieben werden, welche Änderungen mit welchem Vorlauf bekannt sein müssen. So sollte beispielsweise der Bedarf nach neuen
Hardwarekomponenten bei der Pflege des Product Backlog durch
den Product Owner, gemeinsam mit dem Team, aufgedeckt werden.
Je nach Priorisierung des Themas und erwartetem Sprint zur Umsetzung wird der Bedarf im Ops Funnel platziert und auf die Reise der
betrieblichen Vorbereitung geschickt.
Sollten in der Zwischenzeit weitere Themen auftauchen, die mit der
Bearbeitung der ersten Anfrage konkurrieren, sind die Auswirkungen
sichtbar. Sie können durch den Product Owner im Sinne der Produktprioritäten aufgelöst werden. Besonders in skalierten Organisationen,
in denen mehrere Entwicklungsteams in dieselbe Produktivumgebung
einliefern müssen, hilft dieser Mechanismus bei der ganzheitlichen Betrachtung und Priorisierung der umzusetzenden Funktionen.
Da nicht davon auszugehen ist, dass alle Lieferungen eines ScrumTeams immer zu langwierigen Anpassungen von Produktionssystemen führen, können durch Repriorisierung entsprechende User
Stories ohne betriebliche Auswirkungen vorgezogen werden. Dieser
Mechanismus hilft also dabei, Engpässe zu identifizieren und über
einen Dialog mit dem Product Owner aufzulösen.
Sind die langlaufenden Themen erst einmal identifiziert und niedergeschrieben, so kann auch an deren Verkürzung gearbeitet werden. Laufzeiten von Hardwarebeschaffungen können beispielsweise über geeigneten
Einsatz von Virtualisierung abgefedert werden, organisatorische Durchlaufzeiten von Firewall-Freischaltungen können optimiert werden, oder
man kümmert sich um die Schaffung geeigneter Automatismen.
Diese Maßnahmen konkurrieren allerdings wieder mit der Bearbeitung
der im Ops Funnel befindlichen Themen. Daher ist eine Abstimmung
mit dem Product Owner hierzu notwendig und sinnvoll. Er kann sehr
gut bewerten, welche Lieferhürden für die zukünftige Produktentwicklung am ehesten den Entwicklungsfortschritt einbremsen.
Mit Service Lifecycle
Management die
IT-Geschäftsstrategie
optimieren
Sie kennen die Herausforderung, IT-Services
in ihrem betrieblichen Alltag zu organisieren.
Dafür benötigen Sie eine übergreifende Sicht
auf alle Betriebsabläufe – auch von außen
betrachtet.
Nutzen Sie unsere Erfahrungen, Ihren Service
Lifecycle weiter zu optimieren und sich für eine
industrialisierte IT-Produktion zu rüsten. Ihre
Kunden profitieren von einem standardisierten
und automatisierten IT-Betrieb.
Unsere Leistungen für Ihren Service Lifecycle
• StrategieundDesign
• ProduktionundTransition
• BetriebundMonitoring
Ein sinnvoller Einsatz des Ops Funnels kann allerdings nur dann
[email protected]
www.materna.de
Agilität und stabiler Betrieb
stattfinden, wenn die richtigen Know-how-Träger am Tisch sitzen
und die zu bearbeitenden Themen korrekt identifiziert sind. Daher
müssen Betriebsmitarbeiter direkt in den entsprechenden Planungsmeetings mitarbeiten.
6.3 Frühe Übernahme von Verantwortung
In frühen Phasen der Entwicklung neuer Funktionen oder Systeme
ist es wichtig, über einen hohen Grad an Flexibilität zu verfügen. So
können neue Dinge ausprobiert und Technologien verprobt werden.
Auch das Debugging der Anwendungen bis auf sehr tiefe Ebenen der
entworfenen Systeme ist notwendig.
Je weiter sich die Funktionen allerdings in Richtung Produktivsystem bewegen, desto mehr wächst die Bedeutung der Stabilität. Dies
führt oft dazu, dass Releases durch viele Hände gehen und “als Paket
über den Zaun geworfen” werden. Ziel muss es sein, diesen abrupten
Verantwortungsübergang so fließend und kontinuierlich zu gestalten,
wie es geht. Nur so kann eine zu allen Phasen des Entwicklungsprozesses passende Balance aus Flexibilität und Stabilität entstehen.
Kombinieren wir nun den zeitlichen Verlauf eines Releases über unterschiedliche Umgebungen mit den Systembereichen eines IT-Service, so entsteht ein in Abbildung 3 exemplarisch dargestellter kontinuierlicher Übergang.
Verteilen wir nun die Verantwortung für die verschiedenen Bereiche
an Betriebs- und Entwicklungsteams, so ist es sinnvoll, Betriebsteams möglichst frühzeitig die Verantwortung für bestimmte Teile
der Entwicklungsumgebungen, Integrations- und Referenzsysteme
zu geben. So wird frühzeitig Kommunikation zwischen Entwicklung
und Betrieb initiiert. Der Bedarf nach neuen Servern oder FirewallFreischaltungen kommt so rechtzeitig bei den Betriebsteams an, und
diese können geregelt bereitgestellt werden.
Diese Anpassungen sollten umso flexibler geschehen, je weiter vorne
sich die Umgebung in der Kette befindet. In jedem Fall bleibt allerdings die Erkenntnis, dass andere Umgebungen ebenfalls vorbereitet
werden müssen, und so können diese Änderungen auch schon auf
den Weg gebracht werden. So wird der im vorherigen Abschnitt gezeigte Ops Funnel mit Leben gefüllt.
Durch die Nähe zwischen Betrieb und Entwicklung und der Betei-
Applikation und
Schnittstellen
Service Stack
6
Basisdienste und
Datenbank
Hohe Veränderungsraten
führen zum Bedarf
an Flexibilität
Betriebssystem
Steigender Anspruch an
Verfügbarkeit und Performance
erfordern höhere Stabilität
Infrastruktur und
Virtualisierung
Entwicklungssysteme
Integrationssysteme
Referenzsysteme
Produktivsysteme
Reifegrad des Service
25.02.2013
Cassini Consulting - Style Guide und Vorlagen
Abbildung
3: Fließender
Übergang zwischen Flexibilität und Stabilität
3
ligung der Betriebsteams am Design des Services werden auch die
Voraussetzungen für bessere Bedienbarkeit des Services geschaffen.
Wartbarkeit und Betreibbarkeit des Services sind umso besser, je mehr
Mitsprache der Betrieb bei den „Schaltern und Hebeln“ schon beim
Design hat. Vor allem im Störungsfall ist dies Gold wert, und sichert die
Verfügbarkeit des Services ab. Darüber hinaus lernen alle Beteiligten
schon früh den neuen oder geänderten Service kennen, so dass Wissen
über reguläres und irreguläres Verhalten aufgebaut werden kann.
Ebenso wie der Betrieb am Entwicklungsprozess beteiligt wird, muss
auch das Entwicklungsteam in den Betrieb des Services eingebunden
werden.
6.4.Jeder steht für die Konsequenzen
seines Handelns gerade
Die Entwickler sind in vielen ernsthaften Störfällen diejenigen, die
am besten diagnostizieren können, wo etwas falsch läuft und mit welchen Auswirkungen zu rechnen ist. Der Product Owner wiederum
kann am besten entscheiden, welche Fehler akzeptabel sind und welche sofort behoben werden müssen.
Also sind beide Rollen auch nach einem erfolgten Go-Live der
Funktion oder des Services weiterhin in die Wertschöpfung des
Services einzubinden. Sie sollen hier Verantwortung übernehmen.
Müssen Probleme analysiert oder Fehler behoben werden, zahlen
Product Owner und Entwicklerteam mit ihrer Velocity - einer sehr
harten Währung. Daher wird über die Zeit das Bewusstsein für die
Erfordernisse eines stabilen Services wachsen. Gemeinsam werden
dann Lösungen erarbeitet, die schon im Design Rücksicht auf betriebliche Aspekte nehmen. So wird die Anfälligkeit für Störungen
sukzessive abgebaut.
Besonders gravierend sind diese Effekte bei Services, die rund um die
Uhr zur Verfügung stehen müssen. Hier ist es nicht nur die Velocity,
mit der für Schwachstellen im Design bezahlt wird. Zusätzlich kommen Einsätze in der Rufbereitschaft für Product Owner und Entwicklerteams dazu, um bei Störungen direkt Hilfe für die Betriebsteams
bereitstellen zu können.
So wächst auch mit jeder produktiven Störung das Bewusstsein, dass
der Service eben nicht nur aus Funktionen und „coolen Features“ besteht, sondern zur vollen Wertschöpfung eben auch die entsprechende Gewährleistung gehört.
6.5.Nur gemeinsam ist ein wertschöpfender
Service möglich
Alle aufgeführten Maßnahmen zusammengefasst zahlen darauf ein,
dass vom Design bis in den Betrieb eines Services alle Parteien Hand
in Hand arbeiten. Alle übernehmen Verantwortung - sowohl für die
Flexibilität als auch für die Stabilität eines Services. Nur so können
eine wertschöpfende Dienstleistung für den Kunden erbracht und
neue Märkte erobert werden.
Dabei ist allerdings immer zu berücksichtigen, dass die aktuelle Situation
jedes Unternehmens unterschiedlich ist und sich die konkreten Maßnahmen individuell anpassen müssen. Holen Sie ihre Mitarbeiter ab, wo
itSM Heft 23 - März 2013
Agilität und stabiler Betrieb
sie momentan sind und begleiten Sie sie auf dem Weg der Umsetzung.
Die oben beschriebenen Verfahren sind nur der erste Schritt auf
dem Weg in Richtung kontinuierlichem Deployment und DevOps.
Ist aber erst das Grundverständnis für alle Bereiche in den Köpfen
der Mitarbeiter verankert, strebt die gesamte Organisation danach,
weitere Schritte umzusetzen.
7. Was wird uns also morgen beschäftigen?
Die oben beschriebenen Mechanismen passen vor allem dann, wenn
die Mitarbeiter innerhalb einer Organisation agieren. Oft sind allerdings verschiedene Dienstleister mit der Erstellung und dem Betrieb
eines Services beauftragt. Da stellt sich sehr schnell die Frage, wie
Dienstleisterverträge gestaltet sein müssen, um die optimale Wertschöpfung zu erlangen.
Fazit: Die ersten Schritte gehen, Flexibilität und
Stabilität vereinen.
Die Vereinigung von Flexibilität und Stabilität ermöglicht heute und in
Zukunft wertschöpfende Services. Sie sichert Marktanteile und festigt die
Kundenbeziehungen. Erste Schritte wollen nun unternommen werden.
Fangen Sie an, die ganzheitliche Sicht auf den Service zu verankern. So werden sukzessive die Schwachstellen – seien sie technisch oder organisatorisch
– aufgedeckt. Durch die Fokussierung auf die ganzheitliche Wertschöpfung
werden diese Hürden dann priorisiert aus der Welt geschafft. So erreichen
Sie die Fähigkeiten, die Ihren Geschäftserfolg nachhaltig unterstützen.
Literatur
[Nolan & McFarlan 2005] Nolan, R.; McFarlan, F.: Information Technology and the Board of Directors; Harvard Business Review 10/2005.
Durch die Absicherung geschäftlicher Risiken (Gewährleistung auf
der einen und Pönalen für Minderleistung auf der anderen Seite) entstehen zwischen Organisation und Dienstleister schnell hohe Mauern
– und die stehen dann dem Balanceakt zwischen flexibler Servicegestaltung und stabiler Serviceerbringung im Weg.
Welches sind also die Dienstleistungsmodelle von morgen? Klar ist, dass die
klassischen Rollen innerhalb der IT immer mehr verschwimmen werden.
Durch Virtualisierung, Automatisierung und die Entkopplung von
der tatsächlich vorhandenen Hardware werden in Zukunft immer
mehr Teile eines Services programmiert. Infrastrukturen, Netzwerke und Datenstrukturen werden heute schon (und zukünftig immer
mehr) durch Beschreibungen des Sollzustandes hergestellt.
Auf Seiten der Mitarbeiter werden hier ganz neue Skillprofile entstehen. Tendenziell müssen immer mehr Technologien und Blickwinkel
beherrscht werden. Dieser Trend wird vorerst anhalten, bis eine Konsolidierung der neu entstandenen Sprachen und Technologien einsetzt.
Die Zukunft hat also noch einige spannende Themen für alle IT-Verantwortlichen und IT-Mitarbeiter parat.
Boris van Benthem ist Senior
Consultant bei Cassini Consulting. In zahlreichen Projekten im
Umfeld der Organisations- und
Prozessberatung konnte er seine
Kenntnisse und Fähigkeiten für
seine Klienten gewinnbringend
einsetzen. Sowohl in großen
Konzernen als auch bei mittelständischen Unternehmen hat
Boris van Benthem IT-Serviceorganisationen aufgebaut und
optimiert. In diesem Zuge war es auch seine Aufgabe, die ITServiceorganisation eines webbasierten Kommunikationsportals mit einer agilen Softwareentwicklung zu verknüpfen.
Boris van Benthem ist studierter Wirtschaftspsychologe
und hat einen Master in E-Business. Seit 2007 ist er als
Berater bei Cassini Consulting. Zu seinen Klienten gehören
Organisationen wie die Deutschen Post DHL, Coca Cola
oder Talanx.
Boris van Benthem
Cassini Consulting
Bennigsen-Platz 1
40474 Düsseldorf
[email protected]
www.cassini.de
Service Desk Academy.
Le r n e n durch Er l e b e n .
TeamSeminare
Neu:
Stressmanagement
ITIL® &
Good Practice
Training &
Coaching
Accredited Training Organisation
Accredited Courseware Provider
IT Service
Mitarbeiter &
Manager
www.servicedesk-academy.de
7
8
„From ‚DevOops‘ to DevOps“
Wege zur automatisierten Servicebereitstellung:
„From ‚DevOops‘ to DevOps“
Frank Scheffler
Wie kommt die Anwendung schnell zum Kunden? – Für jeden
Dienstleister im IT Service Management ist das eine Schlüsselfrage. Modellbasierte Automatisierung von IT-Service-Bereitstellungen beschleunigt die Durchsatzgeschwindigkeit und verringert
Ressourcenvergeudung, indem Entwicklung und Betrieb durch
eine gemeinsame Schnittstelle verbunden werden und von Anfang an an einem Strang ziehen. Ergebnis: Mehr Qualität und Geschwindigkeit – die Idee ist schneller und sicherer beim Kunden,
und der Dienstleister kommt früher zum Cash-Back.
IT ist kein Selbstzweck. Wer mit Informationstechnologie arbeitet,
verfolgt damit konkrete Ziele: Der Anwender, der sie einsetzt, erwartet eine optimale Unterstützung seiner Geschäftsprozesse, die Nutzen
und Mehrwert für sein Unternehmen generiert; der Dienstleister für
das IT Service Management, der sie bereitstellt und betreibt, will diese Aufgabe so schnell, effektiv und zur Zufriedenheit seiner Kunden
erfüllen, dass er damit gutes Geld verdient.
Ein Schlüsselfaktor auf diesem Weg von „concept to cash“, also von
der als Ausgangspunkt genommenen Vision oder Idee, eine bestimmte Lösung möglich zu machen, bis zur erfolgreichen und gewinnbringenden Realisierung, ist die Geschwindigkeit. Reibungsflächen und
Konfliktfelder, die ein Projekt ausbremsen und die Zeitachse unnötig
in die Länge ziehen können, lauern insbesondere im Übergang vom
Entwicklungsstadium zur Phase der Inbetriebnahme, also zwischen
„Development“ und „Operations“.
Ein Grund für mögliche Brüche liegt in den unterschiedlichen Arbeitsweisen: Entwickler bevorzugen angesichts der wachsenden
Komplexität moderner Entwicklungsprojekte das Scrum-Framework
als Vorgehensmodell, das empirisch, inkrementell und iterativ operiert, statt auf Lasten- und Pflichtenhefte mit detaillierten vorformulierten Vorgaben zu setzen; im Operations-Bereich setzt wiederum
die Best-Practice-Sammlung der IT Infrastructure Library (ITIL) de
facto international den Standard. Die unterschiedliche Sprache stellt
ein weiteres Reibungsfeld dar; der Entwickler fokussiert sich auf JavaEinbindung oder Web Services, während den Operator Fragen der
Datenbank-Indexierung, der Verfügbarkeit oder der Größe und Dimensionierung umtreiben.
Um solche Konflikte zu überwinden, müssen Development und Operations zusammengebracht werden zu „DevOps“, um voneinander zu
lernen und gemeinsam die wichtigste Frage im Auge zu behalten:
1.Was sind die Bedürfnisse des Kunden?
Was will der Kunde – diese Frage steht im Mittelpunkt. Die Bedürfnisse der Kunden von IT-Services lassen sich als Pyramide darstellen.
Die Basis bilden dabei die grundlegenden Ansprüche an Sicherheit
und Kontrolle; darauf aufbauend die erweiternden Anforderungen
an die Flexibilität von IT-Services; an der Spitze schließlich die innovativen Elemente, die letztlich den Kunden begeistern und den Ausschlag geben beim Cash-Back.
Grundlegende Ansprüche an Sicherheit und Kontrolle, die nicht
zur Debatte gestellt werden können, sind fehlerfreie und stringente
Code-Qualität, die Stabilität des Systems, das jederzeit sicher laufen
muss, die Nachvollziehbarkeit von Änderungen und Dokumentation,
ferner die Reproduzierbarkeit von im System ausgeführten Aktionen,
also das Prinzip, dass gleiche Aktionen immer zum gleichen Ergebnis
führen müssen, sowie die maximale Verfügbarkeit und Störungsfreiheit des IT-Systems.
Flexibilität gewinnt der Kunde durch hohe Performanz des Systems,
das leistungsstark genug sein muss, um allen Anforderungen gewachsen zu sein, durch kurze Bereitstellungszeiten, die in Stunden und
nicht in Wochen gemessen werden sollten, durch Skalierbarkeit –
die Fähigkeit, die Zahl der User rasch und ohne großen Aufwand zu
erweitern – und generell durch hohe Anpassungsfähigkeit: Es muss
möglich sein, innerhalb des Systems Wechsel und Umstellungen
rasch und flexibel vorzunehmen, ohne jedesmal von neuem die Entwicklung damit befassen zu müssen.
Schließlich die Innovation, das also, was ein neues IT-System einzigartig macht und den Kunden überzeugt: Die wesentlichen Faktoren
hierfür sind echter Mehrwert („Business Value“), der grundsätzlich
andere, bessere Prozesse einführt als die zuvor praktizierten – ein Beispiel hierfür war der Übergang vom analogen zum Online-Banking;
ferner „Time to Market“ oder der Wettbewerbsvorteil, der sich daraus ergibt, eine Innovation schneller als die Konkurrenz einzuführen,
und schließlich die Diversifikation und Vielseitigkeit des Systems.
Sicherheit, Kontrolle und Flexibilität sind notwendige und wichtige
Voraussetzungen, aber der Innovationswert entscheidet letztlich über
den Zeitpunkt des „concept to cash“. Je schneller die eingesetzte Arbeitsleistung zum Kunden gebracht wird, desto eher wird der Aufwand rekapitalisiert. Die Herausforderung besteht also darin, eine
höhere Durchsatzgeschwindigkeit bei gleicher Qualität und Stabilität
zu erreichen.
2.Wie erreichen wir kürzere Durchlaufzeiten?
Aus der schlanken Produktion in der Industrie stammt das Instrument des „Value Stream Mappings“: Die Wertschöpfungskette wird
analysiert und auf Möglichkeiten zur Zeiteinsparung durchforstet.
Das Instrument lässt sich vom „lean manufacturing“ auf „lean IT“
übertragen. Eine typische Wertschöpfungskette im IT Service Management könnte beispielsweise so aussehen:
Die Testläufe sind dabei zum einen notwendig und zum anderen oft
kaum zu beschleunigen – sie brauchen ihre Zeit. Beschleunigung lässt
Value Stream Mapping
...
Release
testen
Releasefreigabe
Release
Build
Übergabe an
Operations
Release
prüfen
Freigabe
Deployment
Release
Deployment
Abbildung1: Value Stream Mapping
itSM Heft 23 - März 2013
„From ‚DevOops‘ to DevOps“
sich daher am ehesten dadurch erreichen, dass die Zahl der Übergänge reduziert und unnötige Übergaben wegoptimiert werden. Mit anderen Worten: Es geht darum, wertschöpfende und nicht-wertschöpfende Tätigkeiten sauber zu trennen und die nicht-wertschöpfenden
nach Möglichkeit zu eliminieren.
Taiichi Ohno, der Erfinder des Toyota-Produktionssystems und Vater der nicht nur in der Automotive-Industrie längst zum Standard
gewordenen logistischen Basismethoden Kanban und Just-in-timeProduktion, hat das zugrundeliegende Prinzip in einem vielzitierten
Lehrsatz auf den Punkt gebracht:
„All we are doing is looking at the timeline, from the moment the customer gives us an order to the point where we collect the cash. And we
are reducing the timeline by reducing non-value added waste.”
2.1.„7 Wastes“ in industrieller Produktion und
IT-Service-Bereitstellung
Die Beschleunigung der Durchlaufzeit von der Auftragsvergabe bis
zum Cash-Back verlangt demzufolge die Eliminierung aller Bestandteile der Wertschöpfungskette, die keinen Mehrwert für den Kunden
erzeugen, um die Produktivität zu steigern. Die von Taiichi Ohno
begründete Produktionsweise hat sieben solcher Bestandteile identifiziert, die es vor allem zu eliminieren gilt: Materialbewegungen, Lagerbestände, Produktionsschritte, Wartezeiten, Verarbeitung, Über-
produktion sowie Defekte und Ausschuss.
Diese „7 Wastes“, die in der industriellen Produktion zum Allgemeingut geworden sind, lassen sich auch auf die IT-Service-Bereitstellung
übertragen: Überflüssige Materialbewegungen auf Produktionsstraßen entsprechen dann unnötigen Übergaben, z.B. mehrfache Mitteilungen und Abstimmungen bei der Datenbankeinrichtung; zu
hohe Bestände kann man mit dem zu häufigen Herunterfahren von
IT-Services für Wartung und Änderungen vergleichen; überflüssige
Produktionsschritte kommen zu häufigem Task Switching gleich,
wenn Changes in zu vielen Schritten erfolgen, die jedesmal neues
Einarbeiten in verschiedene Aufgaben verlangen; Zeitverluste durch
Wartezeiten entsprechen Verzögerungen bei der IT-Bereitstellung,
Verarbeitung der Wiedereinarbeitung, Überproduktion dem Vorhalten ungenutzter Ressourcen und Defekte und Ausschuss in der Produktion den gefürchteten „Incidents“ im IT-Bereich.
2.2.Automatisierung identifiziert und
minimiert Ressourcenvergeudung
„Speed is the absence of waste“, hat Mary Poppendieck, engagierte
Verfechterin der “schlanken” Software-Entwicklung, das für beide
Disziplinen gültige Prinzip zusammengefasst: Beschleunigung wird
durch die Vermeidung von Ressourcenvergeudung erreicht. Der beste Weg zu diesem Ziel ist die Automatisierung von Prozessen: Konse-
automaIT
®
INTELLIGENT DATA
CENTER AUTOMATION
80% der Arbeitszeit geht
in der IT mit manuellen
Arbeitsabläufen verloren.
Automatisieren Sie Ihr Rechenzentrum
mit automaIT®!
9
10
„From ‚DevOops‘ to DevOps“
quente Automatisierung identifiziert und minimiert alle Formen von
„Waste“.
Kapselung von Informationen und Logik pro Configuration Item fördert zugleich die Ideen von ITIL.
In der Softwareentwicklung ist die Automatisierung schon recht weit gediehen. Wo aber soll man beim Betrieb von IT-Services ansetzen? Die
Best Practice-Sammlungen der ITIL geben dafür nicht allzu viel her.
Ein auf diese Weise gewonnenes Modell ist in der Lage, einen ZielZustand zu beschreiben und zugleich den aktuellen Ist-Zustand
laufend zu dokumentieren. Die Wiederverwendbarkeit von Informationen erhöht die Konsistenz bei systemübergreifenden Konfigurationen. Beispiel einer solchen Wiederverwendung sind Informationen, die zur Konfiguration einer Datenbank und des zugehörigen
Datenbankzugriffs im Application Server notwendig sind.
Ein wesentlicher Vorteil des modellbasierten Ansatzes ist die Automatisierung von Tests, die auf die jeweilige Modellebene heruntergebrochen und daher wesentlich realitätsnäher erfolgen können.
Wird beispielsweise eine Datenbank mit einem Application Server
mit vorgeschaltetem Load Balancer verbunden, kann beispielsweise in einem ersten Testlauf der Zugriff mehrerer Application Server
auf die Datenbank geprüft werden, während bei der Abnahme unter
realistischen Bedingungen das Zusammenspiel von Load Balancer,
Application Server und Datenbank getestet wird; in der Produktion
schließlich agieren Load Balancer, mehrere Application Server und
die Datenbank sicher zusammen.
Ein möglicher Ansatz für flexible Automatisierung ist die modellbasierte Provisionierung. IT-Services setzen sich aus einzelnen „Configuration Items“ (CI) zusammen, die bestimmte Attribute haben und
bestimmte Operationen ausführen – Datenbanken oder Application
Server zum Beispiel. Manche dieser Configuration Items werden von
mehreren Services benötigt. Der modellbasierte Ansatz geht daher
mit bewährter Methodik objektorientiert, abstrahierend und modular vor; er ist kooperativ durch intensive Kommunikation mit möglichst vielen Beteiligten und strebt danach, möglichst kleine Einheiten zu größeren zusammenzusetzen (kompositär).
2.3 Flexible Automatisierung mit
modellbasiertem Ansatz
Der modellbasierte Ansatz ist flexibel, weil er keine Einschränkungen in der Vielfalt der Abbildungen kennt und mit skalierbaren CIs
arbeitet; und er zeichnet sich durch Erweiterbarkeit und Wiederholbarkeit aus – mittels objektorientierter Modellierung von IT-Services
ist beispielsweise der Wechsel hin zu einer Hochverfügbarkeitslösung
mit mehreren verteilten Rechenzentren sehr einfach möglich. Ein
weiterer wichtiger Punkt ist die Ausführbarkeit: Zusammen mit den
CIs wird auch die dazugehörige Ausführungslogik vorgehalten. Die
2.4.„DevOps“: Infrastruktur als Code
Je höher die Bereitstellungsebene, desto häufiger ändern sich die
Anforderungen. In Produktkonfiguration und Anwendungs-Deployment sind Änderungen an der Tagesordnung: Ein Datenbank-Cluster
wird benötigt, um die Verfügbarkeit zu erhöhen; für die Speicherung
der GPS-Daten wird noch eine NoSQL-Datenbank verlangt oder die
Abbildung 2: Modellbasierter Ansatz
itSM Heft 23 - März 2013
„From ‚DevOops‘ to DevOps“
Berechnung des Jahresabschlusses mit SAP-FI über einen Enterprise
Service Bus soll ermöglicht werden.
Der modellbasierte Ansatz kann mit neuen Services und Änderungen
auch in komplexen verteilten Umgebungen schnell und effizient umgehen, weil das Modell jederzeit erweiterbar und praktisch „niemals
fertig“ ist. Die infrastrukturelle Abbildung wird selbst zum Code, der
bei Änderungen wie eine Software behandelt wird, und schließt damit die Kluft zwischen Entwicklung und Betrieb.
Diese Struktur erlaubt den übergreifenden Einsatz bewährter Entwicklungspraktiken wie Software Configuration Management oder
Release Tracking. Durch die konsequente Automatisierung finden
Tests laufend statt, indem man den automatisierten Prozess laufen
lässt; die Testumgebung muss nicht bei jeder Änderung komplett neu
aufgesetzt werden. Das Modell wird dabei an den Lebenszyklus der
Anwendung gekoppelt; Anwendung und Modell durchlaufen dieselben Stufen, es gibt keine disjunkten, nicht eingebundenen Anwendungen mehr. Auf diese Weise wird ein „DevOps“-Prozess etabliert:
Entwicklung und Betrieb haben eine gemeinsame Schnittstelle und
ziehen an einem Strang.
3.No more Waste…
Die Vorteile dieses Prozesses lassen sich an der Checkliste des „7
Wastes“ gut ablesen: Die Zahl der Übergaben wird deutlich reduziert,
weil die Bereitstellung von Datenbanken und anderen Configuration
Items automatisiert anhand des Modells erfolgt; langwierige Wartungsstillstände entfallen ebenfalls, da Änderungen komplett „am
Stück“ erfolgen können; das Expertenwissen steckt im Modell, das
zeitfressende Hin- und Herschieben von Changes bis zu ihrer vollständigen Realisierung entfällt.
Das bedeutet zugleich ein Weniger an Task Switching; automatisierte
Kooperation im „DevOps“-Prozess ermöglicht den Einsatz von cross
functional teams, die das gesamte Expertenwissen, das für etwaige
Changes erforderlich ist, an einem Ort vereinigen. Dass es aufgrund
dieser Faktoren generell weniger Verzögerungen gibt und auch weniger Reibungsverluste durch Wiedereinarbeitung entstehen, liegt auf
der Hand. Ungenutzte Ressourcen sind im modellbasierten Ansatz
sofort zu identifizieren; was wegfallen kann, ist jederzeit transparent.
Und weil das zentrale Modell konsistent ist, verhindert es wirksam
Incidents aus Übergabefehlern, Misskonfigurationen oder anderen
Fehlerquellen aus der manuellen Bereitstellung.
Als Ergebnis lässt sich festhalten: Im automatisierten, modellbasier-
Dev
Infrastructure as Code
Abbildung 3: “DevOps”-Prozess
Ops
ten „DevOps“-Prozess sind Entwicklung und Betrieb von Anfang an
koordiniert und arbeiten zusammen; der Betrieb und seine Anforderungen sind frühzeitig in einen gemeinsamen Prozess eingebunden,
beide Disziplinen durchlaufen von Beginn an dieselben Test. Änderungen, die erst direkt in der Produktion durchgeführt werden, sind
immer ein Spiel mit dem Feuer. „DevOps“ ermöglichen komplexere
Architekturen bei gleichzeitiger Steigerung von Qualität und Geschwindigkeit. Automatisierung maximiert die Qualität im Betrieb
bei gleichzeitig optimierter Bereitstellungsdauer. Die Idee ist schneller beim Kunden – Ziel erreicht.
Ein kostenloser Testzugang für „automaIT2go“ kann unter
[email protected] angefordert werden.
Frank Scheffler ist Leiter des
Kompetenzbereichs „RZ-Automatisierung“ bei der NovaTec GmbH. In
diesem Zusammenhang unterstützt
er als Berater seine Kunden bei der
Automatisierung der IT-Servicebereitstellung vom Test bis hin zur
Produktionseinführung, wobei ihn
seine mehrjährige Erfahrung in der
Entwicklung von Java-EnterpriseAnwendungen unterstützt. Als zertifizierter Professional
Scrum Product Owner verantwortet er zudem die
Produktentwicklung von Automationswerkzeugen in der NovaTec.
Frank Scheffler
NOVATEC
Ingenieure für neue Informationstechnologien GmbH
Dieselstrasse 18/1
70771 Leinfelden-Echterdingen
[email protected]
www.novatec-gmbh.de
11
„From ‚DevOops‘ to DevOps“
Because having only one
option isn’t an option:
HEAT IT Service
Management
FrontRange bietet Hybrid IT Service Management (ITSM) Lösungen für Unternehmen
jeder Größe. Mit den Anwendungen der HEAT Familie wird die FrontRange
Service Management Lösung zur einheitlichen Plattform für Ihr gesamtes Service
Management. Mit dem Cloud- oder On-Premise-Bereitstellungsmodell entscheiden
Sie, ob Betriebskosten anfallen oder eine Investition getätigt wird — die HybridLösung bietet eine Kombination aus beiden.
FrontRange liefert eine IT Service und Support Management Lösung mit
integrierter VOICE-Automatisierung, sowie einem voll integrierten Desktop und
Server Management. So können Ihre Prozesse vom Service Request bis hin zur
automatisierten Softwareverteilung durchgängig abgebildet werden.
Etablieren Sie mit Hilfe der vorkonfigurierten Software-Lösung von FrontRange
schnell und zielorientiert eine für Ihr Unternehmen integrierte passgenaue Lösung.
Profitieren Sie von der hohen Automatisierung und einem schnellen ROI!
Mehr Informationen:
FrontRange Solutions
Deutschland GmbH
Ohmstraße 4
85716 Unterschleißheim
Gottlieb-Manz-Straße 10
70794 Filderstadt
Deutschland
Tel:
+49 (0)711 340190 0
Fax: +49 (0)711 340190 5119
www.frontrange.com
Wie viel Agilität verträgt ITSM?
Wie viel Agilität verträgt ITSM? Perspektiven agiler Methoden im IT Service Management
Sascha Meyer, Franziska Wauch
Auf Enterprise 2.0 folgt die Agile Organisation
Seit Jahren etablieren sich agile Methoden in der IT. Und wenn eine
Methode in einem Bereich erfolgreich eingesetzt wird, ist es nur noch
eine Frage der Zeit, bis diese auf andere Bereiche übertragen wird.
Das Schlagwort Enterprise 2.0, welches durch den Erfolg von SocialSoftware-Systemen wie Wikipedia in aller Munde gelangte, hat bereits weitgehend Einzug in die Unternehmensrealität gehalten. Nun
dreht es sich vielerorts um das „Agile Unternehmen“ oder die „Agile
Organisation“. Ob das zu weit gegriffen ist? Das werden die ersten
Erfahrungen in den nächsten Jahren zeigen.
Naheliegend ist die Idee, agile Werte und Methoden in andere Unternehmensbereiche zu übertragen, auf jeden Fall. Agilität in Unternehmen wird nicht erst seit den Erfolgen von Scrum & Co. gefordert
(vgl. bspw. [Förster & Wendler 2012] oder [Scheer et al. 2006]). Die
Etablierung agiler Werte und Methoden hat sich in IT-Projekten und
der Softwareentwicklung weitgehend als sehr erfolgreich herauskristallisiert. Direkt betroffen davon sind auch ITSM-Bereiche, die
sich durch den Einsatz von Scrum & Co. mit neuen Anforderungen
konfrontiert sehen. DevOps, Continual Beta oder „Bring your own
device“ sind nur einige der neuen Schlagwörter. Häufige Servicebereitstellungen und -updates werden zur Regel. Die Frage, ob und wie
ITSM-Bereiche auch von den Vorteilen agiler Werte und Methoden
profitieren können, ist somit naheliegend.
Wir haben diese Frage auf dem itSMF Jahreskongress im Dezember
2012 in Kassel gestellt. Mit den Teilnehmern der Birds of a Feather
Session diskutierten wir, wie viel Agilität eine ITSM-Organisation
vertragen kann, was Agilität im ITSM ausmacht, was Mehrwerte sein
und in welchen Bereichen positive Effekte erzielt werden können. Einige der Gedanken möchten wir hier nochmals aufgreifen.
1.Agilität – Sitzsäcke und Chaos?
Das schnell veränderliche Umfeld und Angebot von ITSM-Organisationen verlangt Mitarbeitern an der Kundenschnittstelle wie in der
Technik gleichermaßen Flexibilität, Anpassungsfähigkeit und Reaktionsfähigkeit ab. Doch wie kann das bei gleichzeitig geforderter Stabilität funktionieren? Ist die Übertragung agiler Werte und Methoden
auf das Prozessmanagement und die IT-Prozesse des Rätsels Lösung,
um die geforderte Wendigkeit zu erreichen?
Zur Annäherung an diese Frage sollte zunächst geklärt werden, was
unter Agilität eigentlich zu verstehen ist. Spontaneität, unstrukturiertes und chaotisches Vorgehen, ganz viel „miteinander reden“, nichts
mehr aufschreiben und dokumentieren…? Reicht es vielleicht, Sitzsäcke und eine Lounge bereitzustellen, um transparente Kommunikation und effiziente Prozesse sicherzustellen? Wohl eher nicht. Auch
die Beschränkung des Begriffs „agil“ auf ein Synonym für das Framework „Scrum“ ist zu eng gefasst.
Unter Agilität verstehen wir vor allem die Verankerung von Werten und
Prinzipien, die einer Organisation innerhalb bestehender Ziele, Pläne
und Restriktionen (wie Compliance-Anforderungen) Gestaltungsfreiräume lässt, um auf zwangsläufige Veränderungen zu reagieren.
Prinzipiell ist dies keine neue Forderung und die Antworten sind
beispielsweise im kybernetischen Management längst bekannt: „Organisiere ein komplexes System so, dass es sich weitgehend selbst
organisieren, selbst regulieren und evolvieren kann“. [Malik, 2006].
Dennoch ist die Realität meist weit davon entfernt und so kann der
Drang nach Agilität eine Chance sein, die Werte einer Organisation
zu hinterfragen und anzupassen.
Ein Beispiel für ein formuliertes Werteschema ist das aus der Softwareentwicklung bekannt gewordene „Agile Manifesto“ [Beck et al. 2001]:
• Individuals and interactions over processes and tools
• Working software over comprehensive documentation
• Customer collaboration over contract negotiation
• Responding to change over following a plan
Das Manifest ist nicht dogmatisch auszulegen. So fordert der Grundsatz „Working software over comprehensive documentation“ nicht dazu
auf, nichts zu dokumentieren. Diese Sichtweise wäre zu eng und in der
Realität nicht haltbar. Vielmehr wird eine funktionierende Software als
wichtiger angesehen, als eine umfangreiche Dokumentation. Genau
dieses Beispiel zeigt aber auch, dass sich das „Agile Manifesto“ aufgrund
des starken Fokus auf die Softwareentwicklung nicht zur direkten Anwendung als Werteschema für alle Bereiche eignet. Vielmehr sollte jede
Organisation ihr spezifisches „agiles Werteschema“ entwickeln.
Dabei ist in jedem Fall zu berücksichtigen, dass die Einigung auf ein
solches Werteschema vor allem einen organisatorischen Wandel mit
sich bringt – und damit gutes (Change) Management erfordert.
Das Werteschema dient als Grundlage für das Management. So sollte
beispielsweise zum Erreichen von Selbstorganisation den Mitarbeitern tatsächlich (innerhalb der Zielarchitektur und Restriktionen)
der notwendige Freiraum eingeräumt werden, um Änderungen zu
initialisieren und umzusetzen.
Für das Erreichen von Agilität empfehlen sich folgende Grundsätze
[Meyer & Wauch 2012]:
• Fokussierung auf den geschäftlichen Nutzen.
• Klare, offene, direkte und kontinuierliche Kommunikation.
• Zusammenarbeit in Teams innerhalb selbstorganisatorischer
Freiräume.
• Vereinbarte Qualität ist nicht verhandelbar.
• Arbeit ist geprägt von inkrementellen und iterativen Vorgehensweisen.
2.Agilität im ITSM-Prozessmanagement
2.1 Was macht Prozessmanagement in IT-Bereichen aus?
Um sich der Fragestellung nach der Sinnhaftigkeit und dem möglichen Mehrwert von agilen Werten und Methoden im Prozessmanagement von IT-Organisationen zu nähern, werfen wir zunächst
einen Blick auf die verschiedenen Aspekte des Prozessmanagements
in IT-Organisationen.
• D
ie Implementierung von ITSM-Prozessen ist häufig getrieben
von der Notwendigkeit der Professionalisierung des Tagesgeschäfts und der Sicherstellung der von den Kunden erwarteten Servicequalität. Auch an der Schnittstelle zu Betrieb und
Entwicklung sowie zu Dienstleistern besteht der Bedarf zu klar
definierten Prozessen. Häufig wird dafür auf ITIL als Prozess-
13
14
Wie viel Agilität verträgt ITSM?
•
•
•
•
Framework zurückgegriffen, um Best Practices nutzen und
Standardisierung erreichen zu können.
Zu berücksichtigen sind bei ITSM-Prozessen vor allem Skalierbarkeit, Transparenz, Dokumentationspflichten und Compliance-Anforderungen. Die Anforderungen sind daher häufig
sehr komplex.
Die Standardisierung von Begriffen, Prozessen und Schnittstellen stattet die Mitarbeiter mit einer weitgehend einheitlichen
Basis für Sprache und Kommunikation im ITSM aus.
Weniger von Frameworks wie ITIL berücksichtigt, aber dennoch von großer Relevanz für ITSM-Prozesse, ist die Transparenz über schwach strukturierte und schwer vorhersagbare
Prozesse. Hier ist vor allem Process Knowledge Management
von großer Relevanz.
Flexibilität einerseits und Stabilität andererseits sind von
entscheidender Bedeutung für die Sicherstellung des Zusammenspiels zwischen den verschiedenen Akteuren im ITSM (z.B.
Techn. Betrieb, SLM, Support, Dienstleister).
Viele dieser Aspekte werden durch den De-Facto-Standard ITIL abgedeckt. Projekte zur Einführung von ITIL werden häufig – wie im
Prozessmanagement weit verbreitet – als große, komplexe Projekte
aufgesetzt. Nach einer umfangreichen Ist-Aufnahme erfolgen eine
Analyse und eine Soll-Konzeption (z.B. spezifiziertes ITIL-Modell).
Die betroffenen Mitarbeiter werden in vielen Projekten bis dahin
nur wenig bis gar nicht eingebunden. Zuletzt wird das erarbeitete
Prozessmodell – wenn möglich inklusive ITSM-Tool – über die ITOrganisation ausgerollt.
2.2 „Mit mir nicht“ –
Prozesseinführungen nach dem Wasserfall-Modell
Spätestens hier zeigt sich häufig ein Problem: Prozesseinführungen
im Wasserfall-Modell scheitern etwa ebenso oft, wie IT-Projekte nach
diesem Vorgehen. Die Ursachen sind vielfältig. Dauert die Soll-Konzeptions-Phase zu lange, so sind die vorher dokumentierten Ist-Prozesse ggf. bereits wieder veraltet und das Delta der umzusetzenden
Veränderungen wird zu einer unbekannten Variable. Organisation
und Mitarbeiter sind nicht auf so umfassende prozessuale und daVom Wasserfall …
Design
Test
Realisierung
... zur Prozess Design Iteration
Analyse
Prozess Design Iteration
Analyse
Design
Design
Test
Test
Prozess Design Iteration
Analyse
Design
Test
Realisierung
Retrospective
2.3 Ansätze für agile Werte und Methoden
ins Prozessmanagement
Agile Werte und Methoden setzen genau bei diesen Problempunkten
an. Die Grundidee agiler Methoden beruht auf der selbstorganisatorischen Zusammenarbeit in kleinen, hoch kompetenten Teams, die in
Iterationen und mit direkter Kommunikation mit den Stakeholdern
an der Erreichung priorisierter und definierter Ergebnisse arbeiten.
Dabei sind die zu erreichende Qualität, Ressourcen und Zeitrahmen
(Timebox) für jede Iteration klar definiert.
Überträgt man diese Grundideen in einen methodischen Ansatz für
„agiles“ Prozessmanagement im ITSM, so kann, ausgehend von einer
Prozessarchitektur (z.B. organisationsspezifisches ITIL-Framework),
ein phasenorientiertes Modell zur Prozessimplementierung oder
-professionalisierung durch ein iteratives Vorgehen abgelöst werden.
Der tatsächliche Umfang der notwendigen Veränderungen kann so
sukzessive erarbeitet werden. Auf Basis der Prozessarchitektur in Verbindung mit (Self-) Assessments werden Prozesse definiert und priorisiert. Diese können nun kontinuierlich zerlegt und weiterentwickelt
werden. Die so ermittelten Arbeitspakete, die als Process Stories (Prozessanforderungspakete) formuliert werden, werden von interdisziplinär besetzten Teams in Design-Iterationen bearbeitet. Dabei werden
in jeder Iteration die Phasen Analyse, Design, Test, Implementierung
und Retrospektive durchlaufen. Die Iterationen unterliegen dabei
Restriktionen wie Qualität, Ressourcen und Timebox. Die in den
Iterationen erarbeiteten Prozessverbesserungen können sukzessive implementiert werden. Nach der Implementierung der Prozesse werden
in einer Retrospektive Erfolge und Verbesserungsmöglichkeiten betrachtet. Die Ergebnisse aus der Iteration sowie aus der Retrospektive
werden wiederum mit der Prozessarchitektur abgeglichen.
Unterstützt wird das Vorgehen durch ein entsprechendes partizipatives Rollenmodell, bei dem interdisziplinäre Teams im Vordergrund
stehen und von Prozessmanagementexperten unterstützt werden.
Diese stellen auch den „Fit“ zur Gesamtarchitektur sicher. Der Process Owner liefert und koordiniert Anforderungen und Akzeptanzkriterien und nimmt die Ende-zu-Ende-Perspektive ein [vgl. hierzu
ausführlich bspw. Meyer & Wauch 2012/2].
Analyse
Prozess Design Iteration
mit täglich greifbare Veränderungen in der eigenen Arbeitsweise und
ggf. auch im eigenen Kompetenzbereich eingerichtet und fühlen sich
überrannt. In der Praxis ist immer wieder eine ablehnende Haltung
der Mitarbeiter zu beobachten, die sich in einer Opferhaltung und
in Syndromen wie „Not-invented-here“, „Mit-mir-nicht“ oder „Istmir-doch-egal“ zeigt [Becker et al. 2005]. Nach der Einführung der
Prozesse erfolgen in vielen Fällen keine Aktualisierungen und kontinuierliche Verbesserung mehr, auch wenn ITIL dies bereits vorsieht.
Statische Prozesssilos entstehen.
Realisierung
Retrospective
Realisierung
Retrospective
Abbildung 1: Abbildung 2: Vom Wasserfall zur Prozess-Design-Iteration
2.4 Etablierung agiler Werte und Methoden im
ITSM-Prozessmanagement
Für das Prozessmanagement können aus einem agilen Werteschema
wie dem Agile Manifesto sowie den Grundideen agiler Methoden folgende Grundsätze abgeleitet werden:
• Klare Zielarchitektur: Die gemeinsame Zielarchitektur ist bekannt
und klar formuliert. Für IT-Bereiche kann es sich hier um ein organisationsspezifisch angepasstes ITIL-Prozessmodell handeln.
itSM Heft 23 - März 2013
Wie viel Agilität verträgt ITSM?
• Design Constraints: Nicht nur Restriktionen und Leitlinien wie
z.B. Dokumentationspflichten, Compliance-Anforderungen,
eingegrenzte Kompetenzbereiche müssen bekannt sein. Auch
Anforderungen an die Qualität müssen klar formuliert und bekannt sein.
• Definierte Designvorgaben: Wenige aber klare Vorgaben zum
Prozessdesign und zur Prozessdokumentation ermöglichen eine
einfache, klare, gemeinsame Prozesssprache und damit gegenseitiges Verständnis.
• Robuste und transparente Tools: Um eine einheitliche und für
alle Teilnehmer nachvollziehbare Kommunikation und Dokumentation sicherzustellen, sollten Werkzeuge eingesetzt werden, die für
alle Beteiligten zugänglich und einfach in der Nutzung sind.
•Backlog: Detaillierte, kontinuierlich veränderte und sortierte
Liste der ITSM-Prozesse als zentrales Element der Planung
und Priorisierung.
•Process Stories: Knappe, Nutzen- und kommunikationsorientierte Dokumentationsform von Prozessen und deren Akzeptanzkriterien.
•Collaboration Software: In vielen Unternehmen wird bereits
Collaboration Software eingesetzt, die in diesem Rahmen genutzt werden kann.
• Mitarbeiter zu Change Agents machen: Die enge Einbindung
derjenigen Mitarbeiter, die mit den Prozessen arbeiten, ermöglicht es nicht nur, deren Know-how zu nutzen. Die daraus resultierende Akzeptanz und damit der langfristige Erfolg der Maßnahmen steigen.
• Regelmäßiger Rollout von Prozessen: Veränderungen erfolgen in kleinen, reversiblen Schritten und können kontinuierlich
ausgerollt werden. Erfolge sind schneller sichtbar, Quick Wins
können realisiert werden. Eine sukzessive inkrementelle Prozessoptimierung wird früh sichtbar und messbar (z.B. geringere
Reaktionszeiten bei Supportanfragen von Kunden, schnellere
Bearbeitungszeit für Service Requests o.ä.). Damit kann nicht
nur die Kundenzufriedenheit erhöht werden, auch die Motivation der Mitarbeiter steigt. Die Veränderungen erfolgen in einem
Umfang, in dem sie von den Mitarbeitern getragen werden können. Dissatisfaktoren, wie sie bei großen Veränderungsprojekten
oftmals entstehen, werden minimiert.
• Zyklische und Ad-hoc-Verbesserungen annehmen: Prozessmanagement ist mehr als ein Projekt. Erst die langfristige Implementierung und der Aufbau eines Kontinuierlichen Verbesserungsmanagements ermöglichen es einer Organisation, die
Vorteile von Prozessmanagement zu nutzen. Dazu gehört auch,
dass Ad-hoc-Anforderungen für Änderungen angenommen, geprüft und priorisiert werden.
Wie das Zusammenspiel dieser Aspekte mit einem methodischen
Ansatz für „agiles“ und kontinuierliches Prozessmanagement im
ITSM aussehen kann, zeigt Abbildung 3 [in Anlehnung an Meyer &
Wauch 2012].
Die wohl größte Herausforderung dabei ist wohl nicht, Tools und
Strukturen zu implementieren, sondern die Mitarbeiter einzubinden
und mitzunehmen:
• Early adopters finden: In fast allen Organisationen gibt es Mitarbeiter, die besonders offen für Neues sind. Diese sollte man finden
und frühzeitig einbinden, denn sie können zu Multiplikatoren werden und damit den Projekterfolg nachhaltig stärken.
• Teamentscheidungen akzeptieren: Teamentscheidungen zu
akzeptieren heißt gegebenenfalls auch, die eigene Meinung zurückzustellen und bedeutet vielleicht sogar für das Management
(gefühlte) Einschnitte in die eigenen Steuerungs- und Kontrollmöglichkeiten. Ohne einen grundlegenden Wertewandel, der
Teamentscheidungen mitträgt, wird das Vorgehen ad absurdum
geführt, die Motivation gebremst. Vertrauen in die Mitarbeiter ist
hier eine grundlegende Voraussetzung.
• Reduzierung der Komplexität: Zur Reduzierung von Hemmnissen für die Initiierung und Umsetzung von Verbesserungen
sollte eine Umgebung sichergestellt werden, in der schnelle
Entscheidungen und Handlungen ermöglicht werden (z.B. kein
umfangreicher Change-Request-Prozess für Prozessanpassungen, sondern einfache Aufnahme von Punkten in ein Process Backlog und Fokussierung über Priorisierung der Themen).
2.5 Die Sehnsucht nach dem Meer
Gerade in IT-Abteilungen, in denen traditionell in vielen Bereichen
eine Tendenz zur Umgehung von bestehenden Strukturen zu beobachten ist, sind agile Methoden bei ITSM-Einführungen sinnvoll.
Hier werden die Kenntnisse und häufig sehr pragmatischen Ansätze
der Mitarbeiter in die Prozessgestaltung einbezogen und damit auch
akzeptiert. Doch nicht nur für ITSM-Einführungen sind agile Methoden im Prozessmanagement sinnvoll. Häufig ahnen Mitarbeiter,
dass „etwas besser laufen könnte“, wissen aber noch nicht genau, wie
es besser gemacht werden kann. Auch für diese kontinuierliche Weiterentwicklung von Prozessen, für die sukzessive Professionalisierung und Erhöhung des Reifegrades, bietet sich die Etablierung agiler
Werte und Methoden an.
Vision & Ziele der IT-Abteilung
(Self-)
Assessment
Permanente Rückkopplung zw. Design, Architektur und Zielen
Prozess
Architektur
(z.B.
organisationsspezifisches
ITIL-Framework)
Design
Sprint
Prozess Backlog
Abbildung 2:Agile Methoden im Prozessdesign [Meyer & Wauch 2012]
Prozess
Implementierung von
Prozessen
Entscheidend für ITSM-Einführungen und
die Weiterentwicklung der ITSM-Prozesse
mit agilen Methoden ist nicht der Reifegrad
der Organisation, sondern eher die Kultur
und die Kommunikation, die Möglichkeit,
die Veränderungsbereitschaft und die Veränderungen tatsächlich in die Organisation
zu bringen. Ein agiles Vorgehen mit vielen
„verdaubaren“, realistischen und realisierbaren Iterationen macht es leichter, die Mitarbeiter an Bord zu holen und zu halten. So
15
16
Wie viel Agilität verträgt ITSM?
wird auch der Aufbau eines kontinuierlichen Prozessmanagements
ermöglicht. Nur dann können die Vorteile von ITSM-Einführungen
langfristig genutzt werden (Spagat zwischen Flexibilität und Stabilität, gemeinsame Sprache, Service- und Kundenorientierung) und
ITSM-Bereiche können sich zu einem (prozessorientierten) BusinessPartner weiterentwickeln.
[DeGrace & Stahl 1990]. Entscheidungen werden bei diesem Konzept im spätesten vertretbaren Moment getroffen, also idealerweise
wenn der Change in der nächsten Timebox tatsächlich durchgeführt
werden kann und die Kosten der Verzögerung höher wären als der
Nutzen der Umsetzung [vgl. hierzu auch Meyer & Wauch, 2012].
Insgesamt bleibt auch beim Einsatz agiler Werkzeuge im ITSM-Tagesgeschäft zu beachten, dass agile Methoden nur in Verbindung mit
einem Umdenken und Hinterfragen etablierter Good Practices zur
Generierung von Vorteilen führen, um der Komplexität und Veränderlichkeit in ITSM-Bereichen besser begegnen zu können.
Und so kann man es im ITSM-Prozessmanagement - wie in vielen anderen Bereichen auch - mit Saint-Exupéry halten: „Wenn Du ein Schiff
bauen willst, dann trommle nicht Männer zusammen, um Holz zu beschaffen, Aufgaben zu vergeben und die Arbeit einzuteilen, sondern
lehre die Männer die Sehnsucht nach dem weiten, endlosen Meer.“
Literatur
3.Agilität in ITSM-Prozessen –
Das agile Tagesgeschäft?
• [Malik. 2006] Malik, F.: Führen Leisten Leben, Campus Verlag,
Frankfurt/New York, 2006, S.28
• [Beck et al. 2001] Beck, K. et al.: Manifesto for Agile Software
Development; 2001; im Internet unter: http://www.agilemanifesto.org; Stand 19.02.13
• [Becker et al. 2005] Becker, J. et al.: Projektmanagement, in:
Becker j. et al.: Prozessmanagement – Ein Leitfaden zur prozessorientierten Unternehmensgestaltung, Springer Verlag Berlin
Heidelberg, 2005, S. 17-44
• [DeGrace & Stahl 1990] DeGrace, P., Stahl, L. H.: “Wicked Problems, Righteous Solutions-A Catalogue of Modern Software
Engineering Paradigms”. Yourdon Press. PTR Prentice Hall Building.Englewood Cliffs, 1990
Neben den dargestellten Ansätze und Ideen zur Nutzung der Vorteile von agilen Methoden und Werten im ITSM-Prozessmanagement
kann man darüber hinaus noch betrachten welche Vorteile Agile
Best Practices innerhalb der eigentlichen ITSM-Prozesse bieten.
Während im Workshop auf dem itSMF Jahreskongress Agilität im
Prozessmanagement auf sehr gute Resonanz gestoßen sind, ist den
Teilnehmern die Diskussion um Agilität in den täglich gelebten Prozessen schwerer gefallen. Dies ist auch verständlich, da der Begriff
Agilität innerhalb von Prozessen suggeriert, dass diese willkürlich,
schwer planbar und intransparent werden. Dies ist jedoch bei näherer Betrachtung agiler Methoden nicht zwangsläufig der Fall.
Tatsächlich können mit diesen Themen wohl ganze Bücher gefüllt
werden, zumal die bereits verbreitete Nutzung von Ansätzen wie
DevOps bereits Auswirkungen auf die organisatorischen Aspekte von
ITSM-Prozessen haben. So haben sich im ITSM-Tagesgeschäft bereits
einige agile Elemente verbreitet. Im Request Fulfillment, Change und
Release Management wird bereits Kanban zur Visualisierung der anstehenden Aufgaben und der Engpässe eingesetzt. Auch der Einsatz
weiterer Good Practices wie Timeboxing oder Backlogs ist gut vorstellbar, ebenso die Ausrichtung von Entscheidungen beispielsweise
im Change-Prozess am Grundsatz des „Last Responsible Moment“
Process-Backlog
Übersicht über die priorisierten
Process-Stories
Design-Iterationen
Kontinuierliche
Weiterentwicklung
Team Prozess
Change Mgt.
Design-Iterationen
Gemeinsames Ziel  Gemeinsame Zielarchitektur
Team Prozess
Service Desk
• [Förster & Wendler 2012] Förster, K. u. Wendler, R.: Theorien
und Konzepte zu Agilität in Organisationen; Dresdner Beiträge
zur Wirtschaftsinformatik, Nr. 63/12,
2012, zum Download unter: http://wwwpub.zih.tu-dresden.de/~isih/Publikationen/Foerster_Wendler_2012_TheorienKonzepte-Agilitaet.pdf, Stand 20.02.13
• [Meyer & Wauch 2012] Meyer, S. u.
Wauch, F.: Agilität im IT-Servicemanagement: Ansätze für flexible Stabilität, in:
HMD, 49. Jg., Heft 288, S. 87-93, 2012
• [Meyer & Wauch 2012/2] Meyer, S. u.
Wauch, F.: Agilität als Wegbereiter für
lebende Prozesse, in: IT-Projektmanagement 2012+ im Spagat zwischen Industrialisierung und Agilität? Beiträge zur
Konferenz >>interPM<< Glashütten 2012,
hrsg. v. Engstler, M. et al . dpunkt.verlag,
Heidelberg , 2012
• [Scheer 2006] Scheer, A.-W. et al.: Agilität
durch ARIS Geschäftsprozessmanagement: Jahrbuch Business Process Excellence 2006/2007, Springer Verlag Berlin
Heidelberg, 2006
Operationalisierbare
Prozesse
Ad-hoc und zyklische Validierung und
Aktualisierung der Prozesse
2
Abbildung
eines kontinuierlichen
Prozessmanagements mit agilen Methoden
26.02.2013 3: Aufbau
Cassini Consulting
– Grafiken zu Artikel für ITSM-Magazin
itSM Heft 23 - März 2013
Wie viel Agilität verträgt ITSM?
Franziska Wauch verfügt über
langjährige branchenübergreifende
Berufserfahrung in den Bereichen
Geschäftsprozessmanagement,
Organisation und Projektmanagement und arbeitet mit diesen
Schwerpunkten bei Cassini Consulting. Für verschiedene Publikationen hat sie sich bereits mit der
Notwendigkeit von Veränderungen
im Management von Unternehmen
beschäftigt (vgl. bspw.
Wikimanagement, Komus/Wauch,
Oldenburg Verlag, 2008).
Franziska Wauch
Cassini Consulting Nord GmbH
Oberwallstr. 24
10117 Berlin
[email protected]
www.cassini.de
Q-Perior
Sascha Meyer verhilft IT-Organisationen zu mehr Flexibilität und
höherer Geschwindigkeit bei der
Markteinführung von Produkten und
Dienstleistungen. Er setzt dabei
seit über 10 Jahren Lean Management und agile Vorgehen wie Scrum
und Kanban ein. Seine Tätigkeitsschwerpunkte als Senior Consultant sind hierbei Projektleitung,
Organisations- und Prozessberatung sowie Interimsmanagement.
Sascha Meyer
Cassini Consulting Nord GmbH
Johannisbollwerk 16
20459 Hamburg
[email protected]
www.cassini.de
17
Next Generation IT-Automatisierung
Next Generation IT-Automatisierung
Hans-Christian Boos
Die Automatisierung des IT-Betriebs ist zurzeit in aller Munde.
Die neueste Generation von Automatisierungslösungen arbeitet
wissensbasiert und erfordert somit nicht länger Standardisierung.
Neben einer Erläuterung der Funktionsweise und Stärken wissensbasierter Automatisierung wird dieser Ansatz auf den Ebenen
„Technologie“, „Arbeitsweise und Prozesse“ sowie „geschäftliche
Risiken“ diskutiert. Die technologische Validität des dargestellten
Ansatzes wird anhand von Erfahrungen mit dem arago AutoPilot
für den IT-Betrieb illustriert [Boos 2011].
1.Automatisierung 2.0 - Definierbare
Aufgaben durch Maschinen erledigen lassen!
In der Industrie sind Standardisierung, Konsolidierung und Taylorismus seit langem ein Erfolgsmodell zur Effizienzsteigerung. Auch in
den IT-Betrieb hat diese Methode mittlerweile Einzug in Form von
skriptbasierten Automatisierungslösungen gehalten, die ähnlich wie
ein Fließband funktionieren und auf Skaleneffekte abzielen. Jedoch
sind solchen Tools schnell Grenzen gesetzt. Die standardisierten
IT-Plattformen, die diese Lösungen voraussetzen, stellen stets eine
Vergangenheitsbetrachtung dar und sind zu schwerfällig, um auf die
schnellen Innovationszyklen der IT reagieren zu können. Zudem ist
diese Art der Automatisierung nur auf gut 10 bis 20 Prozent des ITStacks gut anwendbar, wie z.B. die Administration des Betriebssystems oder von Standard-Applikationen.
Wissensbasierte Automationsverfahren wie der arago AutoPilot
punkten hier mit der Fähigkeit, von IT-Experten zu lernen, das vorhandene Wissen flexibel anzuwenden und die Erkenntnis aus dem
Gelernten bei zukünftigen Lösungen zu berücksichtigen. Die Maschine übernimmt autonom die ihr übertragenen Aufgaben und
greift zu deren Erledigung auf einen Wissenspool zurück, also eine
Wissenssammlung über den IT-Betrieb des Unternehmens, die von
verschiedenen Experten kontinuierlich zusammengetragen und erweitert wird. So ist die Lösung in der Lage, genau wie ein menschlicher Kollege, die gesamte IT-Umgebung zu administrieren – vom
Betriebssystem bis hin zu jeder denkbaren Individualapplikation.
werden kann und wie gut dieses Wissen dann genutzt werden kann.
Man erhält also eine Vorhersage der Adaption neuer Verhältnisse
und kann die IT damit bei der Veränderung des Geschäftsumfeldes
schneller – durch bloßen Wissenstransfer – umstellen und zudem die
Umstellungsgeschwindigkeit und Umstellungsqualität vorhersagen.
Durch die Zentralisierung von Wissen, das bisher entweder in den
Köpfen einzelner Mitarbeiter oder im Mitarbeiterstab eines Providers
eingesperrt war, in einem Wissenspool, der direkt dem Unternehmen
gehört und durch die sofortige Anwendbarkeit des dort hinterlegten
Wissens, verringert sich darüber hinaus die Abhängigkeit von einzelnen Personen oder Providern enorm.
2.Funktioniert eine autonome und von
Experten lernende Automatisierungslösung in der Praxis?
Die Leistungsfähigkeit einer derartigen Software ist für viele Menschen, die jeden Tag mit IT arbeiten, nur schwer nachvollziehbar.
Führungskräfte, die Verantwortung für Qualität und Sicherheit von
IT-Umgebungen tragen, finden die Vorstellung verlockend, dass
eine Maschine die Aufgaben des Tagesgeschäftes wirklich selbstständig übernimmt, machen sich aber Sorgen, wie man diese scheinbar
künstliche Intelligenz kontrollieren und im Zaum halten kann. „Was
passiert, wenn diese Maschine nicht funktioniert und ich viel Geld
investiert habe?“ oder „Was passiert, wenn diese Maschine eine falsche Entscheidung trifft?“
Prozessverantwortliche fragen sich eher „Wie können die Experten
mit einer solchen Maschine zusammenarbeiten?“ oder „Wie kann
man die Arbeit einer solchen Maschine überwachen, kontrollieren
und steuern?“
Technischen Experten hingegen stellen sich die grundlegende Frage
„Funktioniert so etwas überhaupt?“ oder „Was wird meine Aufgabe
sein und wie fügt sich eine Automatisierungslösung ins tägliche Arbeiten ein?“
Im strategischen Bereich punktet eine
wissensbasierte Automatisierung mit ihrer geschäftlichen Flexibilität. Bei einem
System wie dem AutoPilot wird die Fähigkeit gemessen, wie schnell Wissen auf
bisher nicht bekannte Situationen erfasst
4.000
40%
3.000
30%
2.000
20%
1.000
10%
0
Aug Sep
10
10
Okt Nov Dez
10
10
10
Jan
11
Feb Mrz
11
11
Apr
11
Mai
11
Jun
11
Jul
11
Automatisierungsgrad
Durch die Reduktion manueller Aufgaben lassen sich im laufenden Kurz und knapp gesagt, stellt sich bei einer solchen Technologie für jeTagesgeschäft diverse operative Nutzen erzielen: So werden weniger den die „Vertrauensfrage“. Abhängig von der Aufgabe in der jeweiligen
Mitarbeiter für den IT-Betrieb benötigt, können sich verstärkt kreati- Organisation sind das unterschiedliche Ausprägungen derselben Fraveren Aufgaben widmen und somit ihre Innovationskraft vollständig ge, nämlich „Kann ich so einer Automatisierungslösung vertrauen?“
Arbeitsverteilung Systembetrieb arago
dem Unternehmen zu Gute kommen las100%
10.000
sen. Ein weiterer positiver Effekt: Durch
90%
9.000
die Vereinigung der Expertise verschie80%
8.000
dener Fachkräfte in einer Softwarelösung
verringern sich zudem die Durchlaufzeit
70%
7.000
und der Overhead bei der Abarbeitung
60%
6.000
von Aufgaben, was die Kosten enorm
Manuell
50%
5.000
Engine
senkt.
Anzahl Vorfälle
18
Automatisierungsgrad
0%
Abbildung 1: Automatisierungsgrad in einer produktiven IT-Umgebung
itSM Heft 23 - März 2013
Next Generation IT-Automatisierung
2.1Technologie
Die Funktionsweise autonomer und wissensbasierter Automatisierungslösungen als solche ist schnell erklärt. Es handelt sich um ein
Stück Software, das ihm übertragene Aufgaben mit dem ihm zur Verfügung stehenden Erfahrungswissen zu lösen versucht. Der Lösungsansatz entspricht dabei dem Lösungsansatz eines IT-Experten mit
genau dem gleichen Erfahrungswissen – vielleicht ist die Automatisierungssoftware in der Dokumentation etwas genauer oder weniger
emotional, aber die Aktionen sind genau die gleichen, wie die eines
hypothetischen Administrators - keine besseren.
So einfach das Ergebnis der Automatisierungssoftware zu erläutern
ist, umso komplexer ist die notwendige Technik im Inneren dieser
Software. Detailinformationen, wie die Algorithmen funktionieren,
die eine solche Software treiben, werden aus Gründen des Erfindungsschutzes in der Regel nicht offen gelegt. Von daher lässt sich die
Funktionsweise nur anhand von Ergebnissen der Automatisierungslösung einschätzen.
Eine Möglichkeit zur Einschätzung der technischen Leistungsfähigkeit sind Track Records, in denen dokumentiert ist, was die Software
in produktiven Umgebungen tatsächlich leistet. Abbildung 1 zeigt,
wie durch den Einsatz des arago AutoPilot im IT-Betrieb der arago
AG über 90 Prozent der Fehler und Störungen automatisiert behoben
werden und unterstreicht damit auch die Lernfähigkeit der Automatisierungslösung.
Ein weiterer Funktionsnachweis ist durch eine externe Zertifizierung
beispielsweise nach ISO 25051 möglich, bei der unabhängige Experten
bestätigen, dass eine Software einen definierten Funktionsumfang erfüllt.
Für Fachleute, die sich mit entsprechenden Experten- bzw. Entscheidungssystemen auseinandersetzen, ergibt sich eine zentrale Frage aus
der erforderlichen Rechenleistung zur Abarbeitung der Entscheidungsalgorithmen. In der Theorie entsteht ein fast unendlich großer
Entscheidungsbaum, wenn man das Universum der möglichen Aufgaben nicht sehr klar eingrenzt. Da sich der IT-Betrieb beispielsweise
aufgrund der dynamischen Anforderungen der Fachbereiche täglich
ändert, ist eine Einschränkung des Entscheidungsbaumes nicht zielführend. Eine Lösungsmöglichkeit, um mit der Komplexität umzugehen, besteht darin, auch sehr große Entscheidungsbäume in kleine
Berechnungspakete zu teilen und einen Großteil dieser Pakete von
der tatsächlichen Berechnung auszuschließen. Somit kann die benötigte Rechenkapazität stark beschränkt werden. Moderne Systeme
wählen dazu einen Graphen-Ansatz und erreichen damit neben der
guten Performance der Berechnung und einem sehr hohen Durchsatz gleichzeitig eine Parallelisierung der Bearbeitung und Skalierbarkeit des Systems.
Moderne Automatisierungslösungen haben hierzu eine Softwarearchitektur implementiert, die den algorithmischen Kern von
den Schnittstellen zu anderen Systemen trennt und diese Schnittstellen an offenen Standards orientiert. Damit findet beispielsweise die
Kommunikation des Systems oder die Ablage von Daten in XML mit
definierten Schemata statt. Zusätzlich werden fertige Schnittstellen zu
gängigen Ticket-, Monitoring- oder anderen ITSM-Systemen angeboten. In einer derartigen Architektur legt sich die Automatisierungslösung sozusagen wie eine Schale um die vorhandene Tool-Welt
und unter die vorhandenen Arbeitsprozesse. Beides bleibt – wenn
nicht anders gewünscht – unberührt.
2.2 Arbeitsweise und Prozesse
Zudem gilt es, mit der Fragestellung umzugehen, welche Veränderungen in der Arbeitswelt – sowohl aus Sicht der einzelnen Person,
als auch aus Sicht der Organisation – entstehen. Von existenziellen
Fragen („Was mache ich, wenn die Maschine meine Arbeit macht?“)
bis hin zur unternehmensinternen Steuerung („Wie kann ich ohne
Änderungen an unseren Compliance-Prozessen ein solches Werkzeug überhaupt nutzen?“) oder Fragen der Sicherheit („Eine solche
Maschine müsste sich den gleichen Regularien unterwerfen wie unsere IT-Experten, das geht doch gar nicht!“) tauchen viele Argumente
auf, warum Automatisierung sich scheinbar nicht in den Arbeitsalltag
integrieren lässt.
Durch die Einführung von Automatisierung sind in Unternehmen
schon immer Stellen verloren gegangen oder haben sich verändert.
Aber nur ein Unternehmen, das ohnehin bereits finanzielle Probleme
hat, wird es sich erlauben, gute Mitarbeiter gehen zu lassen. Gerade
im IT-Markt sind gute Mitarbeiter schwer zu finden und die Einarbeitungszeiten für neue Mitarbeiter sind hoch. Deswegen wird kein
Manager auf die Idee kommen, einen Mitarbeiter, der einen Beitrag
zum Unternehmen leistet, leichtfertig gehen zu lassen. Werden durch
Automatisierung dennoch Arbeitsplätze abgebaut, so liegt das nicht
am Fakt der Automatisierung, sondern daran, dass das Unternehmen
diese Kostenersparnis ohnehin betreiben musste – sprich diese Stellen wären auch ohne Automatisierung verloren gegangen.
Aus Sicht des Unternehmens gibt es ebenfalls Bedenken. Ein Unternehmen muss – aus Eigenschutz oder wegen gesetzlicher Vorgaben
– für Sicherheit sorgen. Gerade in der IT hat das einen ganzen Kata-
Eine weitere Problematik auf der technischen Ebene besteht darin,
inwieweit sich eine derartige Automatisierungslösung in bestehende
IT-Betriebsumgebungen einbinden lässt, ohne beispielsweise auf jeder zu betreibenden Maschine zusätzliche Software installieren oder
vorhandene Software anpassen zu müssen. Diese Problematik ist verbunden mit der Frage nach dem Schutz bestehender Investitionen.
Abbildung 2: Architektur einer modernen Automatisierungslösung
19
Next Generation IT-Automatisierung
log von Vorschriften zur Folge, die in den Arbeitsprozessen einzelner Mitarbeiter wieder auftauchen. Es stellt sich die Frage, ob eine
Automatisierungslösung außerhalb dieser Sicherheitsvorschriften
und Prozesse steht und als eine Art Über-Administrator auf einmal
„alles darf “ – natürlich mit den entsprechenden Risiken. Nun, jeder
Administrator würde sich diese Position wünschen und kein Administrator – selbst in einem sehr kleinen Unternehmen – wird diese
Position jemals erlangen. Das Gleiche gilt auch für eine Automatisierungslösung. Sie muss sich den Prozessen und geltenden Vorschriften unterwerfen. Diese Vorschriften werden – wie das technische
Wissen selbst – im Wissenspool der Maschine abgelegt. Die Automatisierungslösung wird sich an diese Vorschriften halten, Freigaben
anfordern oder besondere technische Verfahren einsetzen, um das
Recht zu erhalten, bestimmte Aktionen durchzuführen (z.B. strong
authentication). Beim Thema Compliance haben Automatisierungslösungen sogar einen einfacheren Stand als ein menschlicher Experte. Bei allen Compliance-Richtlinien geht es in erster Linie um die
Nachvollziehbarkeit und das Einhalten gewisser Regeln. Ein Mensch,
der unter Stress steht, wird sich nicht in allen Situationen an alle Dokumentationsregeln halten oder will ggf. auch nicht alle Dinge, die
getan wurden, dokumentieren, um sich nicht angreifbar zu machen.
Die Maschine ist hier vollkommen emotionslos. Sie dokumentiert
zuverlässig mit, was sie wann und vor allem auch warum getan hat.
Dabei berücksichtigt sie alles Wissen, das man ihr über interne Regelwerke und Verhaltensweisen beigebracht hat.
In diesem Kontext stellt sich natürlich auch die Frage, ob eine Automatisierungslösung Fehler machen kann, wie sie damit umgeht
und wie diese vermieden werden können. Wie bereits beschrieben,
ist es das Ziel der Automatisierungslösung, eine Maschine so arbeiten zu lassen wie einen IT-Administrator. Diese machen bei der
Durchführung von Changes oder beim Beheben von Incidents oder
anderen operativen Aufgaben ab und an Dinge, die überflüssig oder
im schlimmsten Falle falsch sind. Die Automatisierungslösung agiert
genau wie ein Systemadministrator. Das bedeutet aber auch, dass sie
– wie ein menschlicher IT-Experte – einen gemachten Fehler erkennt
und sofort beginnt, mit dem zur Verfügung stehenden Wissen diesen
Fehler wieder zu beheben. Gravierende Fehler treten ohnehin selten
100%
auf. Öfter ist es der Fall, dass Tätigkeiten ohne Einfluss auf die eigentlich zu erledigende Aufgabe ausgeführt werden. Ähnlich wie ein
Administrator arbeitet, sucht sich die Automatisierungslösung einen
möglichen Weg durch das zur Verfügung stehende Erfahrungswissen
und kann dabei Dinge ausprobieren, die nicht zur direkten Lösung
einer Aufgabe beisteuern. Wie bei den menschlichen Experten ist das
aber nicht weiter schlimm und im Gegensatz zu den menschlichen
Kollegen kann man die Dokumentation der Tätigkeiten auf derartige
Umwege hin analysieren und sie leicht aus dem Wissenspool durch
das Hinzufügen von weiterem Wissen, das das Vorgehen genauer
spezifiziert, für die Zukunft ausschließen.
Im Zusammenhang mit der Zuverlässigkeit einer Automatisierungslösung sprechen praktische Erfahrungswerte eine deutliche Sprache.
So betreibt die arago AG bereits seit dem Jahr 1996 Systeme auf Basis
der AutoPilot-Technologie. Im Jahr 2010 wurde eine Umgebung mit
insgesamt 1.429 Services betrieben. In dieser Umgebung sind im gesamten Jahr 2010 insgesamt 106.859 Tickets von dem Systembetrieb
bearbeitet worden. Unter Tickets werden dabei Incidents, Problems,
Changes, Capacity Requests und Service Requests verstanden. Von
diesen 106.859 Tickets hat der AutoPilot 93% voll automatisch bearbeitet. Lediglich 7% aller Tickets mussten von Administratoren von
Hand bearbeitet werden. Da hauptsächlich individuelle Fachanwendungen als Subdienstleister von IT-Providern betrieben werden, handelt es sich bei diesen erledigten Aufgaben um eine bunte Mischung
aus technischen und fachlichen Herausforderungen, die mit gängigen
– auf Standardisierung basierenden – Automatisierungswerkzeugen
gar nicht angegangen werden können.
2.3 Geschäftliche Risiken
Durch den Einsatz von Maschinen haben sich in der Vergangenheit
große Vorteile für die Unternehmen ergeben. Allerdings birgt der
Einsatz von Maschinen auch immer ein gewisses Risiko. Durch den
normalerweise hohen Investitionsbedarf in Maschinen ist das größte
Risiko die Funktionalität der Maschine an sich. Denn funktioniert
diese nicht wie erwartet, können sich getroffene Investitionen nicht
rechnen und sind als Verlust abzuschreiben. Das zweite geschäftliche
Risiko tritt dann ein, wenn eine Maschine einen Fehler macht und
Sinkende Autopilotkosten bei interner Effizienzsteigerung
dadurch schlechte Qualität produziert
wird oder Mehraufwand entsteht.
18%
90%
24%
36%
80%
55%
70%
Arbeitskosten
20
Einsparung
60%
Kosten AutoPilot
Kosten Arbeitsumgebung
50%
Kosten Arbeit
40%
Automationsgrad
Andere Effizienzgewinne
30%
20%
10%
0%
Jahr 0
Jahr 1
Jahr
2
Jahr 3
Jahr 4
Abbildung 3: Effizienzgewinn durch IT-Automatisierung (Beispiel arago AG)
Ein Ansatz zur Schaffung von Vertrauen in die Investition in eine Automatisierungslösung auf dieser Ebene ist
die Implementierung eines geeigneten
Geschäftsmodells. Bei der Lösung der
arago AG werden den Kunden beispielsweise keine Vorab-Investitionen in
Form von Lizenzen abverlangt. Das Geschäftsmodell sieht vor, dass nur dann
bezahlt werden muss, wenn die Automatisierungslösung tatsächlich die ihr
übertragenen Aufgaben erfüllt („on demand“ oder „pay per use“ Preismodell).
Im Automatisierungsumfeld kann ein
solches Preismodell noch dadurch er-
1|
itSM Heft 23 - März 2013
Next Generation IT-Automatisierung
gänzt werden, dass sich die Bezahlung an den eingesparten Kosten
der bisher manuell durchgeführten Aufgaben orientiert. Diese Kosteneinsparung kann beispielsweise mit zur Branche des Kunden passenden Benchmarks für IT-Betriebskosten eingeschätzt werden.
an. Die Anbieter hinterlegen diese Technologie oft auch mit einem
vollkommen neuen Geschäftsmodell. Diese Neuerungen haben für
Unternehmen einen großen wirtschaftlichen Mehrwert und bieten
ihnen gleichzeitig die Möglichkeit, ihr eigenes Innovationspotenzial
enorm zu steigern. Wer effektiv und flexibel automatisieren möchte,
setzt daher auf eine wissensbasierte Lösung. Diese Art der Automatisierung ist zukunftsorientiert und zahlt sich für Unternehmen aus,
indem sie sie auf eine neue Stufe der Effektivität hebt – sowohl im
strategischen als auch im operativen Bereich.
Zusätzlich kann die Nutzungsvergütung durch eine eingebaute Incentivierung ergänzt werden: Ein Kunde kann z.B. jährlich die Kennzahlen für Betriebskosten oder veränderte Benchmarks vorlegen.
Dementsprechend passt sich der Preis für automatisch erledigte Aufgaben diesen neuen Kennzahlen an. Praktisch bedeutet das, dass ein
Kunde, der die durch Automatisierung freigewordene Zeit tatsächlich
für Verbesserungen in seiner IT nutzt, diese Verbesserungen auch auf
alle Aufgaben überträgt, die bereits automatisiert sind – indem der
Preis für diese Aufgaben fällt.
Literatur
[Boos 2011]: Hans-Christian Boos: Automatisierung ist Vertrauenssache – arago Autopilot – Maßnahmen zum Vertrauensaufbau.
Whitepaper arago AG 2011, http://www.arago.de/wp-content/uploads/2011/06/Whitepaper_Automatisierung-ist-Vertrauenssache_
final1.pdf, abgerufen am 20.02.2012.
Bei nutzungsorientierten Preismodellen und speziell im Automatisierungsumfeld stellt sich sehr häufig die Frage, ob ein Hersteller, der nach
Nutzung bezahlt wird, das System so auslegt, dass die Nutzung automatisch und für den Kunden nur schwer nachvollziehbar erhöht wird.
Hans-Christian Boos ist Vorstand
der 1995 von ihm gegründeten arago
AG. Er studierte Informatik an der
Eidgenössischen Technischen Hochschule (ETH) in Zürich sowie an der
Technischen Hochschule Darmstadt.
Seinen beruflichen Werdegang begann er im Finanzbereich der Dresdner Bank. Heute ist er neben seiner
Funktion bei arago als Aufsichtsrat
und Berater bei verschiedenen Unternehmen und Organisationen
tätig. So unterstützt er unter anderem als Referer bei HackFwd
die europäische Gründerszene mit Rat und Tat. Hans-Christian
Boos ist Autor zahlreicher Fachpublikationen zu den Themen ITAutomatisierung, Information Modelling und IT-Strategien.
Eine Lösung hierzu stellt die Offenlegung des genutzten WissensPools dar. Dadurch, dass der Wissens-Pool nicht Eigentum des
Systemlieferanten ist und die Nutzer ermutigt werden, das Wissen
untereinander zu teilen, kann hier die erforderliche Transparenz
gewährleistet werden. Zusätzliche Transparenz kann durch die Bereitstellung statistischer Werkzeuge zur Analyse des Wissens sowie
durch den Nachweis entsprechender QS-Prozesse geschaffen werden.
Die Kontrolle und Transparenz im Betrieb der Lösung kann zusätzlich
durch entsprechende Visualisierungs-Tools unterstützt werden, die zu
jedem Zeitpunkt eine Übersicht über die anstehenden Arbeiten im Gesamtsystem (Was wird aktuell abgearbeitet? Wie verteilen sich die Arbeiten auf das System? Wo treten Engpässe auf?) liefern bis hin zu einer
grafischen Darstellung des Bearbeitungsstatus einer einzelnen Aufgabe.
Hans-Christian Boos
arago AG
Eschersheimer Landstraße 526 -532
60433 Frankfurt am Main
[email protected]
www.arago.de
Fazit
Wissensbasierte Automatisierungslösungen wie der arago AutoPilot
bieten nicht nur eine revolutionäre Technologie zur kontinuierlichen
Optimierung und Automatisierung aller Aufgaben des IT-Betriebs
FTEs Experten
120
112
1429 Services
106.859 Aufgaben p.a.
100
78
80
ohne Automation
30% Automation
60
50% Automation
45
80% Automation
40
arago (93% Automation)
22
20
8
0
ohne Automation
30% Automation
50% Automation
Abbildung 4: Einsparung Personalkapazitäten (FTEs Experten)
80% Automation
arago (93%
Automation)
21
22
Integration von Providerprozessen
Integration von Providerprozessen bei selektivem Sourcing
Jörg Bujotzek
Unternehmen setzen beim IT-Outsourcing zunehmend nicht
mehr nur auf einen, sondern auf mehrere externe Provider, an die
jeweils ein in sich geschlossenes Aufgabengebiet übergeben wird.
Bei diesem sogenannten selektiven Sourcing stellt sich im Rahmen
der Integration eines Providers die Aufgabe, die Providerprozesse mit Schnittstellen zu internen IT-Einheiten oder anderen Providern an diesen so zu gestalten, dass alle beteiligten Einheiten
möglichst effektiv und reibungslos zusammenarbeiten. Da die externen Provider und die interne IT-Abteilung nicht alle mit den
gleichen Workflow-unterstützenden Tools arbeiten, kann diese
Aufgabe eine Herausforderung darstellen. Im Folgenden sollen
Ansätze aufgezeigt werden, wie die Integration der Providerprozesse bei unterschiedlichen Rahmenbedingungen angegangen
werden kann.
Tools einsetzt wie die von dieser beauftragten Provider, ist gemeinsam mit jedem Provider die Gestaltung der einheitsübergreifenden
Schnittstellen besonders sorgfältig vorzunehmen, während die Gestaltung der providerinternen Prozessteile möglichst dem Provider
zu überlassen ist: hierdurch hat er die Chance, seine etablierten Standardprozesse zu nutzen und dadurch höchstmögliche Qualität und
Effizienz zu realisieren.
1.Ausgangssituation
In Option 1 besteht die Möglichkeit, alle beteiligten internen und
externen Dienstleister in einer Tool-Landschaft zu integrieren. Diese
Option bietet beste Voraussetzungen für eine weitgehend nahtlose
Integration und hohe Automatisierung der Prozesse, auch über einheitsübergreifende Schnittstellen hinweg.
Mit selektivem Sourcing wird im IT-Bereich in der Regel angestrebt,
die eigene Fertigungstiefe im IT-Bereich zu verringern und von Skaleneffekten und der stets aktuellen Expertise von spezialisierten Providern profitieren zu können, ohne in zu große Abhängigkeit dieser
Provider zu geraten.
Um mit dieser Strategie im IT-Betrieb erfolgreich zu sein, ist eine wesentliche Voraussetzung, neben einem effizient gestalteten Providermanagement, insbesondere eine sorgfältige Gestaltung der Betriebsprozesse [vgl. IAOP 2010, S. 166-167]:
Vor Übergabe des Betriebs einer IT-Leistung an einen Provider sind
gemeinsam mit diesem die Prozesse mit Schnittstellen zu internen
Organisationseinheiten bzw. anderen Providern zu definieren und
zu implementieren. Die Effizienz der Prozessimplementierung hängt
in der Regel von der technischen Unterstützung der Prozesse durch
Tools ab. Da die interne IT-Abteilung in der Regel nicht die gleichen
Abbildung 1
Die Möglichkeiten der Gestaltung der Prozessschnittstellen sind abhängig von den Rahmenbedingungen des Einzelfalls.
2.Varianten der Schnittstellengestaltung
Es lassen sich grundsätzlich folgende Optionen für die Gestaltung der
Prozessschnittstellen unterscheiden:
In der Ausgangslage der zweiten Option setzen der externe und der
interne Dienstleister unterschiedliche Tools ein, aber beide Seiten
sind gewillt, Prozessschnittstellen durch die Schaffung technischer
Schnittstellen zwischen den verschiedenen Tools zu unterstützen.
Bei der dritten, im Folgenden „organisatorische Prozessschnittstelle“
genannten Option bestehen Hinderungsgründe für eine technische
Schnittstelle zwischen den prozessunterstützenden Tools. Grund kann
zum Beispiel eine zu überbrückende Betriebsphase bis zur Beendigung
der Schnittstellenimplementierung, aber auch eine fehlende Klärung
der Schnittstellenhandhabung vor Abschluss des Outsourcing-Vertrags
sein. In letzterem Fall fehlen dann Zeit und Geld für die Realisierung
der Tool-Schnittstellen. In derartigen Fällen sind gemeinsam organisatorische Maßnahmen zu planen
und zu implementieren, die eine
angemessene Vorgangsbearbeitung
auch ohne Toolintegration an den
einheitsübergreifenden Schnittstellen ermöglichen.
Integration
von Providerprozessen
bei selektivem
Sourcing, amendos gmbh
Abbildung 1: Gestaltung der
Schnittstellen
zu externen
Providern
25-02-2013
Die erste Option bietet die besten
Möglichkeiten, einen reibungslosen Prozessablauf zu gestalten, die
Voraussetzungen für diese Option
sind allerdings gerade im Rahmen des selektiven Sourcings, d.h.
bei Einsatz von mindestens zwei
Providern eigentlich nie gegeben.
Die zweite Option ist möglichst
schon im Rahmen der Phase der
Providerauswahl für die extern zu
erbringende Leistung, d.h. im Lastenheft zu berücksichtigen. Am
Markt angebotene Bridge-Systeme
itSM Heft 23 - März 2013
Integration von Providerprozessen
zur Kopplung verschiedener Workflowsysteme vereinfachen zum Teil
die Implementierung von Schnittstellen zwischen verschiedenen Tools,
trotzdem ist der Aufwand für die Implementierung nicht zu unterschätzen.
Die dritte Option birgt aufgrund des geringsten Automatisierungsgrades das höchste Risikopotential bezüglich mangelnder Prozesseffizienz. Trotzdem lässt sie sich bei einigen Ausgangssituationen – zumindest temporär - nicht vermeiden.
3.Gestaltung der organisatorischen
Prozessschnittstelle
Sollte die Ausgangssituation die Realisierung einer Prozessschnittstelle ohne direkte technische Schnittstelle zwischen den Tools erzwingen, so ist für die Gestaltung des Prozesses ein angemessenes organisatorisches Konzept gemeinsam mit dem Provider zu erarbeiten,
mit ihm abzustimmen und zu implementieren.
Auch wenn keine direkten Schnittstellen zwischen den Systemen von
internem und externem Provider möglich sind, sollte auf Systemunterstützung und Teilautomatisierung an den Schnittstellen nicht verzichtet werden.
Im Folgenden soll an zwei Beispielen aufgezeigt werden, wie ein solches Schnittstellenkonzept aussehen kann.
3.1 Prozessbeispiel „Incident Management“
Der häufigste Fall des Auftretens einer Prozessschnittstelle beim
selektiven Sourcing ist das Incident Management: Hat die interne IT-Abteilung einen Service Desk als Single Point of Contact für
Abbildung 2
23
Endanwender eingerichtet und werden dann Second und Third Level
Support für eine Applikation oder ein IT-Infrastrukturgewerk (zum
Beispiel das Datennetzwerk) an einen externen Provider gegeben, so
sind Incidents in dem entsprechenden Themenfeld, die der Service
Desk nicht direkt lösen kann, an den externen Second Level Support
weiterzuleiten. Dies ist in Abbildung 2 dargestellt, wobei die vom Provider zu erbringenden Prozessschritte hier rot gekennzeichnet sind.
Das gemeinsam mit dem Provider zu entwickelnde Prozesskonzept
sollte insbesondere folgende Aspekte zu adressieren:
• Die Prozessfestlegung (inklusive Schnittstellen),
• Rollen und Zuständigkeiten,
• Festlegungen bezüglich der auszutauschenden Tickets, die in
beiden Ticketsystemen entsprechend abzubilden sind (z.B. Prioritäten, Kategorien, Status),
• ein Eskalationskonzept (auslösende Fälle, Rollen, Ablauf einer
Eskalation usw.),
• ein Schulungskonzept für die am Prozess Beteiligten.
Die Prozessschnittstelle zur Übergabe des Tickets vom internen zum
externen Provider erfolgt mangels direkter Toolschnittstelle im Beispiel via E-Mail. Um die Ticketübergabe in diesem Fall möglichst
einfach zu gestalten, sind für verschiedene Standardvorgangsfälle
möglichst E-Mail-Vorlagen einzusetzen: Dies ermöglicht eine einfache Lesbarkeit der Ticketdetails für alle Prozessbeteiligten und zudem bieten diese E-Mail-Vorlagen die Chance, Ticketübergabe-Mails
automatisch aus dem Ticketsystem generieren und in dieses wieder
einlesbar zu machen. Hierdurch werden manuelle Fehlerquellen an
der Schnittstelle je nach Implementierungsgestaltung verhindert beziehungsweise deutlich reduziert. Für das Incident Management sind
mindestens folgende E-Mail-Vorlagen festzulegen:
Abbildung 3
• Erstmalige Übergabe eines Tickets,
• Empfangsbestätigung für das Ticket (da bei E-Mail keine garantierten Service Levels für die Übertragung sichergestellt werden
können; durch das Bestätigungsmail entsteht ein Zeitstempel,
Absender
Empfänger
[email protected]
[email protected]
Betreffzeile
ccccccccccc (IT-interne Ticketnummer) Beispiel
192790223
Text der Email
Meldungsheader:
Internes Ticket
Priorität
Kategorie
Provider Ticket
Fehlermeldung beim Buchen von Beleg
192790223
3
Incident
Mitteilungstext
beliebig langer Mitteilungstext der ursprünglichen (neuerstellen) Meldung aus dem IT-internen
Ticket-System
Inhalte au
IT- interne
Anlagen
ursprüngliche Anlagen aus dem IT-internen Ticketsystem
Kontaktinformationen
interner Melder
Peter M, Abteilung
[email protected]
+49 40 123456
interner KeyUser Rolf B, Abteilung
rolfb@ IT-intern.com
+49 40 123456
Process Owner
Alfred C, Finanzen
alfredc@ IT-intern.com
+49 40 123456
Eskalation 1
Andrea R, SAP-Abt.
[email protected]
+49 40 123456
Eskalation 2
Matthias P, SAP-Abt.
matthiasp@ IT-intern.com
+49 40 123456
Integration von Providerprozessen bei selektivem Sourcing, amendos gmbh
Abbildung 2: Incident Management bei selektivem Sourcing
25-02-2013
Abbildung 3: E-Mail-Vorlage für die erstmalige Übergabe eines Tickets
Integration von Providerprozessen bei selektivem Sourcing, amendos gmbh
24
Integration von Providerprozessen
der für die Messung der Einhaltung von vereinbarten Service
Levels bezüglich der Ticket-Bearbeitung durch den Provider genutzt werden kann),
• Anforderung der Mitwirkung der internen IT-Abteilung,
• Abgabe einer Statusinformation bezüglich der Ticket-Bearbeitung,
• Meldung, dass die Bearbeitung des Tickets abgeschlossen ist.
In Abbildung 3 ist ein Beispiel für die Gestaltung einer E-Mailvorlage
für die erstmalige Ticketübergabe dargestellt. Um die Lesbarkeit für
die Beteiligten weiter zu erhöhen, sollten einzelne Informationsinhalte bei den weiteren E-Mail-Vorlagen möglichst gleich aussehen (zum
Beispiel der Aufbau von Betreffzeile und Meldungs-Header).
3.2 Prozessbeispiel „Change Management“
Auch im Falle des Change Managements sind Schnittstellen zwischen
internem und externem Provider nicht zu vermeiden. Im Folgenden soll
anhand eines Standard-Changes ein möglicher Lösungsansatz für die
Realisierung der Prozessschnittstelle zum Provider aufgezeigt werden.
Wieder wird mangels Möglichkeit der direkten Kopplung der Tools der
beiden Provider auf eine E-Mail-unterstützte Vorgangsübergabe aufgesetzt. In Abbildung 4 ist der grundsätzliche Prozess dargestellt.
Abbildung 4
Instanz
Aktivität
XLS-basierendes Formular
gemeinsam mit Key-User ausfüllen
User
Key-User
Genehmigungserteilung via
Unterschriften auf Formular
Key-User
Einscannen des gefüllten Formulars,
Ticket erstellen mit Formular als Anlage
Service Desk
Qualitätssicherung des Tickets und des
Formulars inkl. Unterschriften
Service Desk
Generieren der E-Mail an den Provider auf
Basis des Tickets, Statuswechsel „on-hold“
Einrichtung der Berechtigung und Direkt-Info
an User per Mail; Ticket-Status-Mails
Provider
Service Desk
Übernahme der Ticket-Status-Daten
in eigenes Ticket
Service Desk
Antragsablage im Archiv und
Ticket-Status-Wechsel „in Schließung“
Key-User
Qualitätssicherung und
Ticket-Status-Wechsel „geschlossen“
In diesem Beispiel wird die angeforderte SAP-Berechtigungsänderung in einer auszufüllenden Excel-basierenden Formatvorlage spezifiziert. Um es dem Nutzer möglichst einfach zu machen und mögliche Eingabefehlerquellen weitgehend zu minimieren, lassen sich in
eine derartige Vorlage Automatismen und Eingabehilfen einbauen:
So verhindern ein Schreibschutz für Bereiche außerhalb der vorgesehenen Eingabefelder sowie Auswahlfelder mit - auch kontextbezogenen - Dropdown-Listen unklare Eingaben, eine schriftliche Benutzeranleitung in der Vorlage erleichtert das Ausfüllen für den Nutzer.
Da die Prozessumsetzung mittels E-Mail und Excel-Vorlage trotz der
geschilderten Maßnahmen aufgrund der vielen manuell notwendigen Handgriffe noch immer ein hohes Fehlerpotential enthält, ist eine
derartige Lösung nur als kurzzeitige Zwischenlösung sinnvoll. Soll
eine Lösung für einen längeren Zeitraum geschaffen werden, sollten
weitere Automatisierungsmöglichkeiten genutzt werden: So ist zum
Beispiel eine Abbildung des SAP-Berechtigungsänderungsformulars
inklusive des Genehmigungsantrags im eigenen Workflowsystem
eine erheblich elegantere Prozesslösung. Im Anschluss an die interne Genehmigung im System kann dann mit automatischem Export
des Antrags im Rahmen der automatischen E-Mail-Generierung die
Übergabe des Vorgangs an den Provider ausgelöst werden.
4.Umgang mit Risiken organisatorischer Schnittstellen
Auch wenn organisatorische Prozessschnittstellen gemeinsam mit
dem Provider sauber ausgeplant und implementiert sowie alle am
Prozess Beteiligten ausreichend geschult wurden, bergen sie für den
Betrieb große Risiken: Dies sind neben der mangelnden Prozesseffizienz im Wesentlichen das hohe Fehlerpotential aufgrund der geringen
Automatisierung sowie die potentiell hohe Intransparenz bezüglich
des Status von über die Schnittstelle weitergereichten Vorgängen
[siehe auch OGC 2007, S. 63-64]. Ein von Beginn an etabliertes Risikomanagement, wie in Abbildung 5 dargestellt, kann die Risiken
abmildern. Trotzdem bleibt die Option der organisatorischen Prozessschnittstelle der letzte Ausweg, wenn keine technisch unterstützte
schnittstellenübergreifende Workflow-Lösung mehr möglich ist.
Abbildung 5
Abbildung 4: Beispielhafter Prozess „SAP-Berechtigungsänderung“
Risiko
Auswirkung / Schaden
Wertung
Schaden
Wertung
Wahrscheinlichkeit
Maßnahmen-Beispiele
Fehlerpotential durch
manuelle Aktionen
Einführung von Teilautomatismen (u.a.
automatische E-Mail-Generierung)
keine garantierte TicketÜbertragung via E-Mail
schriftliche Empfangsbestätigung der
Gegenseite
Unklarheit durch fehlende
Zeitstempel bei Übergabe
Zeitstempel in schriftlicher Bestätigung
der Gegenseite
Unklarheit durch mangelnde Statustransparenz
nach Vorgangsübergabe
Vereinbarung regelmäßiger schriftlicher
Statusmeldungen der Gegenseite
vermehrte SLAÜberschreitungen durch
„On-hold“ Tickets
Etablierung einer effizienten Eskalation;
konsequentes Überwachen und
Eskalieren
Mehraufwand / höhere
Kosten
Einführung von Teilautomatismen
(siehe oben)
Verschlechterung der
Qualitätskennzahlen im SD
Einführung von Teilautomatismen und
konsequente Eskalation
Abbildung 5: Risikomanagement
itSM Heft 23 - März 2013
Integration von Providerprozessen
5. Fazit
Die Schwachstellen organisatorischer Prozessschnittstellen zwischen
interner IT-Abteilung und Providern können bei sorgfältiger Planung und Implementierung deutlich abgemildert werden. Hierdurch
werden derartige Lösungen als Übergangslösungen durchaus betreibbar. Beseitigen lassen sich die Schwachstellen und daraus resultierende Ineffizienzen aber nicht vollständig. Sie können in einer längeren
Betriebsphase durchaus immer wieder deutliche Minderungen der
Servicequalität verursachen. Daher sollte im Vorfeld des IT-Outsourcings bei gegebener selektiver Sourcing-Strategie eine technische
Schnittstelle zwischen den Tools von interner IT und Provider(n) immer Teil einer Gesamtplanung sein. In den Verhandlungen mit dem
Provider ist die Handhabung der Realisierung von technischen Toolschnittstellen im Vertrag zu konkretisieren.
Literatur
• [ IAOP 2010] International Association of Outsourcing Professionals (IAOP): Outsourcing Professional Body of Knowledge, 1.
Edition, June 2010, Van Haren Publishing, Zaltbommel (NL)
• [OGC 2007] Office of Government Commerce (OGC): ITIL
Service Operation 2007 Edition, erschienen 2007 bei TSO.
25
Jörg Bujotzek ist Geschäftsführer des Beratungsunternehmens
amendos gmbh. Er ist seit mehr
als 15 Jahren als Berater im ITInfrastrukturbereich tätig und hat
in zahlreichen auch internationalen IT-Projekten für mittlere und
große Unternehmen unterschiedlichster Branchen mitgewirkt
bzw. die Leitung übernommen.
Hierdurch hat er umfangreiche
Erfahrungen in der Gestaltung von IT-Organisationen und
deren Prozessen sowie im IT-Outsourcing aufgebaut.
Jörg Bujotzek
amendos gmbh
Grüner Deich 15
20097 Hamburg
[email protected]
www.amendos.de
Zurücksetzen von Passwörtern
im SAP durch den Benutzer
Einfach
Kostengünstig
Sicher
mit dem
netpoint Password Generator
netpoint gmbh
Korschenbroicher Straße 112
41065 Mönchengladbach
Telefon +49 2161 49524-0
Telefax +49 2161 49524-10
eMail [email protected]
www.netpoint.de
Besuchen Sie uns auf dem itSMF Kongress in Kassel
am 3./4.12.2012 auf dem Stand B02
26
itSMF Performance News
Quo vadis IT-Governance?
IT-Risikomanagement und IT-Compliance sind zentrale Themen der IT-Governance. Viele Unternehmen versuchen, diesen gesetzlichen Anforderungen mit allen
Konsequenzen gerecht zu werden. Dabei
bleibt die wichtigste Frage der Umsetzung
meist unbeantwortet: „Wie stellen wir sicher, dass IT-Governance funktioniert?“
Der Betrieb der Informationstechnologie
ist für Unternehmen mit unüberschaubaren Risiken und Kosten verbunden. Neben
der fortschreitenden Technologie macht
die stete Zunahme an Regelwerken in Form
von Gesetzen, Verordnungen, Normen,
Standards, Verträgen und Richtlinien zu
beachtende Vorschriften unüberschaubar.
Potenzielle Regelverstöße sind die Folge.
Transaktionsorientierte Branchen wie Finanzindustrie oder Telekommunikation
setzen sich darum besonders intensiv mit
IT-Governance auseinander. Tatsächlich
gefordert sind jedoch alle Unternehmen.
Risiko Haftung und Kosten
Seit 1998 das Gesetz zur Kontrolle und
Transparenz im Unternehmensbereich
(KonTraG) in Kraft getreten ist, sind die
Anforderungen an ein rechtssicheres ITRisikomanagement erheblich gestiegen. Im
Schadensfall sind Vorstandsmitglieder und
Geschäftsführer heute gemäß Paragraf 93,
Abs. 2 des Aktiengesetzes beziehungsweise
gemäß Paragraf 43, Abs. 2 des GmbH-Gesetzes persönlich haftbar.
Da in vielen Unternehmen die IT-Kosten
einen hohen, intransparenten Block an Gemeinkosten bilden, deren Umlage in der
Regel mit groben Schlüsseln erfolgt, besteht
zudem die permanente Gefahr ausufernder IT-Kosten. Diese Situation ist sowohl
für die IT als Dienstleister als auch für
die Unternehmensbereiche als IT-Kunden
unbefriedigend. Denn in der Regel lassen
sich weder die IT-Kostentreiber auf der Geschäftsseite enttarnen noch ist der Nutzen
der IT-Leistungen für die Kunden ersichtlich. Hinzu kommt, dass der hohe Kostendruck und die hohe Intransparenz der IstKosten im IT-Betrieb die Preisbildung von
IT-Services sowie die Budgetierung und
Planung beeinträchtigt.
Die zwei Seiten der IT
Der Grund dafür liegt in den unterschiedlichen Sichtweisen auf den IT-Betrieb. Während es für die IT-Abteilung um die Technologie und deren Management geht, steht
für die IT-Kunden die geschäftsorientierte
Ausrichtung dieser Technologie im Fokus.
Diese Trennung gilt es für die erfolgreiche
Einführung und Einhaltung von IT-Governance zu überwinden.
Aus Sicht des geschäftsorientierten Managements bleiben damit folgende Fragen
offen: Was wird im IT-Betrieb tatsächlich
eingesetzt und welche Kosten und Risiken
sind damit verbunden? Welche IT-Komponenten gehören zu einem spezifischen
Service? In welcher Beziehung stehen Geschäftsprozesse, Services sowie Hard- und
Software? Und: Was konkret bedeuten Änderungen für die Geschäftsprozesse in Bezug auf Kosten und Risiko?
Auch das technische Management steckt
im Dilemma: Was bedeutet die IT-Strategie
für die technische Betriebsführung konkret? Welche technischen Komponenten
im IT-Betrieb werden vom geschäftsorientierten Management kritisch gesehen oder
positiv beurteilt?
Die Intransparenz hinsichtlich Kosten,
Leistungen und Risiken wirkt sich bis zur
geschäftsorientierten IT-Führung aus.
Anstatt bei Entscheidungen auf fundierte
Kennzahlen setzen zu können, werden diese aus dem Bauch getroffen. Angesichts der
technologischen Durchdringung von Unternehmen eine unhaltbare Situation, die es
zu meistern gilt.
Erfolgreiche Wege aus dem Dilemma
Dank Ansätzen und Technologien wie
SNMP, MOF, ITIL oder COBIT finden sich
im IT-Betrieb eine Vielzahl von Modellen.
Der Grund dafür liegt auf der Hand: Ohne
deren Einsatz ist es schwierig bis unmöglich, in komplexen und dynamischen Zusammenhängen Maßnahmen zu verstehen,
Ergebnisse zu verifizieren und Verhaltensweisen zu erkennen. Die resultierenden
Informationen bilden ein wesentliches Element der Kommunikation und Dokumentation im IT-Betrieb. Unternehmen können
damit Entscheidungen und Maßnahmen,
die im Zuge der Definition der IT-Strategie, des Designs, der Implementierung,
der Überführung in den Betrieb und der
Durchführung getroffen wurden, leichter
nachvollziehen.
sein. Historisch gewachsene IT-Strukturen,
verteilte Datenhaltung und Probleme der
Integration führen ebenso zu Unstimmigkeiten.
Hier ist das IT-Controlling als Informationsversorger gefordert, die Qualität der Daten sicherzustellen. Die Menge an zu verarbeitenden Informationen, die Unterschiedlichkeit in Bezug auf die Datenformate und
-quellen sowie die Änderungshäufigkeit
im IT-Betrieb erfordern die automatisierte
Auswertung und Bereitstellung.
Zukunft IT-Governance
Die bestmögliche Unterstützung von Geschäftsprozessen durch die IT-Organisation
lässt sich erreichen, indem IT-GovernanceLösungen mehrere Bedingungen erfüllen:
der Einsatz erprobter und standardisierter
Verfahren, die Wiederverwendung existierender Daten und Produkte, sowie die automatisierte Beschaffung und Aufbereitung
der Informationen. Die Integration von
technologischem und geschäftsorientiertem IT-Management harmonisiert Kontrollen, senkt Gesamtkosten und macht aus
Bauchentscheidungen Köpfchen.
Joachim Hörnle
Blue Elephant Systems GmbH
joachim.hoernle@
blue-elephant-systems.com
www.blue-elephant-systems.com
Die Basis für die Nachvollziehbarkeit bilden die Daten, die den Steuerungssystemen
zugrunde liegen. Aktuelle Kennzahlen lassen sich in Projekten definieren, in denen
Business- und IT-Fragen gleichermaßen
berücksichtigt werden. Unscharfe Kennzahlen weisen auf Mängel in der Datenbasis hin und können durch leere Feldeinträge, Dubletten oder Formatfehler bedingt
itSM Heft 23 - März 2013
itSMF Performance News
ITSM =
IT Stress Management?!
Vielleicht denken Sie jetzt „Nicht noch ein
Artikel über Stress!“ und da kann ich Sie gut
verstehen. Doch wir spüren es alle deutlich
- gerade im IT- und Service-Bereich: Wir
geraten immer mehr unter Druck, fühlen
uns schnell überfordert und gestresst. Mit
folgendem Text möchte ich Sie anregen, sich
mit der kompliziertesten Infrastruktur zu
beschäftigen, mit der Menschen konfrontiert
werden können: sich selbst.
Es ist Fakt: Stress ist auch, was man selbst
aus einer Situation macht. Was zunächst unglaublich vereinfachend klingt, ist nur der
Anfang einer Reise in unwegsames und zugleich ungemein spannendes Terrain. Wer
diese Reise wagt, kann am Ende mit anderen
Augen auf bisher stressende Situationen blicken und mit neuen Möglichkeiten versuchen, etwas zu ändern.
Stresserleben und -verarbeitung wird durch
verschiedene Faktoren bestimmt. Dabei spielen extrinsische Faktoren aus den Umwelten,
in denen man sich bewegt, wie z. B. Arbeitsplatz, Familie, Freunde usw. eine Rolle, wie
auch intrinsische Kräfte, z. B. eigene Ansprüche, Werte, Ziele usw. Der vorliegende Artikel
beschränkt sich auf den Bewertungsmechanismus und was Sie damit anfangen können.
Ihr Tagesablauf besteht aus einer Reihe aneinandergefügter Situationen. Jedes Mal, wenn
sich die Situation ändert, findet automatisch
eine Neubewertung durch Ihr Gehirn statt.
Es kennt dabei drei mögliche Ergebnisse: irrelevant, herausfordernd und bedrohlich.
Nur bei anspruchsvollen oder bedrohlichen
Situationen findet eine zweite Bewertung gemäß der verfügbaren Ressourcen statt. Die
Frage lautet dabei: Was ist die beste Strategie, um diese Situation zu meistern? Immer
dann, wenn Ihr internes Rating für die Bewältigungsfähigkeit der Situation zu wenig
„Likes“ auf seiner Facebook-Seite erhält,
bereiten Sie sich unbemerkt auf die letzten,
ältesten Alternativen eines jeden Menschen
vor: Kampf, Flucht oder Totstellen. Ein
bunter Hormoncocktail ergießt sich in Ihre
Blutbahn, der Sie physisch fit macht, um zu
überleben. Wie Sie sich vorstellen können,
nutzt Ihnen das im Büro oder beim Kunden
herzlich wenig. Alles das passiert in wenigen
Zehntelsekunden, und vor allem, an Ihrem
bewussten Denken vorbei. Und all das nur,
weil Sie, oder besser gesagt, Ihr Gehirn, auf
brainblog.me gepostet hat, dass es mit der
aktuellen Situation nicht zurechtkommt.
Haben Sie das verdient? Sie stemmen die
Beine in den Boden für einen Sprint-Start,
27
28
itSMF Performance News
Gut gerüstet für die
Zukunft: Hybrid-ITSM
erhöhen Ihren Puls und installieren einen
Tunnelblick Richtung Notausgang, und das
nur wegen eines Blogeintrags?
So geht’s nicht weiter. Was können Sie nun
dafür tun, dass sich das Ergebnis dieses Bewertungslaufs verändert?
Situationen umdeuten
Bestimmt sind Ihnen Situationen eingefallen, die für Sie unangenehm oder stressig
sind. Stellen Sie sich jetzt die Frage, was genau Sie daran in Unruhe versetzt. Hilfreich
kann es sein, diese Situationen einer vertrauten Person zu schildern. Gemeinsam fällt es
leichter, diese Situationen aus einer anderen
Perspektive zu betrachten. Schauen Sie hin,
was Ihnen in den Situationen schon gut gelingt und welche Entwicklungschancen für Sie
darin stecken. So können Sie leichter eine Bedrohung in eine Herausforderung umdeuten.
Erfahrungen neu bewerten
Nachdem man bedrohliche Aufgaben überstanden hat, ist man froh, dass es vorbei ist.
Jetzt können Sie beginnen, das Erlebte neu zu
bewerten und für die nächste, ähnliche Konstellation vorzubauen. Dabei helfen Ihnen
Fragen danach, ob es wirklich so schlimm
war, wie erwartet. Wenn ja, was genau? Wenn
nicht, was hat geholfen oder gut geklappt?
Wiederholen Sie diese Neubewertung nach
jeder stressigen Situation und Sie werden feststellen, dass sich Ihre Bewertung verändert.
Aus Unterschieden lernen
Sicher fallen Ihnen Kollegen ein, die in Situationen, die Sie in Wallung versetzen, gelassen bleiben. Haben Sie sich schon mal gefragt, wieso
das so sein könnte? Befragen Sie diese Personen
bei einer entspannten Tasse Kaffee, woher ihre
Gelassenheit rührt und lernen Sie aus dem Unterschied zu Ihrer eigenen Situation. Kollegen
können Ihnen auch helfen, eine andere Sichtweise auf die Situation zu bekommen.
Ressourcen aufbauen
Bei der Neubewertung der Situation decken
Sie vielleicht konkret mangelhafte Ressourcen auf. Bauen Sie hier gezielt Kompetenz
auf, um die Ressourcen-Bewertung positiv
zu beeinflussen und Vertrauen in die eigenen
Fähigkeiten zu stärken.
Perspektive wechseln
Stellen Sie sich die anstrengenden Situationen vor oder erzählen Sie sie einer Person Ihres Vertrauens davon, so als würden Sie von
einem Theaterstück erzählen. Lassen sie sich
beschreiben, wie die Situation auf den anderen wirkt. Wichtig ist dabei, dass Ihr „Beobachter“ sich mit Ratschlägen zurückhält und
viele Verständnisfragen stellt.
Fazit
Stress wird durch die Kombination verschiedener Faktoren zur Belastung. Milderung
erreichen Sie durch gezieltes Aufdecken und
Bearbeiten „Ihrer“ Stressoren. Regelmäßige
Minuten der Stille, Vertrauenspersonen und
Seminare können Sie dabei unterstützen,
neue Wege zu finden, mit internen und externen Stressoren besser umzugehen und das
Unvermeidliche für Ihren Alltag aushaltbarer oder sogar nutzbringend zu gestalten.
Roland Englmann
Service Desk Academy
[email protected]
www.servicedesk-academy.de
Abbildung: Stresserleben und -bewältigung
Mit dem richtigen Ansatz genügt eine einzige IT-Service-Management-Lösung für
das Management von klassischen Systemen
und Cloud-Anwendungen.
Durch die wachsende Verbreitung von Cloud
Services entstehen in Unternehmen zunehmend heterogene IT-Umgebungen, in denen
die herkömmliche IT-Infrastruktur mit Services aus der Cloud kombiniert wird. Dies
wirkt sich zunehmend auf die Gestaltung
des ITSM aus: Denn neben den klassischen
Systemen müssen auch die in der Cloud genutzten Anwendungen (Public, Private und
Hybrid) berücksichtigt werden. In der Realität nutzen viele Firmen dazu momentan
mehrere Systeme parallel.
Oft existieren klassische System-Management-Konzepte und Cloud-ManagementPlattformen nebeneinander. Diese Strategie
hat einen entscheidenden Nachteil: Die Gefahr wächst, dass sich die unterschiedlichen
Lösungen zu organisatorischen Silos entwickeln, die nicht vollständig interoperabel sind.
Zudem bestehen oft getrennte Werkzeugbedingungen für Nutzer, Inventarisierung, Service und Client Management. Auch End-toEnd-Prozesse und Workflows fehlen häufig.
Dies stellt die IT nicht nur vor neue technische Herausforderungen, sondern verursacht
auch hohe Integrationskosten durch die zahlreichen Einzellösungen. Grund genug, die
eigene Strategie zu überdenken und die ITLandschaft auf den neusten Stand zu bringen.
Flexibilität statt Entweder-Oder
Während sich Unternehmen bei der Auswahl
ihrer ITSM-Lösung bislang zwischen einem
On-Premise- oder SaaS-Bereitstellungsmodell entscheiden mussten, bieten neue, sogenannte Hybrid-Modelle ihnen jetzt mehr
Flexibilität. Lösungen wie die HEAT-Suite
von FrontRange lassen sich beispielsweise
sowohl im eigenen Rechenzentrum oder in
der Cloud installieren – oder als Kombination aus beiden Optionen nutzen. Wichtig ist
dabei, dass der Kunde sich mit seiner Entscheidung nicht fest bindet, sondern jederzeit die Möglichkeit hat, sein IT Service Management flexibel an die eigenen Bedürfnisse
anzupassen und bei Bedarf auch schrittweise
zu erweitern. Ein Wechsel von der Cloud
zum On-Premise-Modell oder umgekehrt ist
dadurch jederzeit möglich. Egal, für welche
itSM Heft 23 - März 2013
itSMF Performance News
Cloud Computing Foundation mit international anerkannter Zertifizierung
Option sich ein Unternehmen entscheidet:
System, Daten und User Interface bleiben
gleich. Die Anpassungsfähigkeit der Lösung
zeigt sich aber auch bei den Finanzierungsmöglichkeiten, die sowohl die Abrechnung
als Investition, als laufende Betriebskosten
oder eine Mischform zulässt.
Neues Seminar für IT Manager, Business Manager, Service Manager, IT Professionals und
Einkaufsspezialisten von Cloud-ProviderOrganisationen und Cloud-Kunden: „Cloud
Computing Foundation“
Was bedeutet “Federation” im “Identity Management” bei Cloud Services ?
Durch ihre einfache Skalierbarkeit loh- Wenn Sie diese Frage auf Anhieb beantworten
nen sich Hybrid-Ansätze vor allem für Fir- können, sind Sie auf dem richtigen Weg, Cloud
men, die ein starkes Mitarbeiterwachstum Computing als DAS neue Business-Modell für
erwarten, mehrere Standorte haben oder IT-Services erfolgreich einsetzen zu können. Neeine Applikation schrittweise weiteren Nut- ben diesem security-relevanten Thema ist aber
eine ganzheitliche Auseinandersetzung mit den
zergruppen zugänglich machen möchten.
Spezifika des Cloud Computings hinsichtlich
Introduction
Gleichzeitig profitieren sie von einem
einArchitektur, Prozessen, Organisation, Skillsets,
heitlichen und anforderungsgerechten Ser- Service Management und Governance erforderIntroduction
vice Management, das den gesamten
ITIL | lich.
Course objectives
Overview Cloud Computing |
Service Lifecycle abdeckt.
Folgende Konzepte, Prinzipien und
Modelle werden vermittelt:
1. Prinzipien des Cloud Computings
•
•
•
•
•
Alleinstellungsmerkmale
Deployment- und Servicemodelle
Die Entwicklung des Cloud Computings
Cloud-Computing-Architekturen
Vorteile und Beschränkungen
2. Implementation und Management der Cloud
• Aufbau einer Cloud-Umgebung
• Hard-und Softwarekomponenten
• Service-Management-Konzepte
3. Benutzung der Cloud
From Knowledge. To Proficiency. To Implementation.
Anwender können Services und Änderungen über die ITSM-Plattform komfortabel
beantragen, die IT-Abteilung kann geeignete
Korrekturmaßnahmen einfach planen und
die Änderungen automatisch bereitstellen.
Auch die Überwachung von ComplianceAnforderungen und der zugehörigen SLAs
sowie die Steuerung des Service-Portfolios
lassen sich so einfach und schnell realisieren. Dies hilft nicht nur, den Nutzern einen
erstklassigen und effizienten Service zu bie© Glenfis AG | www.glenfis.chAbbildung: Übersicht
© EXIN
| Cloud Computing
Foundation
Cloud
Computing
ten und so deren Zufriedenheit zu steigern,
sondern reduziert gleichzeitig auch die damit Der notwendige und strukturierte Wissensverbundenen Kosten sowie Komplexität.
erwerb für erfolgreiches Cloud Computing,
sowohl auf Anbieter, als auch auf KundenseiFazit
te steckt noch in den Anfängen. Viele offene
Um für neue Anforderungen gerüstet zu sein, Stellen bleiben heute unbesetzt - der Mangel an
sollten Unternehmen hybrid-fähige ITSM- Cloud-Experten verschärft sich. Dem Bereich
Lösungen wählen, die sich flexibel an ihre Cloud Computing wird jedoch das grösste ITJob-Wachstum der nächsten Jahre vorausgesagt.
individuellen Bedürfnisse anpassen lassen
und mit der Firma mitwachsen. So können
Viele der vorhandenen Bildungsangebote
sie mit einer Plattform sowohl ihre klassi- fokussieren sich rein auf die Technologiesche IT-Infrastruktur als auch cloud-basierte managementkomponenten von Cloud ComAngebote abdecken, ohne neue Informati- puting. Mit dem durch EXIN akkreditierten
onssilos sowie hohe Integrationskosten zu Kurs „Cloud Computing Foundation“ bietet
riskieren. Dies hilft, die betriebliche Effizienz Glenfis seit letztem Herbst umfassendes Wiszu maximieren, die IT-Kosten zu reduzieren sen über alle Cloud Service-Komponenten
sowie die Servicequalität und Compliance zu hinweg an. Damit werden entscheidende
Voraussetzungen geschaffen, die Kursteilverbessern.
nehmer zu wertvollen „Change Champions“
bei der Entwicklung oder dem Einsatz von
Cloud Computing aufzubauen.
Anton Kreuzer
FrontRange Solutions
Deutschland GmbH
[email protected]
www.frontrange.com
Der Kursinhalt wurde in enger Zusammenarbeit
mit führenden IT-Industrie- und Beratungsfirmen, abgestimmt auf die Bedürfnisse von CloudAnbietern und Cloud-Kunden, entwickelt.
• Cloud-Access für Benutzer
• Unterstützte Business-Prozesse
• Traditionelle Service Provider
und die Cloud
4. Cloud Security- und Compliance-Konzepte
• Security-Risiken und deren Management
• Management von „Identity“ und „Privacy“
• Internationale und spezifische Standards, Gesetze und Zertifizierungen
5. Evaluation von Cloud-Computing-Angeboten
• Business Case für Cloud Computing
• TCO-Betrachtungen
1
• Evaluation von Cloud-ComputingAngeboten
• Selektion von Anbietern
Das Seminar dauert 2 Tage und richtet sich
unter anderem an folgende Teilnehmer:
Kundenseite: IT-Leiter, IT-Einkäufer, Programm Manager, Service Manager, Business
Manager, Supplier Manager, Quality, Compliance- und Risk-Manager
Anbieterseite: Account Manager, Service
Manager, Transition Manager, Bid Manager,
Vertragsmanager
Einzigartiges Angebot in Zentraleuropa:
Der Kurs ist eines der wenigen Angebot dieser
Art in Zentraleuropa. Die Unterrichtssprache
ist entweder Englisch oder Deutsch. Der Kurs
kann auch als In-house-Kurs gebucht werden,
die Mindestteilnehmerzahl ist 6.
Das Examen besteht aus einer 40 Fragen
Multiple-Choice-Prüfung in Englisch. Die
Prüfung kann entweder papierbasierend
oder elektronisch abgelegt werden. Die Teilnehmer, welche 26 und mehr richtige Antworten erreichen, erhalten das EXIN Cloud
29
30
itSMF Performance News
Neustart für den Service-Desk
Computing Foundation Zertifikat. Dieses
Zertifikat, kombiniert mit dem EXIN IT
Service Management und dem Security Management Zertifikate berechtigen zum Erwerb des „EXIN Certified Integrator Secure
Cloud Services“ Titel.
Glenfis als unabhängiger
Cloud-Service-Begleiter
Basierend auf den umfassenden Kenntnissen
und Erfahrungen im IT-Governance- und
Sourcing-Bereich, bietet Glenfis einen Coaching/Consulting-Service für Firmen an, die
sich entschliessen, Cloud-Strategien zu entwickeln und umzusetzen. Der Service umfasst u.a.
•
•
•
•
Cloud Readiness Assessments
Cloud Control Matrix
Evaluation des Cloud-Anbieters
Aufsetzen der Governance Frame
Works zwischen Kunde und Anbieter.
Antwort zur Eingangsfrage
Es handelt sich um Cloud-basiertes „identity management” das ein “single-sign-on“ für
mehrere Systems ermöglicht.
Ben Martin
Glenfis AG
Vom Kennen. Zum Können. Zum Tun.
[email protected]
www.glenfis.ch
HP Service Anywhere vereint
Vorteile von SaaS und lokaler
ITSM-Lösung
HP hat die Service-Desk-Lösung HP Service
Anywhere von Grund auf neu entwickelt. Damit reagiert der Anbieter auf Forderungen
nach einer leicht zu bedienenden und flexibel
erweiterbaren SaaS-Lösung (Software as a
Service). Dies äußert sich vor allem in Anpassungen ohne Programmieraufwand („Codeless Configuration“) sowie in der klaren
Trennung von Programm- und CustomizingCode, um auch bei kundenspezifischer Erweiterung für problemlose Upgrades zu sorgen.
Bislang hatten Service-Desk-Leiter die Qual
der Wahl: Entweder setzt man auf eine per
Customizing bis ins Kleinste auf die Bedürfnisse der eigenen IT-Support-Organisation
ausgerichtete lokal installierte ITSM-Lösung
- oder aber man profitiert von den Kostenund Betriebsvorteilen der Public Cloud, wie
das zunehmend beliebte SaaS-Modell sie
verspricht. Ein Mittelweg schien lange nicht
möglich, galten doch SaaS-Angebote als vergleichsweise starr und unflexibel.
Doch nun hat HP Software mit HP Service
Anywhere die nächste Generation seiner
ITSM-Lösungen auf den Markt gebracht: Diese Service-Desk-Lösung, Ende Oktober 2012
nach umfangreichen Beta-Tests mit Kunden
vorgestellt, ist speziell darauf ausgelegt, die von
Unternehmen geforderte leichte Bedienbarkeit
und flexible Anpassungsfähigkeit mit den Vorteilen einer SaaS-Lösung zu kombinieren.
Intuitive Bedienung
HP Service Anywhere präsentiert sich dem
ITSM-Verantwortlichen wie auch dem Ser-
vice Desk Agent mit einer aufgeräumten,
intuitiv bedienbaren Web-Oberfläche. Die
hinterlegten Workflows sind selbstverständlich an den ITIL Best Practices ausgerichtet,
der Benutzer erhält via grafischer Darstellung Angaben über den aktuellen Status des
jeweiligen Ablaufs. Ein Self-Service Interface
für die Endanwender bzw. Kunden beschleunigt die Ticket-Erfassung, Chat-Funktionalität erleichtert - ganz im Sinne einer „Social
Collaboration“ - die zügige Bearbeitung vom
First bis zum Third Level Support.
Die Lösung unterstützt das Incident-,
Problem- Change- sowie das Configuration-Management und damit die für den
Service-Desk-Alltag wichtigsten ITIL-Prozesse. Anpassungen an Design, Prozessen
und Workflows sind ohne Programmierkenntnisse durchführbar; die Software speichert Modifikationen separat und ermöglicht
so reibungslose automatische Upgrades, wie
sie bei SaaS-Lösungen zu erwarten sind.
Wie der große On-Premise-Bruder HP Service Manager 9.3, so nutzt auch HP Service
Anywhere HPs leistungsstarke UCDMB als
zentrales Daten-Repository. Teile des Codes
von HP Service Anywhere beruhen auf HPs
bewährter On-Premise-Software, in die sich
die SaaS-Lösung entsprechend leicht integriert. Dies erlaubt bei Bedarf den Aufbau
einer hybriden ITSM-Umgebung.
Das Beste beider Welten
HP Service Anywhere kombiniert intuitive Bedienung, leicht anpassbare hinterlegte
ITIL-Prozesse, Self-Service-Funktionalität
und Social Collaboration mit den automatisierten, transparenten Upgrades und der
hohen Skalierbarkeit einer SaaS-Lösung bei
einer garantierten Verfügbarkeit von 99,9%
- all dies SaaS-typisch ohne initiale Investitionen in Hard- oder Software. Ein weiteres
Plus: Den leichten Umstieg bietet HP Consulting zum Pauschalpreis. Testen kann man
die Cloud-Lösung jederzeit unter
www.hpserviceanywhere.com.
Service Anywhere Benutzerinterface
Im übersichtlichen Web-Interface von HP
Service Anywhere sieht der Service Desk
Agent jederzeit den Status des jeweiligen
Arbeitsablaufs, im Bild die Kategorisierung
eines Incidents im Rahmen des IncidentManagements.
Abbildung: Service Anywhere Benutzerinterface
Christian Schütz
Hewlett-Packard GmbH
[email protected]
www.hp.com/de
itSM Heft 23 - März 2013
itSMF Performance News
Advertorial
Projekt P A C E
- Sieger itSMF-Projekt-Award 2012
HP Service Anywhere
Leistungsfähiger und intuitiver Service Desk auf SaaS-Basis
Mit HP Service Anywhere hat HP eine komplett neue Service-Desk-SaaS-Lösung für
das IT-Service-Management auf den Markt gebracht. Diese unterstützt Unternehmen dabei, Störungen in der IT schnell zu beheben. Als SaaS-Lösung ist HP Service
Anywhere einfach zu implementieren, zu bedienen und zu aktualisieren.
HP Service Anywhere verfügt über eine intuitive Drag-and-Drop-Benutzeroberfläche
und Konfigurationstools die mit Assistentenunterstützung gesteuert werden. Die Bereitstellung über SaaS von HP vereinfacht die Bewertung, beschleunigt die Implementierung und macht die Lösung durch nahtlose Skalierbarkeit und Upgrades zukunftssicher. HP Service Anywhere ist nach ISO/IEC 27001 zertifiziert und überzeugt mit der
Zuverlässigkeit, die Sie von einem anerkannten Marktführer erwarten können.
HP Service Anywhere bietet Ihnen umfassende Service-Desk-Funktionen: Die Lösung
verarbeitet eingehende Anfragen und beherrscht die IT Service Configuration ebenso
wie das Incident-, Problem- und Change-Management. Zu ihren Besonderheiten gehört die direkte Kommunikation über Social Collaboration Methoden: Per Chat können
Mitarbeiter Fragen und Hinweise zur Fehlerbehebung austauschen. Die vertraglich zugesicherte Verfügbarkeit von HP Service Anywhere liegt bei 99,9 Prozent.
HP Service Anywhere im Überblick
• Service Anywhere hat vollständig Web-basierte Werkzeuge für das ProzessDesign. Sie lassen sich zu 100 Prozent über grafische Benutzeroberflächen
bedienen. Das Schreiben von Skripts oder Codes ist überflüssig. Die Werkzeuge
entsprechen den „Best Practices“ der Information Technology Infrastructure
Library für Incident-, Problem- und- Change-Management.
• Mit den Werkzeugen von Service Anywhere lassen sich auch Upgrade-Workflows
ohne Skripte oder Programmierung erstellen. Das vereinfacht die Erweiterung
von Datenmodellen und die Gestaltung einfach bedienbarer Eingabemasken.
• HP Service Anywhere beschleunigt die kontextbezogene Bearbeitung von
Stör- oder Sicherheitsvorfällen. Vorfälle werden mit der Social-CollaborationSoftware „HP Enterprise Collaboration“ aufgenommen, zwischen ServiceDesk-Nutzern geteilt und mit den Service-Desk-Objekten in der Datenbank des
Systems verknüpft.
• H
P Service Anywhere nutzt Schlüsseltechnologien wie die HP Universal
Configuration Management Database (UCMDB). Die UCMDB enthält Informationen über IT-Services, Anwendungen und Hardware und deren Beziehungen
zueinander über die gesamte IT-Umgebung hinweg. Die nötigen Informationen
erhält die Datenbank unter anderem von der HP Universal Discovery Software:
Sie erkennt automatisch kritische IT Bestandteile und stellt deren Beziehungen
über das sogenannte „Dependency Mapping“ dar.
• HP Service Anywhere lässt sich flexibel mit HP’s IT Service Management Lösung
„HP Service Manager“ kombinieren.
Wenn Sie Fragen zu HP Service Anywhere haben, dann rufen Sie uns einfach unter
Telefon +49 (0) 69 66 30 80 25 an.
Oder Sie testen HP Service Anywhere gleich 30 Tage unverbindlich unter
www.hpserviceanywhere.com
Mehr Informationen zu HP Software, Trial Software sowie Whitepaper finden Sie
unter www.hp.com/de/software
Abbildung 1: Projektteam PACE
Professional and Agile Contribution to
operational Excellence
Als Teil der französischen Großbank Société Générale ist die Gruppe Société Générale
Equipment Finance führender Anbieter für
spezialisierte Finanzdienstleistungen in Europa und weiteren Geschäftseinheiten außerhalb Europas. GEFA - Gesellschaft für
Absatzfinanzierung mbH, GEFA-Leasing
GmbH und PEMA GmbH sind die Unternehmenseinheiten, die in Deutschland das
Geschäftsfeld Société Générale Equipment
Finance repräsentieren. Die GEFA IT ist als
interner Service-Provider seit 2007 auf Basis
der Norm ISO/IEC 20000 zertifiziert. Die
von der IT zu erbringenden Serviceleistungen werden konsequent auf die Unternehmensziele und Geschäftsprozesse der internen
Kunden ausgerichtet. Die in Ergänzung zur
Aufbauorganisation etablierte prozess- und
serviceorientierte Ablauforganisation hat sich
nachhaltig erfolgreich bewährt, was sich auch
in den Ergebnissen unserer regelmäßigen
Kundenzufriedenheitsmessungen
deutlich
zeigt. Unsere Geschäftsprozesse werden durch
wirtschaftliche, zuverlässige und effektive ITServices und ITSM-Prozesse sowie bedarfsgerechte IT-Lösungen unterstützt und bieten
einen sicheren Zugriff auf leistungsstarke Anwendungen und korrekte Daten.
Um diese konsequente Ausrichtung der IT
noch zu untermauern, wurde die langfristig
angelegte, und von der Geschäftsleitung unterstützte strategische Initiative improve it
ins Leben gerufen. Diese Initiative steht für
die Leistungsbereitschaft und Leidenschaft,
mit der sich alle Mitarbeiterinnen und Mitarbeiter der GEFA IT in ihre tägliche Arbeit
einbringen und den Anspruch haben, sich
und unsere IT-Services kontinuierlich immer weiter zu verbessern.
31
32
itSMF Performance News
Das am itSMF Jahreskongress am 3. Dezember mit dem Project Award 2012 ausgezeichnete Projekt PACE (Professional and Agile
Contribution to operational Excellence)
ist ebenfalls Ausdruck und Spiegelbild für
die seit mehreren Jahren in der GEFA IT
durchgeführten Optimierungs- und Verbesserungsprojekte und das hohe Engagement
der Mitarbeiterinnen und Mitarbeiter, unser
ITSM noch effizienter zu gestalten, sodass
unsere internen Kunden ihre Geschäftsprozesse noch schneller und effektiver bewältigen können.
Mit dem Projekt sind wir einen weiteren innovativen und herausfordernden Schritt in
unserer IT-Service-Management-Organisation gegangen. Es beinhaltete nicht nur die
Realisierung fachlicher Anforderungen im
Rahmen eines umfassenden ITSM-ProzessRedesigns, sondern vereinte gleich mehrere
unterschiedliche methodische und technologische Zielsetzungen, Herausforderungen
und Chancen:
• Erhöhung des ITSM-Prozess-Reifegrades von ITIL V2 auf V3 sowie im Kontext zur Novelle der ISO/IEC 20000:2011
• Industrialisierung von ITSM-Abläufen
Einführung
ITIL Prozesse
Zertifizierung
ISO/IEC 20000
2006
2007
• E
inführung eines Self-Service-Portals
für Kunden zum Abruf automatisierter Services und einer durchgängigen
Transparenz über die Effizienz und Effektivität in der IT-Leistungserbringung
• Automatisierte Kundenzufriedenheitsumfragen sowie -auswertungen
• Einführung einer neuen ITSM-Suite
• Weiterentwicklung unseres Projektmanagement-Frameworks durch Anwendung von Elementen agiler Softwareentwicklung [SCRUM] mit Elementen
des klassischen Projektmanagements
[PRINCE2], um „das Beste aus beiden
Welten“ in einer effizienten Methodik zu
vereinen
• Integration des Projekts in den Ausbildungsplan unserer Auszubildenden inder IT
• Durchführung von Aus- und Weiterbildungsmaßnahmen bereits während
der Projektlaufzeit, u.a. SCRUM-Professional-Master-Zertifizierungen sowie
Software-Administratoren-Schulungen
• Auftragsvergabe zur Erstellung einer
Bachelorarbeit zum Thema ‚Optimierung der internen Kundenumfragen
und Ergebnisanalysen‘ in Zusammenar-
Kontinuierliche
Verbesserung
2008/2009
Rezertifizierung
ISO/IEC 20000
2010
Re-Engineering
ITSM Prozesse
2011/2012
Abbildung 2: ITSM-Historie GEFA IT-Organisation
Rechtzeitige Einbindung der Stakeholder
Angebot von
Individualtrainings
Soft-Skills
des Projektteams
Frühzeitige Planung
der Trainings
Projekterfolg
Marketingkonzept
Abbildung 3: Erfolgsfaktoren im Projekt PACE
Standardisiertes
Trainingskonzept
Angebot von
Individualtrainings
Bedarfsgerechte
Trainingseinheiten
beit mit der Hochschule Bochum
• Umfassendes Trainingskonzept für alle ITMitarbeiter sowie beteiligte Fachbereiche
Nachfolgende konsequent über die gesamte
Projektlaufzeit umgesetzte Aspekte haben
maßgeblich zum Erfolg des Projektes beigetragen und basieren in erster Linie auf einer
frühzeitigen Einbindung („Mach-mit-Effekt“) aller von den Änderungen betroffenen
Stakeholdern.
Die von Beginn an intensive Anwenderund Kundenbetreuung über unseren skilled
Service Desk zur Klärung aller Fragen, sind
zusätzliche Verstärkungsfaktoren, die helfen,
das Verständnis und die Akzeptanz für die
Neuerungen beim Anwender und Kunden
zu erzeugen und den Added value für den
Kunden in den Vordergrund zu rücken.
Abschließend noch ein kurzer Ausblick
wie wir unsere ITSM-Reise in 2013 weiter
fortsetzen werden, natürlich ebenfalls im
Kontext unserer strategischen Initiative
improve it:
• Integration weiterer Business-Prozesse
anderer Fachbereiche wie z.B. HumanRessource-, Marketing- und Organisationsprozesse mit dem Ziel, durch
automatisierte Verarbeitung von Standardabläufen eine messbare Entlastung
für die Fachbereiche zu schaffen
• Erweiterung des Self-Service-Portals als
zentrale Kommunikationsplattform im
Unternehmen
• Weiterer Ausbau der bereits in 2011
gestarteten strategischen Initiative im
Off-Shoring-Bereich durch den Verstärkungsfaktor Testautomation für die geschäftskritischen Applikationen
• Erneute Bestätigung des internationalen Güte-siegels ISO/IEC 20000-1:2011
(Oktober 2013)
• Optimierung unserer Information Security- und Risiko Management Prozesse im
Kontext zur ISO/IEC 27001 und COBIT
Melanie Poppe-Merfels
Societe Generale Equipment Finance
GEFA Gesellschaft für
Absatzfinanzierung mbH
GEFA-Leasing GmbH
[email protected]
www.gefa.de
itSM Heft 23 - März 2013
itSMF Performance News
Wissen auf Lager legen und die IT-Performance erhöhen
Automatisierung und Orchestrierung sowie Standardisierung sind wirksame Werkzeuge, die IT-Performance zu verbessern.
Die Leistungsfähigkeit von IT-Abteilungen
steht regelmäßig auf dem Prüfstand. Hierbei
geht es darum, was eine IT-Abteilung als Organisationseinheit zu leisten vermag. Die ITPerformance variiert je nachdem, wie modern
oder veraltet die eingesetzten Systeme sind,
welche Methoden und Techniken die Mitarbeiter für den Umgang mit den Systemen anwenden und wie gut sie dafür ausgebildet sind.
Anerkannte Mittel, die eigene Leistungsfähigkeit zu steigern, sind Virtualisierung und
vor allem Automatisierung und Orchestrierung. Sie steigern die Qualität der Leistungen
insgesamt: Die Umsetzung wird gleichartig
und nachvollziehbar. So lassen sich Fehler
reduzieren und Richtlinien besser einhalten.
Darüber hinaus erhöht sich die Geschwindigkeit zur Bereitstellung der Leistungen und
Bereitstellungszeiten lassen sich garantieren.
Ebenfalls wichtig ist, dass die Leistungserbringung unabhängiger von menschlichen
Ressourcen wird.
Diese Vorteile einzufahren, erfordert einige
Vorarbeiten in Automatisierung und Orchestrierung. Es bringt aber den Nutzen,
dass sich diese Vorarbeiten zu einem späteren Zeitpunkt als Lagerware abrufen und
beliebig duplizieren lassen. Die vorgefertigten Komponenten – so genannte StandardBuilding-Blocks – werden später nach Bedarf
ausgeführt. Es sind technische Einheiten, die
einen Service erbringen. Sie enthalten alle Informationen darüber, welche Technologien
sie abbilden, welche Richtlinien einzuhalten
sind und welche Konfigurationen inkl. Herstellungsmethoden ihnen zugrunde liegen.
Standardisierte Prozesse
Die Grundlage für eine effiziente Automatisierung sind standardisierte Prozesse, Technologien und Komponenten. Als
Standard-Building-Blocks gut geeignet sind
beispielsweise die Installation von Betriebssystemen, Datenbanken und Web-Servern.
Beispielsweise bei der Bereitstellung von virtuellen Servern ist der Nutzen schnell spürbar. Einmal konfiguriert, funktionieren die
Abläufe immer gleichartig und halten alle
erforderlichen Richtlinien konsequent ein.
Doch nicht nur so genannte Massenthemen,
die Arbeitszeit sparen, eigenen sich für Standardisierung und Automatisierung. Auch
häufig wiederkehrende, komplexe Prozesse
mit hohen Qualitätsanforderungen sind prädestiniert dafür. Insgesamt erhöhen Standardisierung und Automatisierung deutlich die
Flexibilität der IT.
IT-Automatisierung teilweise noch
Neuland
Bereits weit verbreitet sind Standardlösungen für die Automatisierung, wie beispielsweise für die Bereitstellung von Clients und
Servern. Auch ist es üblich, dass Mitarbeiter
im Rechenzentrum ihre individuellen Sets
an Skripten entwickeln und wiederkehrende Arbeiten automatisieren. Diese Sets an
Skripten sind oftmals jedoch nur von wenigen Eingeweihten bedienbar.
Für viele IT-Abteilungen noch Neuland
ist die vollständig werkzeuggestützte Runbook-Automatisierung, wie sie von einem
Change-Management gefordert wird und
die immer gleichartig abläuft. Runbooks
unterstützen den Roll-Out der weiter oben
angeführten Building-Blocks. RunbookAutomatisierung wird auch als Serviceorchestrierung bezeichnet. Wie dieser Begriff
andeutet, dient die Serviceorchestrierung
zur Automatisierung von Serviceprozessen,
wie zum Beispiel der Bereitstellung eines
neuen Arbeitsplatzes, einer Anwendung
oder eines Servers.
Die Serviceprozesse können sich über Anwendungs- und Infrastrukturgrenzen hinweg erstrecken. Der Orchestrierungsprozess
umfasst die Annahme des Automatisierungsauftrags, die Anforderung von prozessrelevanten Daten und die Ausführung technischer Automatisierungsprozesse anderer
Werkzeuge bis zur Auslieferung des angeforderten Services.
Damit ist die Serviceorchestrierung bzw.
Runbook-Automatisierung eine übergeordnete Managementinstanz, die die heute vorherrschende Siloorganisation in den
IT-Abteilungen miteinander verbindet. Sie
schafft den Brückenschlag zwischen den organisatorischen Serviceprozessen und den
einzelnen Automatisierungsschritten in den
technischen Silos. Mithilfe einer solchen Managementinstanz können die Siloorganisationen auch künftig unterschiedlich bleiben.
Silos über Brücken verbinden
Wie die perfekte Nutzung der Siloorganisation in der IT aussieht, lässt sich anhand eines
altgriechischen Tempels darstellen: Die verschiedenen Säulen – Silos – sind die tragenden Fundamente. Darüber liegt ein Tragbalken – eine Schicht für Automatisierung und
Prozesse. Die Prozesse sind die Leitplanken
der Automatisierung. Mithilfe dieser Schicht
können Prozesse, Systeme und Komponenten auch über Silogrenzen hinweg zusammenarbeiten. Das Dach des Tempels bilden
schließlich die Anforderungen der Fachbereiche.
Um die wichtige Automationsschicht aufzubauen, muss die IT ihre Prozesse definieren
und beantworten, wie die Verfahren und
Systeme untereinander funktionieren sollen. Im Anschluss an die organisatorischen
Überlegungen gilt es, eine geeignete Architektur sowie eine Orchestrierungs- und
Automatisierungslösung zu finden, die die
Daten eines Verfahrens und Systems abgreift
und anderen bereitstellen kann. In die Auswahl fließen die eingesetzten und somit zu
unterstützenden Technologien sowie das in
den IT-Bereichen vorhandene Know-how
ein. Materna verwendet dazu den ServiceLifecycle-Ansatz, bei dem entlang aller Teilschritte zur Bereitstellung von Services die
jeweils notwendigen Daten und Prozesse
ermittelt werden.
Mittels Service Lifecycle Management kann
die IT ableiten, welche Leistungen an welchen Stellen in der IT-Organisation erbracht
werden, wie der Input verarbeitet und Ergebnisse ausgegeben werden, wie die Bereitstellungsprozesse sind und welche Schnittstellen
existieren. Dann können die Unternehmen
auch ihre Silos beibehalten.
Michael Ziegler
Materna GmbH
[email protected]
www.materna.de
33
34
itSMF Performance News
Ran an den Speck: Wie sich eine schlanke Serviceorganisation
als Schwergewicht im Unternehmen behauptet
Das Gewicht der IT-Serviceorganisation im
Unternehmen als Schnittstelle zwischen IT
und Business nimmt zu. Sie muss immer
neue Anforderungen aufnehmen, den laufenden Betrieb kosteneffizient sicherstellen
und die Fachabteilungen am Besten in Eigeninitiative mit intelligenten Lösungen unterstützen. Gleichzeitig wird ihr als Produzent
bzw. Anbieter von Services ein konsequentes
Schlankheitsprogramm verordnet: Schlanke Produktion, schlanke Organisation – so
lautet die interne Devise. Oder mit anderen
Worten: Mit intelligenten Lösungen Prozesse
automatisieren, Kosten sparen und Service
zu einem positiven Erlebnis für den Endanwender machen. Wie ist beides unter einen
Hut zu bringen? Wie gelingt es, die Rolle als
Schwergewicht im Unternehmen trotz bzw.
mit dem (selbst)verordneten Schlankheitsprogramm zu behaupten?
Ein wichtiger Schritt in die richtige Richtung ist
die konsequente Beschäftigung mit Themen,
die schon längst vom Trend zum festen Bestandteil der IT-Management-Agenda geworden sind. Dazu gehören unter anderem Handlungsfelder wie IT-Self-Service und Mobility.
Vom Full-Service zum Self-Service:
Selbst ist der Kunde!
Self-Service-Angebote haben in unserer
Gesellschaft ihren festen Platz: Ob Geldautomaten, Schnellrestaurants oder Selbstbedienungskassen– sie alle sind aus unserem
zeitgetriebenen Alltag praktisch nicht mehr
wegzudenken! Das Dienstleistungsgewerbe
verspricht sich vom Self-Service vor allem
Kostenreduktion, Zeitersparnis und eine
bessere Verfügbarkeit. Auch IT-Service-Organisationen versuchen seit geraumer Zeit
mit Self-Service-Angeboten auf Kundenseite
ein qualitativ hochwertiges Serviceerlebnis
zu schaffen und gleichzeitig Personal- und
Betriebskosten zu reduzieren.
haben Endanwender u.a. die Möglichkeit
• eigene Störungsmeldungen zeit- und
ortsunabhängig aufzugeben,
• den Bearbeitungsfortschritt nachzuverfolgen,
• mit dem integrierten Webshop Hardware und Systemzugriffe zu bestellen,
• oder Service Requests einzureichen.
Das Ergebnis ist eine erhöhte Verfügbarkeit
von Services, ein qualitativ hochwertiges
Serviceerlebnis und eine Entlastung der Servicemitarbeiter von Routineaufgaben, die
schließlich mehr Zeit für individuelle Problemlösungen oder die proaktive Erarbeitung
von Serviceangeboten für die Fachabteilungen schafft.
ITSM für die Hosentasche:
Applikationen für mobile Endgeräte
Moderne Kommunikation ist heute ohne
den Einsatz mobiler Technologie wie Smartphone, Tablet oder PDA undenkbar. Auf
dem Weg zur schlanken Serviceproduktion,
kommt die IT-Serviceorganisation deshalb
auch am Thema Mobility nicht mehr vorbei. Zunächst als einer von vielen Trends
gehypt, ist der Einsatz mobiler Endgeräte
für die qualitativ hochwertige und effiziente
Serviceerbringung inzwischen schon längst
unabdingbar.
Vor allem wer viele Servicemitarbeiter im
Außendienst beschäftigt, weiß den stets
griffbereiten Zugriff seiner Teams auf Störungsmeldungen, Zeitbuchungsfunktionalitäten und die Registrierung der aufgewendeten Materialien zu schätzen - nicht zuletzt im
Sinne einer direkten Fakturierung.
Mobiler Service: Direkte Kommunikation
- Direkte Fakturierung
Wer also eine anwenderfreundliche mobile
Applikation für das IT Service Management
zum Einsatz bringt, profitiert von effizienter
Kommunikation, der Möglichkeit Störungsfälle im Blick zu behalten und bei Bedarf zuzuordnen, Time und Material zu registrieren
und die Aufwände schließlich direkt zu fakturieren.
Wendias Applikation für mobile Endgeräte
besticht mit einem benutzerfreundlichen Interface und mit innovativen Features wie
• Zeitbuchungsfunktionalitäten,
• der Identifikation und Protokollierung
eingehender Calls,
• Zuweisung und Priorisieren von Tickets,
• SLA-Kontrolle,
• Zugriff auf die Knowledge-Datenbank,
• Real-Time-Dashboards
Die Applikation für mobile Endgeräte basiert
auf HTML 5 und ist im Einsatz plattformunabhängig. Der Zugriff ist über alle gängigen
Browser möglich.
Ihre Serviceorganisation soll schlanker werden? Gerne unterstützen wir Sie mit wirksamen Lösungen und dem richtigen Programm! Sprechen Sie uns an:
T +49 89 54 052 214
[email protected]
Miriam Gögelein
Wendia AG Deutschland /
Wendia AG Schweiz
[email protected]
www.wendia.de
Wie geht guter Self-Service?
Mit der IT-Service-Management-Software
von Wendia ist guter Self-Service mit wenigen Mausklicks machbar. Er verschafft dem
Endanwender einen Vorteil gegenüber dem
klassischen Full-Service der IT. Dazu gehören
unter anderem spürbar bzw. messbar kürzere
Lösungszeiten genauso wie die Verfügbarkeit
von Service und Support-Leistungen unabhängig von Standort und Geschäftszeiten.
Mit dem Self-Service-Portal der Toolsuite
itSM Heft 23 - März 2013
36
itSMF Performance News
Change the Business, Run the Business –
Leadership in Transition
Das Interview führte Jürgen Dierlamm für
den itSMF Deutschland e.V. mit Hartmut
Stilp, dem Gründer und Geschäftsführer
der Maxpert GmbH. Das Unternehmen war
2001 einer der Mitgründer des Vereins.
Jürgen Dierlamm: Hartmut, Du veranstaltest in diesem Jahr am 15./16.
Mai zum ersten Mal eine Konferenz.
Was hat Dich dazu bewogen?
Hartmut Stilp: Dafür gibt es zwei Gründe. Zum einen haben unsere Kunden den
Wunsch an uns heran getragen etwas zu
machen, bei dem wir über den Tellerrand
der Hype-IT-Themen hinaus schauen, neue
Impulse setzen und grundsätzliche Fragen
angehen. Zum anderen wünschen sie eine
Konferenz, die nicht wie eine Messe daher
kommt und die Pausen zum Basar werden.
Wir haben keine Sponsoren und Aussteller
an Bord, bieten aber ein außergewöhnliches
Programm für kleines Geld. Wir wollen damit nichts verdienen.
JD: Impulse setzen und über den Tellerrand hinausschauen nehmen alle
Konferenzen in Anspruch. Was unterscheidet denn die Maxpert Konferenz?
HS: Zuerst wollen wir wissen, welche Trends
und Entwicklungen den Wandel bestimmen
und welche Schlüsse sich daraus ziehen lassen. Müssen neue Visionen her? Wir haben
Andreas Steinle gebeten, mit uns seine Einblicke zu neuen Märkten, Cross Innovations
und Consumer Power zu teilen. Von Uli
Hoeneß wollen wir wissen, wie aus einem
Deutschen Meister der wirtschaftliche und
sportliche Global Leader wird. Wie schaffte
er es mit dem Unternehmen FC Bayern, sich
über Jahrzehnte fest an der Weltspitze zu
etablieren? Wie plant er, wie geht er auf die
unterschiedlichen Stakeholder ein? Wie werden die Risiken gemanagt? Fragen, die uns
jeden Tag beschäftigen. Wir sind sehr auf die
Antworten dieses Top-Managers gespannt.
Es gibt wenige mit einem solchen Record an
Managementerfahrung.
JD: Nun ist die Maxpert ja auch im
Programm- und Projektmanagement
unterwegs. Hören wir dazu etwas,
das deutsche Projektgeschäft sorgt
ja weltweit für Aufsehen? Made in
Germany bekommt derzeit ein ganz
neues Image.
HS: Wir haben Klaus Grewe interessieren
können. Er war der Koordinator aller Projekte von Olympia 2012. Von ihm interessiert uns, warum die Olympiade 2012 „in
time and in budget“ auf den Punkt fertig
geworden ist. Was ist sein Code für erfolgreiche Großprojekte? Die haben in London ja
nicht nur einen Bahnhof gebaut. Er soll uns
den Schlüssel dazu in die Hand geben. Und
dann schauen wir uns das Thema Führung
in der Tiefe an. Wandel braucht Leadership.
Wie müssen sich Leader wandeln? Und in
welche Richtung? Die Erwartungshaltung an
das Management ändert sich stark. Reinhard
Sprenger wird uns mit seinen unbequemen,
provokativen und erfolgreichen Thesen konfrontieren. Wir sind gespannt.
JD: Welche grundsätzlichen Fragestellungen greift die Konferenz auf?
HS: Die dramatische Geschwindigkeit,
Komplexität, Transparenz und die Wechselwirkungen in unserer heutigen Gesellschaft
erzeugen Transformationen beispielloser
Größenordnungen. Deshalb sind Unternehmen und ihre Leader gefordert, auf allen Ebenen nachhaltige Fähigkeiten für die
Gestaltung des permanenten Wandels zu
entwickeln. „Leadership in Transition“ ist
unser Thema. Das treibt uns an, hier werden
wir Impulse setzen und konkrete Vorschläge machen.
JD: Welche Fähigkeiten müssen vorhanden sein, oder welche sind zu
schaffen? Was können die Teilnehmer
an neuen Einsichten erwarten?
HS: Bevor ich darauf eingehe, möchte ich
unsere grundsätzliche Sicht beschreiben.
Wir unterteilen den Unternehmensglobus
in die zwei Hälften ‚Run the Business‘ und
‚Change the Business‘. Im „Run“ haben wir
die betrieblichen Abläufe, die wir immer besser machen wollen. Bessere Qualität, weniger
Kosten, höhere Produktivität und zufriedenere Kunden sind die klassischen Treiber.
Wir befinden uns im täglichen Wettbewerb;
es ist schwer, immer wieder Schritt zu halten
oder damit die Wettbewerbsfähigkeit überdurchschnittlich zu verbessern.
JD: Ja, das kennen wir auch aus unserer Arbeit im itSMF. Die Methoden
und Verfahren sind allseits bekannt,
hier gibt es keine Geheimnisse mehr.
HS: Das ist richtig. Trotzdem stellen wir
fest, dass es in sehr vielen Unternehmen
noch ganz grundsätzliche Probleme mit den
betrieblichen Basisprozessen gibt. Incident,
Problem und Change Management sind in
vielen Fällen noch nicht ausreichend beherrscht, Asset und Configuration Management unterbelichtet. Ganz zu schweigen von
den Schnittstellen der Entwicklung in den
Betrieb. Das Anforderungsmanagement hin
zu den Service-Design-Prozessen sind weiße Flecken. Servicekataloge und die Ermittlung der Preise oder die Verrechnung der
Kosten hat selbst bei großen Service Providern, die ihr Geld damit verdienen, keinen
ausgeprägten Reifegrad. Wir schulen und
beraten jährlich Tausende von Leuten aus
allen Branchen und Größenordnungen und
was wir feststellen ist, dass es hier noch riesige Potenziale gibt. Bevor wir uns mit Bring
Your Own Device, Mobile, Cloud, Big Data,
Social Collaboration und den anderen Hypes
beschäftigen, müssen wir das Fundament dafür bauen.
JD: Erläutere doch bitte unseren Lesern, was mit ‚Change the Business‘
gemeint ist.
HS: Das ist die Fähigkeit einer Organisation, Projekte erfolgreich zu stemmen. In
Projekten kommen Mitarbeiter, Lieferanten
und Kunden erstmals zusammen, um ein
einmaliges Projektergebnis herzustellen, das
dann in den Betrieb überführt wird. Oder
es ist ein ganzes Bündel von Projekten, wir
nennen es Programm, um eine komplexe
Aufgabenstellung zu lösen. Die Chance, diese Einmaligkeit erfolgreich zu gestalten ist
dann groß, wenn Projekt- und Programmmanagement als Kernkompetenz fest im
Unternehmen verankert ist. Dazu bedarf es
eines klaren Verständnisses und Willens des
Managements, diese Fähigkeit in einer Organisation zu entwickeln. Es ist nicht damit
getan, Projektmanager auszubilden und alle
Verantwortung an diese zu delegieren. Die
Unternehmensführung muss Rechenschaft
ablegen, ob mit den Innovationsressourcen
erfolgreich umgegangen wird. Aus erfolgreichen Projekten und Programmen entstehen
itSM Heft 23 - März 2013
itSMF Performance News
Wettbewerbsvorteil, Zukunftssicherung und
Standortvorteil. Es ist die wichtigste Aufgabe
des Managers, dafür zu sorgen.
JD: Das deckt sich mit meiner persönlichen Einschätzung. Ich denke
ebenfalls, dass wir zukünftig diese
beiden Hälften des Globus stärker in
den Fokus stellen müssen, ohne aber
die Service Transition als Nahtstelle
zwischen den beiden Hälften aus den
Augen zu verlieren.
Jürgen Dierlamm
itSMF Deutschland e. V.
[email protected]
www.itsmf.de
Hartmut Stilp
Maxpert GmbH
[email protected]
www.maxpert.de
HS: Damit komme ich zurück auf unsere
Konferenz. Am zweiten Tag zeigen wir in
mehreren Streams, wie ‚Change the Business‘
und ‚Run the Business‘ funktionieren kann.
Wir freuen uns sehr auf das Treffen mit unseren Besuchern, wir haben der Diskussion
und dem Erfahrungsaustausch einen großen
Platz eingeräumt.
am 15. und 16. Mai 2013 in Frankfurt/Main
Uli Hoeneß
Präsident
FC Bayern München
Dr. Reinhard Sprenger
Führungsexperte und
Bestsellerautor
Andreas Steinle
Geschäftsführer
Zukunftsinstitut
Klaus Grewe
Projektkoordinator der
Olympischen Spiele 2012 in
London
Sichern Sie sich jetzt Ihren Platz für das spannendste Event in 2013.
Unsere Top-Referenten zeigen Ihnen, wie die Transformation
bewährter Methoden in die Praxis gelingen wird.
www.xperience-xchange.de
37
38
itSMF Performance News
IT-Analytics.
Mehr als Dashboards. Besser als BI
Ist die Steuerung Ihrer IT auf Kennzahlenbasis heute effizient genug?
Oftmals scheitert eine positive Beantwortung
dieser Frage an der fehlenden Flexibilität der
Werkzeuge. Denn weder statische Excel-Listen noch das konzernweite Business Intelligence erfüllen die heutigen Anforderungen
im Bereich IT. Aber auch fehlende, falsche
oder zu viele KPIs erschweren den klaren
Blick. Black Box IT.
Obwohl sich der Begriff „IT Performance
Management“ mittlerweile etabliert hat und
auch ITIL „Key Performance Indicators“ zur
Steuerung der IT anpreist, ist der Einsatz von
BI-Lösungen im IT-Bereich die Ausnahme.
In vielen IT-Organisationen fehlt ein zentrales Steuerungsinstrument für IT-Servicemanagement (ITSM). Das IT-Reporting ist
komplex und limitiert durch eine Vielzahl
vorhandener Werkzeuge das Fehlen bereichsübergreifender Analysemöglichkeiten.
Die Menge an auswertbaren Daten ist immens – es fehlen jedoch geeignete Informationen. Häufig scheitern Lösungsmöglichkeiten an den hohen Kosten für Software und
Hardware, dem zu hohen Aufwand für den
Aufbau eines Datawarehouses, die aufwändige Integration der Datenmodelle und an zu
langen Projektlaufzeiten.
Dazu kommt, dass das reine „Führen nach
Kennzahlen“ zu kurz greift. Denn für die
optimale Steuerung von IT-Services geht es
auch um die Beantwortung variabler Fragestellungen oder Prognoseverfahren. Zum
Beispiel sollten sich Fragen zu den Ursachen
bestimmter Entwicklungen oder abweichender Zahlen (Root Cause Analysis) durch
rasches Navigieren zu der betroffenen Datenebene (Drill-Down) oder durch Korrelationsanalysen umgehend beantworten lassen.
Letztendlich geht es darum, Informationen
aus verschiedenen IT-Managementprozessen
und Quellsystemen wie z.B. IT-Service-Desk
oder IT-Asset-Management übergreifend zu
analysieren und zu aussagekräftigen Kennzahlen zu verknüpfen. Damit sollen Verantwortliche den Extrakt aus operationalen
Business-Daten und IT-Servicemanagement-Prozessdaten erhalten. Idealer Weise
stehen auch grafische Auswertungen in rollenbasierten Dashboards für die Ad-hocAnalyse bereit, auch auf mobilen Endgeräten
wie z.B. auf dem iPad.
Soweit die Problemstellung und das ZielSzenario. Betrachtet man die Praxis, sehen
IT-Verantwortliche vor allem zwei Herausforderungen bei der Implementierung eines
IT Performance Managements: Neben dem
IT-Analytics
Anforderungen an eine standardisierte Best-Practice-Lösung für die intelligente ITSteuerung.
• V
erständnis der Steuerungsmechanismen in der IT, Integration von Erfahrungswissen im IT- und Service-Management zur Optimierung der benötigten Kennzahlen
und Strukturen
• Integration standardisierter Prozesse, z.B von ITIL.
• Bereitstellung so genannter Instant-KPIs als Best-Practices, dadurch minimierte
Projektlaufzeiten
• Sofort produktiv, auch als SaaS-Lösung nutzbar, läuft auch auf mobilen Endgeräten
wie z.B. iPad.
• Vorkonfigurierte Adaptoren für alle marktgängigen Systeme, um die heterogen
verteilten Datenquellen rasch anbinden zu können. Das bietet die Grundlage, um
–herstellerunabhängig - Informationen miteinander verknüpfen und interpretieren
zu können
• Verwendung von Opensource-Technologie für eine preisgünstige Gesamtlösung
• Multidimensionale, visualisierte Auswertungen möglich,
• Drill-Down-Analyse zur Identifizierung von möglichen Problemfeldern
• Rollenbasierte, dynamische Dashboards für die interaktive Datenanalyse
• Pivot-Funktion, um Informationen neu anzuordnen, Daten mehrdimensional anzuzeigen und dadurch zu vergleichen bzw. Trends zu erkennen
• Auswertungen sollten auf Knopfdruck als pdf speicherbar, druckbar und als E-Mail
versendbar sein
fehlenden Know how, ein entsprechendes
Konzept zu etablieren, ist häufig unklar, was
eigentlich gemessen werden soll. Fachliche
und technische Key-Performance-Indikatoren für die IT sind der Schlüssel für aussagekräftige Reports. Bei deren Definition ist
fundiertes Erfahrungswissen im IT Service
Management unerlässlich. Damit lassen sich
etwa für den Prozess Incident Management
folgende KPIs erstellen: Anzahl der Incidents, Anzahl doppelter Incidents, Anzahl
der Incidents (und Problems), die auf fehlerhaft dokumentierten CIs basieren, Anzahl
unerledigter Tickets, Incident-Lösung durch
Fernzugriff, Anzahl der Eskalationen etc.
Aber auch für andere Einsatzszenarien ist die
Analyse von IT-Daten wertvoll, z.B. Service
Monitoring, Change Management, Asset
Management oder Finance Management.
Die neue IT braucht Analytics
IT-Organisationen stehen heute unter immensem Druck. Denn Trends wie BYOD,
Outsourcing, Outtasking oder Cloud Computing nagen nicht nur am Image, sondern
auch an deren Existenz. Und so muss sich
die IT von Grund auf neu ausrichten und
zu einer kundenzentrierten Serviceorganisation entwickeln. Aber wie gestalten die ITVerantwortlichen künftig ihr Marktangebot
bedarfsgerecht und wirtschaftlich? Und wie
sichern sie ihre Lieferfähigkeit? Wie also
steuern sie die Durchführung ihrer Services?
Basis hierfür sind valide Kennzahlen und
multidimensionale Auswertungsmöglichkeiten, die alle ITSM-Prozesse treiben und absichern sollen. IT Analytics bietet dies - ohne
die hohen Kosten und den Zeitbedarf herkömmlicher Business-Intelligence-Projekte.
Kostenlose Mitmach-Workshops im
März 2013 in 5 Städten
Wie Unternehmen die IT-Datenflut über
KPIs und Dashboards besser steuern und in
einen Wertbeitrag für Ihr Geschäft umsetzen
können – das wird Interessenten im Rahmen
einer Roadshow vermittelt. Weitere Informationen und Anmeldung unter:
www.it-steuerung.info.
Dr. Thomas Gerick
USU Software AG
[email protected]
www.usu-software.de
itSM Heft 23 - März 2013
itSMF Performance News
Flexibilität hat ihren Preis.
Fertige ITSM-Applikation statt Toolbox?
Die IT-Service-Management- (ITSM) Industrie ist nun schon mehr als 25 Jahre alt. Nach
dem Start auf Großrechnern mit IBMs InfoMan wurde ITSM durch die stetige Verbreitung der Information Technology Infrastructure Library (ITIL) mehr und mehr zu einem
bei vielen Unternehmen akzeptierten Vorgehen. Über die Jahre war zu beobachten, dass
die Entwicklung der IT-Service-Management-Tools konvergierte und zur Abbildung
sehr ähnlicher oder nahezu gleicher Funktionalität geführt hat. Trotz dieser Tatsache liegt
der Fokus der Tools sehr oft nicht darauf,
genau die Funktionalität anzubieten, ITIL
Prozesse out-of-the-box zu unterstützen.
Stattdessen wird die Priorität vieler Produkte
darauf gesetzt, den Kunden das größtmögliche Maß an Flexibilität bereit zu stellen, um
dieses an alle erdenklichen Anforderungen
anzupassen. Dies gibt dem Anbieter stets die
Möglichkeit mit „Ja“ auf jede Frage in einer
Toolauswahl zu antworten.
Diese Flexibilität hat allerdings ihren Preis.
Zuerst einmal sind da die offensichtlichen
Kosten für Berater, die zur Durchführung
der Anpassungen engagiert werden müssen.
Aber es gibt noch weitere Kosten. Unternehmen sehen sich mit dem Problem konfrontiert, sehr viel Zeit darauf zu verwenden, bei
der Klärung simpler Punkte wie zum Beispiel
der Optionen einer Kategorie- oder Impactauswahl einen Konsens zu finden. Und da
sind noch die Kompromisse im Bereich Performance. Toolboxen, wie man diese Applikationen nennt, können nicht vom Hersteller
für jede individuelle Implementierung und
Anpassung jedes Kunden optimiert werden,
da der Hersteller nicht weiß, in welcher Weise
der Kunde die Applikation verändern wird.
Eine reduzierte Nutzungsdauer solcher Toolbox-Applikationen ist ein weiterer Nachteil
der Flexibilität. Weil es eben so einfach ist,
Felder hinzuzufügen und neue Auswahlen
anzubieten, ist es exakt das, was Kunden
schließlich auch tun. Besonders in größeren
Organisationen führt dies zu Formularen
und Bildschirmen, welche sehr viele Felder
enthalten. Diese wurden guten Gewissens
hinzugefügt, um sicher zu stellen, dass jede
Anforderung jedes Stakeholders erfüllt wurde. Unglücklicherweise führt so ein Vorgehen letztendlich zu einer Applikation, die so
schwer zu benutzen und so langsam ist, dass
die IT-Mitarbeiter Widerstände zeigen diese
zu verwenden. Das wiederum veranlasst die
IT-Organisation im Ergebnis sich nach einem anderen ITSM-Tool umzusehen.
Während die Entwicklung der ITSM-Tools
wie geschildert ablief, ist auch die ITSM-In-
dustrie weiter gereift. Die Prozesse und somit
die Anforderungen von Organisationen sind
optimiert und über verschiedene Unternehmen hinweg sehr ähnlich geworden. Mit der
Erfahrung von über 100 ITSM-Implementierungen weltweit haben die Mitarbeiter des
ITRP Instituts vor vier Jahren damit begonnen eine Applikation zu entwickeln, welche
eine vollständig vorkonfigurierte ITSM-Umgebung bereitstellt. Der Fokus lag dabei nicht
auf Flexibilität, sondern auf Geschwindigkeit
und einer sehr guten Usability.
Statt endlose Customizing-Möglichkeiten
anzubieten, nutzt ITRP die Informationen
der Organisationen, deren Services, Rollen
und Verantwortlichkeiten, um automatisch
die Konfiguration anzupassen. Beispiele
hierfür sind: Zuweisung von Anfragen aus
dem User Self Service zu einer spezifischen
1st-Line-Gruppe, der Weiterleitung zum
Support-Team der ausgewählten Serviceinstanz, die Registrierung neuer Changes für
den Change Manager des betroffenen Services oder die automatische Ermittlung der
richtigen Service-Desk-Gruppe aus der Supportvereinbarung. Im Gegensatz zur Aussage
„Ja, diese Anforderung kann mit dem Tool
umgesetzt werden“, wurde sehr viel Funktionalität bereits in ITRP eingebaut und kann
bei Bedarf einfach abgeschaltet werden (wie
zum Beispiel Arbeitszeiterfassung, automatische Email-Benachrichtigungen, Zuweisung
von Change-Aufgaben zwischen Organisationen, etc.).
Keine Toolbox und somit kein Customizing
bei einer ITSM-Applikation? Was sagen Organisationen, die dieses Vorgehen gewählt
haben, zum Beispiel Danone (ca. 1.900 ITMitarbeiter): “Das hat uns zuerst einmal
wirklich beunruhigt, ... aber wenn wir zurückschauen auf die endlose Anpassungsarbeit, die wir früher gemacht haben ... , haben
wir realisiert, dass das ein großer Vorteil ist.
Eine konsistente und fortschrittliche Applikationslogik zu entwickeln wie sie ITRP direkt bietet, ist selbst für große Unternehmen
wie Danone unrealistisch. Die Business-Logik bereits vorkonfiguriert zu haben, hat uns
viel Zeit gespart und wird uns in Zukunft
auch noch viel Zeit einsparen.”
Neben der Tatsache, dass sehr viel Zeit bei
der Implementierung der Applikation gespart wird, ist das Resultat intuitiv und sehr
performant bedienbar. Aber es gibt noch
zwei nicht zu unterschätzende Vorteile:
• D
urch die definierten Datenstrukturen
der Applikation können ohne weite-
re Konfiguration SLAs zwischen der
IT und dem Kunden, aber auch OLAs
sowie UCs zu externen Partnern überwacht werden.
• Aus einem ähnlichen Grund bietet ITRP
einen zweiten Vorteil: Verschiedene Organisationen können die Applikation
nutzen um zusammen zu arbeiten. Es ist
keinerlei Mapping von unterschiedlichen
Prozessen notwendig. Ein externer Service Provider kann nahtlos an Incidents,
Changes oder Requests für Kunden arbeiten, die ebenfalls ITRP verwenden.
Schließlich bleibt noch zu erwähnen, dass ein
Nachteil bei solch einer Vorgehensweise, ohne
Customizing ein ITSM-Tool zu implementieren, nicht zu unterschätzen ist: Der „IKEA Effekt“ entfällt – also die Tatsache, dass man das
schiefe Regal ausgezeichnet findet, weil man
es selbst zusammengeschraubt hat...
Weitere Informationen:
http://blog.itrp.com/2011/04/beware-ofikea-effect.html
http://blog.itrp.com/2011/05/hidden-opportunity-for-enterprise.html
Melhem El-Achkar
ncc solutions GmbH
[email protected]
www.ncc-solutions.com
39
40
Performance News
Einfach, einfach!
Ihre ITSM-Lösung in der Cloud.
ncc solutions GmbH
Tel.: +49 89 / 1890436 0
http://www.ncc-solutions.com
USU World 2013
Serviceprozesse erfolgreich organisieren
USU World 2013: Fachkonferenz für wissensbasiertes Service Management am 12.
und 13. Juni 2013 in Esslingen / Stuttgart
Group, Bundesagentur für Arbeit, O2, Victorinox oder Voith berichten aus der Praxis,
wie ihre Strategien zur Kundengewinnung
und -bindung aussehen.
Auf der 23. Konferenz für Kunden, Interessenten und Partner der USU-Gruppe erwartet die ca. 300 Teilnehmer ein hochkarätiges
Programm, das viele Facetten rund um das
„Service Management“ aufgreift. Über 40
Referenten präsentieren praxisnah und aus
ihren jeweiligen Perspektiven, wie sich ihre
Unternehmen im Wettbewerbsumfeld durch
erfolgreiche Servicekonzepte und deren
praktische Umsetzung differenzieren.
Die Schnittstelle zum Kunden – ob intern
oder extern – ist der Ort, wo Vertrauen gefestigt oder verspielt wird. Entsprechende
Serviceabläufe sind jedoch komplex und wissensintensiv – ob im technischen Support, im
operativen IT-Betrieb, im Call- und ServiceCenter oder in anderen Bereichen. Deshalb
ist die intelligente Informations-versorgung
entlang der Servicelieferkette erfolgskritisch.
Sie ermöglicht konkrete qualitative, aber
auch quantitativ messbare Vorteile. Unternehmen wie Apollo Optik, Arburg, Baloise
Fünf Themenschwerpunkte werden in eigenen
Vortragsreihen behandelt: IT & Service Lifecycle Management nach ITIL, Software Asset
Management, Social Media & Social CRM
im Kundenservice, Service Apps & ServicePortale sowie Knowledge Solutions im IT- und
Kundenservice. Ziel ist es, den Teilnehmern
durch einen intensiven fachlichen Erfahrungsund Wissensaustausch Ideen und Ansätze für
konkrete und kreative Lösungen ihrer persönlichen Herausforderungen zu liefern.
Gelegenheit zum Networking und Austausch
zwischen Kunden und Interessenten besteht
in Diskussionsrunden, Anwenderforen sowie
in der Fachausstellung. Interessierte können
sich vor Ort über relevante Lösungen der USUGruppe und ihrer Veranstaltungspartner baramundi, EMDS, Liferay, Scheer Management,
Siemens Enterprise sowie Talend informieren.
Bereits am 11. Juni finden jeweils ganztägige
Workshops statt, u.a. zu den Themen Service
Portfolio Management, Sourcing von IT-Services und IT Financial Management.
Bis einschließlich 15. April 2013 gilt der Frühbucherpreis von 300 Euro. Rabatte erhalten
Teams aus drei und mehr Personen pro Unternehmen sowie Mitglieder der Organisationen
itSMF e.V., SERVIEW Institute, Call Center
Verband Deutschland und callcenterforum.at.
Weitere Informationen und Anmeldung auf
der Veranstaltungs-Website www.usuworld.com
Mit der kundenspezifische Entwicklung
und Pflege komplexer Applikationen formen USU-Experten Anwenderwünsche,
Branchen-Know-how und Technologiekompetenz zu maßgeschneiderten Individuallösungen. Weitere breit etablierte
Kernkompetenzen sind die Prozess- und
Systemintegration sowie das Realisieren von
Wissens- bzw. Mitarbeiterportalen.
Weitere Informationen: www.usu-software.de
Dr. Thomas Gerick
USU Software AG
[email protected]
www.usu-software.de
itSM Heft 23 - März 2013
Impressum
41
Impressum
Herausgeber
Ute Claaßen, Bernd F. Dollinger, Hans-Peter Fröschle, Dr. Kurt Glasner,
Steven Handgrätinger, Stefanie Kemp vom itSMF Deutschland e.V., [email protected].
Zeitschrift berechtigt auch ohne Kennzeichnung nicht zu der Annahme, dass
solche Namen im Sinne der Warenzeichen- und Markenschutzgesetzgebungals frei zu betrachten wären.
Inserentenverzeichnis
it-Service-Management
Organ des IT Service Management Forums
Deutschland e.V. (itSMF)
http://www.itsmf.de/mitgliederzeitschrift.html
8. Jahrgang – Heft 23 – März 2013
ISSN: 1861-9258
© itSMF Deutschland e.V.
itSMF Deutschland e.V.
Mainzer Landstrasse 176
D-60327 Frankfurt
E-Mail: [email protected]
Web: www.itsmf.de
Fon: +49 700 - 02 02 2001
Fax: +49 180 - 588 908 8167
Glenfis AG
USU AG
Materna GmbH
COC AG
NovaTec GmbH
FrontRange Solutions Deutschland GmbH
Q-Perior AG
netpoint gmbh
Blue Elephant Systems GmbH
Hewlett-Packard GmbH
Wendia AG
Maxpert GmbH
ncc solutions GmbH
U2
U4
S. 5
S. 7
S. 9
S. 12
S. 17
S. 25
S. 27
S. 31
S. 35
S. 37
S. 40
Redaktion
Katrin von Goetze
it-Service-Management
Anzeigen und Vertrieb
Katrin von Goetze, itSMF Deutschland e.V.
Tel. + 49 7 11 - 7 82 95 95 50, [email protected]
Layout und Satz
Renate Lahnstein, itSMF Deutschland e.V.
Druck
team digital GmbH
Hopfmannsfelder Str. 7, 36341 Lauterbach
Bezugsbedingungen (Stand 1.1.2012):
Erscheinungsweise: 4 Ausgaben pro Jahr, Lieferung im Jahresabonnement
gegen Vorausberechnung. 4 Lieferungen = 52,00 Euro zzgl. Versand. Das
Abonnement verlängert sich zu den jeweils gültigen Bedingungen um ein
Jahr, wenn es nicht 8 Wochen vor Ablauf des Bezugszeitraums schriftlich
gekündigt wird. GI-, BITKOM-, iSQI-, OCG- und SwissICT-Mitglieder erhalten eine Ermäßigung von 25% auf das Abonnement, der Studentenpreis beträgt 34,00 Euro (Studentenbescheinigung erforderlich). Mitglieder des itSMF
Deutschland e.V. erhalten die Zeitschrift im Rahmen ihrer Mitgliedschaft.
Einzelheft 14,00 Euro zzgl. Versandkosten.
Urheberrecht
Die Zeitschrift sowie alle in ihr enthaltenen einzelnen Beiträge und Abbildungen sind urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich
vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung
des Verlags. Fotokopien für den persönlichen und sonstigen eigenen Gebrauch dürfen nur von einzelnen Beiträgen oder Teilen daraus als Einzelkopien hergestellt werden. Jede im Bereich eines gewerblichen Unternehmens
hergestellte oder benützte Kopie dient gewerblichen Zwecken gemäß § 54 (2)
UrhG und verpflichtet zur Gebührenzahlung an die VG WORT, Abteilung
Wissenschaft, Goethestraße 49, 80336 München, von der die Zahlungsmodalitäten zu erfragen sind. Die Wiedergabe von Warenbezeichnungen in dieser
Zeitschrift des itSMF Deutschland e.V.
it-Service-Management versteht sich als ein Medium für den Austausch von
Informationen aus Praxis und Forschung des IT-Service-Management. Neben Erfahrungen aus der Praxis und Entwicklungen bei aktuellen Standards
und Technologien werden Grundlagenbeiträge und Forschungsergebnisse
des IT-Service-Management veröffentlicht. Das Spektrum der Beiträge reicht
von Einführungen und Praxisberichten bis hin zu wissenschaftlichen Fachbeiträgen. Ein Serviceteil enthält außerdem Informationen zu Konferenzen
und Workshops, Services & Produkte sowie neuen Büchern. it-Service-Management ist das offizielle Organ des IT Service Management Forums (itSMF)
Deutschland e.V. und informiert auch über Ereignisse und Aktivitäten
des itSMF.
Vorschau* auf Heft 24 der itSM-Zeitschrift
(Juni 2013)
Schwerpunkt: „ITSM im Mittelstand“
Wenn Sie zu einer der nächsten Ausgaben der itSM-Zeitschrift einen
Beitrag leisten möchten oder Anregungen haben, wenden Sie sich bitte
an [email protected] Sie sichergehen wollen, dass Ihr
Vorschlag bei entsprechender Eignung berücksichtigt werden kann,
wenden Sie sich bitte spätestens ca. 6 Monate vor Erscheinungstermin
des jeweiligen Heftes an uns.
* Änderungen vorbehalten.
Internationale Fachkonferenz für
wissensbasiertes Service-Management
mehr Infos
am 12. und 13. Juni 2013 in Esslingen bei Stuttgart
Wissen ist menschlich! Um herausragende, kundenorientierte Services bieten zu können, braucht
es mehr als funktionierende Systeme, Prozesse und Standards. Die Nachfrage nach individuellen
Service-Leistungen und relevanten Informationen, die jederzeit und überall verfügbar sind, steigt
weiter – und damit auch der Druck auf tragfähige Lösungen und Kostenstrukturen in IT und
Kundenservice. Auf der USU World lernen Sie neue Ansätze und Strategien kennen, wie der Transfer
in die Praxis gelingt.
Fünf Brennpunktthemen stehen im Mittelpunkt der USU World 2013:
•
•
•
•
•
IT & Service Lifecycle Management
Service Apps & Service-Portale
Knowledge Solutions im IT- und Kundenservice
Software Asset Management
Social CRM – Social Media im Kundenservice
batt
a
R
%
0
1
r und
e
-Mitglied
für itSMF
ril!
bis 15. Ap
is
re
P
re
Frühbuch
Außerdem: Intensiv-Workshops am 11. Juni:
•
•
•
•
Best Practices für den Aufbau Ihres Service-Portfolios
Financial Management – kostenstransparente Services
Best Practices rund um den Redaktionsprozess von Lösungsdokumenten
Sourcing von IT-Services
Unser Konferenzprogramm ist maßgeschneidert für
Führungs- und Fachkräfte aus IT-Dienstleistungsbereichen und kundenorientierten Serviceorganisationen.
Nutzen Sie die USU World, um gezielt Ihr Fachwissen
zu vertiefen und Ihr Netzwerk auszubauen.
Jetzt anmelden und bis 15. April Frühbucher-Preis sichern:
usuworld.com
USU AG • Spitalhof • D-71696 Möglingen • www.usuworld.com
The Knowledge Business Conference