PDF-Download

Transcription

PDF-Download
www.detecon-dmr.com
DMR
Das Magazin für Management und Technologie
Effiz
ie
nz
ESSAY:
Detecon Management Report - 1 / 2010
Detecon Management Report - 1 / 2010
Architecture meets ICT
Clever andocken
Was Carrier vom Silicon Valley über Innovation lernen können
Am Puls der Veränderung
Change Management ist kritischer Erfolgsfaktor in Effizienzprojekten
Stark bedeckt oder wolkenlos?
Cloud Computing in der IT-Strategie der Deutschen Post
Detecon
Management
Report
1 / 2010
Editorial
Effizienz
Liebe Leserinnen und Leser,
innovativ, kraftvoll, visionär, aber in der Substanz fest verankert!
Die Meisterwerke der Architektur bilden eine vollendete Synthese aus Form und Funktion. Die Erbauer hatten im Spannungsfeld aus Idee, Ästhetik und Wirtschaftlichkeit
den richtigen Weg verfolgt.
Gerade weil der Architekt ein komplexes Zusammenspiel aus abstrakten Vorstellungen,
konkreten Prozessen und multiplen Anforderungen steuern muss, hat Detecon diese
Bildsprache ab sofort für den eigenen Unternehmensauftritt ­gewählt. Denn in der Baukunst existieren viele Analogien zur ICT, wo anspruchsvolle Projekte ebenfalls einen
ganzheitlichen Blick verlangen.
Hohe Aufmerksamkeit gebührt dabei auch der Effizienz, dem Leitthema der aktuellen
Ausgabe – unbestreitbar ein Kriterium, das jeder Projektleiter, ob beim Bau einer Konzerthalle oder dem Entwurf einer Applikationslandschaft, erfüllen muss. Beispiele hierfür sind intelligent gestaltete Infrastrukturen, optimaler Ressourceneinsatz und Energieverbrauch, aber auch ein reibungsloses Kommunikationsmanagement.
Notwendige Richtlinien und Kennzahlen hierfür muss sich jede wirtschaftliche Organisation stets vor Augen halten. Alleine das Vertrauen auf Effizienz darf jedoch kein
Diktum sein, das jede Entscheidung vorwegnimmt. Frank Gehry, der weltberühmte
Architekt, warnt sogar davor, sich hinter dem vermeintlich Rationalen zu verstecken
und eine Objektivität zu suchen, die es gar nicht gibt.
Wirksamkeit, Leistungsfähigkeit und Wirtschaftlichkeit – alles somit unabdingbare
­Voraussetzungen für das Gelingen. Grundsätzliche Strategien und Ziele ersetzen sie
­jedoch nicht. Daher haben die Autoren auf den folgenden Seiten mit ihren Plädoyers
für effiziente Vorgehensweisen stets auch das Übergeordnete im Fokus.
Wir wünschen Ihnen eine informative und spannende Lektüre!
Dr. Klaus Hofmann
CEO, Detecon International
1
Detecon Management Report • 1 / 2010
Effizienz
Inhalt
Essay
Architecture meets ICT –
Eine Analogie nicht nur
in Bildern
Seite 4
Strategy
Clever andocken 8
Was Carrier vom Silicon Valley über Innovation lernen können
Gutes Klima 14
Die Umwälzungen im Energiebereich bedeuten mehr als nur die Entwicklung
eines großvolumigen M2M-Absatzmarktes
Was gut ist, geht noch besser 20
Providerwechsel optimiert IT Outsourcing-Leistungen
Impressum:
Herausgeber:
Detecon International GmbH
Frankfurter Straße 27
65760 Eschborn
Germany
www.detecon.com
[email protected]
2
Detecon Management Report • 1 / 2010
Aufsichtsrat:
Klaus Werner (Vorsitz)
Chefredaktion:
Ingrid Blessing (V.i.S.d.P.)
Design:
Ernst Formes
Geschäftsführung:
Dr. Klaus Hofmann (Vorsitz)
Andreas Baumann
Local Court Bonn HRB 2093
Registered Office: Bonn
Redaktion:
Christine Wolters
e-Mail: [email protected]
Druck:
Kristandt GmbH&Co.KG
Frankfurt/Main
Erscheinungsweise: vierteljährlich
ISSN 1867-3147
Inhalt
Organization
Gut geteilt ist doppelt gewonnen 28
Richtlinien für effizientes Infrastruktur-Sharing
Am Puls der Veränderung 34
Change Management ist kritischer Erfolgsfaktor in Effizienzprojekten
Den Goldgehalt prüfen 40
Verbesserung der Effektivität von Operationen zur Umsatzsicherung
Vom Traum zur Wirklichkeit 50
Effiziente und kundenorientierte Einkaufsfunktionen in globalen Unternehmen
Hochsaison 56
Krisenzeiten sind gute Zeiten für IT-Effizienzprojekte
Interview mit Dr. Stefan Schloter, CIO der T-Systems International GmbH
Technology
Interview mit André Feld, Deutsche Post DHL
Stark bedeckt oder wolkenlos? 64
Cloud Computing in der IT-Strategie der Deutschen Post
Grüne Vorreiter 68
Energieoptimierung im Rechenzentrum mit GreenICT
Detecon publiziert ! 76
3
Detecon Management Report • 1 / 2010
Essay
Architecture meets ICT –
Eine Analogie nicht nur in Bildern
E
rfolgreiche Architektur setzt Visionen in die Realität um. Sie unterliegt strategischen Vorgaben,
um die gesetzten Ziele zu erreichen. Gleichzeitig soll sie ganz einfach ihre Funktion erfüllen und darf
knappe Budgets nicht sprengen. Insofern unterliegen Baukunst und Informationstechnologie meist
ähnlichen Erwartungen. Darüber hinaus fordern jeweils ein komplexes Zusammenspiel vieler Beteiligter, der ständige Wechsel zwischen Abstraktion und konkreten Technologien sowie die Anforderungen an ein hoch detailliertes Design Prozesse und Kommunikation heraus. Und nicht zuletzt trägt
der Architekt vom Entwurf über die Realisierung bis zur Abnahme eines Bauwerks eine sehr hohe
Verantwortung.
Detecon hat sich für die Architektur als Bildsprache entschieden, weil sich über dieses Sujet hervorragend Analogien zu dem, was wir tun und wie wir es tun, herstellen lassen. So spüren wir gegenüber
unserem Kunden ebenfalls hohe Verantwortung, begleiten ihn über alle Projektphasen hinweg und
verbinden innovative Technologien mit realistischen Einsatzszenarien. Zudem ist ein Architekt – wie
wir – Spezialist. Denn als ICT-Management-Beratung sind wir Spezialisten in einem Markt, in dem
oftmals jeder alles tut. Der erfahrene Spezialist macht daher den Unterschied und steht für etwas
Besonderes, weil er etwas besser kann als andere.
Einen essentiellen Gewinn bietet dabei die Sicht des Architekten, nämlich den Blick aufs Wesentliche:
Die IT muss stets ein hohes Maß an Komplexität in den Griff kriegen, wobei die Technologiestrukturen, deren Investitionen manchmal zwei- bis dreistellige Millionenbeträge verschlingen können, oft
nur schwer beherrschbar sind. Ein Grund hierfür liegt unbestreitbar in der immer schneller ­steigenden
Flut neuer Markt- und Kundenanforderungen.
Bedenkenswert ist aber auch die These, dass Konzeption und Realisierung von IT oft eher nach Denkmustern ingenieurwissenschaftlicher Planung - im Bauwesen entspräche dies der Tätigkeit des Bauingenieurs - erfolgt, als tatsächlich nach Grundprinzipien einer Architektur. Denn die Kom­plexität
heutiger Anforderungswelten lässt sich immer weniger nur auf technisch-funktionale Weise bewältigen, auch wenn die Menge an ICT-Geräten im Alltag der Menschen dies so erscheinen lässt. Frei
nach Walter Gropius, Mitbegründer des Bauhausstils und Wegbereiter moderner Architektur, ließe
sich daher sagen: „Architektur beginnt da, wo das Ingenieurwesen aufhört.“
Enterprise Architecture Management, ein in der IT immer wichtigerer Lösungsansatz, schlägt daher
vor, durch die Einführung architektonischer Planungsprinzipien, einer begrenzten Zahl kombinierbarer, technischer Grundbausteine sowie besonders qualifizierter „ICT-Architekten“ das Dilemma
4
Detecon Management Report • 1 / 2010
Architecture meets ICT
aus Anforderungen und Budgets aufzulösen. Etliche Unternehmen haben so bereits beachtenswerte
Erfolge im Hinblick auf eine zukunftssichere, flexible IT-Architektur erzielt.
Doch machen Aufwand, Dauer und organisatorische Konsequenzen gerade bei umfangreichen ITProjekten den Beteiligten immer stark zu schaffen – wohl auch deshalb, weil die Planer im Streben,
es allen recht zu machen, zu sehr auf ein Primat funktionaler Anforderungen vertrauen. Frank Lloyd
Wright, Architekturikone der Vereinigten Staaten, verwies darauf, dass alle Maßstäbe der Architektur
menschliche Werte sein müssen, da sie ansonsten nicht nachhaltig seien. Sowohl die Geschichte der
Architektur als auch der Informationstechnologie war aber immer von Versuchen gekennzeichnet,
objektiv messbare Kriterien zu entwickeln, um unangreifbare Prioritäten für funk­tionale Anforderungen zu schaffen und so „wichtig“ von „unwichtig“ zu trennen.
Gerade die veränderlichen, unsicheren und teils unverständlichen Erwartungen der Kunden oder
Bauherren wollten die Projektleiter auf diese Weise durch berechenbare Logik ersetzen. Alleine die
Menge pseudo-objektiver Entscheidungsmodelle und die stetige Diskussion darüber zeigen, dass eine
objektive Priorisierung von Funktionen in letzter Instanz eigentlich gescheitert ist. Große Erfolge
wurden immer dann erzielt, wenn der Technologieeinsatz – oder auch eine ICT-Architektur – sich
direkt an den wichtigsten, aber leider nur unscharf formulierbaren Trends von Märkten, Kunden und
Konsumenten ausrichtete.
Innovative Technologien sollten demnach nicht nur Kundenanforderungen funktional umsetzen,
sondern können als Inspirationsquelle und Treiber den Kunden vollkommen neue Erfahrungswelten
eröffnen. Brunelleschis Dom in Florenz hätte ohne die neue Kuppelbautechnologie nicht entstehen können, ohne die modernen Statik-Simulations-Programme wären Frank Gehrys Bauten nicht
denkbar. Und auch die Designer von Apple haben betont, dass ihre wichtigsten Inspirationen unter
anderem aus der frühen „Braun“-Designwelt stammten und sie eigentlich nicht Computer, sondern
Kultobjekte schaffen wollen – was mit dem iPhone ja bestens gelungen ist.
Neben diesen inhaltlichen Parallelen bietet die Architektur letztendlich aber auch durch ihre Symbolik der ICT und gerade Detecon vielfältige Möglichkeiten, entscheidende Werte wie Haltung,
Leistung und Stil nachhaltig zu veranschaulichen. Die enormen technischen Innovationen und die
visionäre Kraft, die etwa den Werken von Santiago Calatrava und Paul Andreu inne wohnen, schlagen
eine wunderbare Brücke zu den Charakteren der Detecon: Outstanding – Committed – Forward
Thinking.
5
Detecon Management Report • 1 / 2010
Architecture meets ICT:
Detecon mit neuem Markenauftritt
Detecon International präsentiert sich in neuem Gewand: Bilderwelten aus visionärer Architektur
prägen ab sofort den Internetauftritt und transportieren Werte des weiter­entwickelten Markenleitbildes. Beim Markenkern legt Detecon den Fokus künftig noch stärker auf Beratungs­lösungen,
die sich aus dem Einsatz von Informations- und Telekommunikationstechnologie ergeben.
Anzeige
We make ICT strategies work
In einem Markt, in dem jeder alles macht, hebt sich der Experte von der Masse ab.
g
ultin
s
Con
N
D
CO
E
T
E
Strategy
Yasmin Narielvala, Martin Beiten
Clever andocken
Was Carrier vom Silicon Valley
über Innovation lernen können
Bill Joy, Mitbegründer von Sun Microsystems, hat es so formuliert: „Egal wer
du bist, die meisten Top-Leute arbeiten
für jemand anderen“. In einer Branche,
die so dynamisch ist und sich so rasant
entwickelt wie die Telco-Branche, wird
„innovativ“ mit „intelligent sein“ übersetzt: Innovatoren haben intelligente
Ideen und die Mittel, diese erfolgreich
auf den Markt zu bringen.
8
Detecon Management Report • 1 / 2010
Clever andocken
it Blick auf die heutige Technologiebranche sieht es so
M
aus, als machten sich speziell die Unternehmen im Silicon
­ alley Joys Botschaft zu eigen: Sie halten über die Grenzen ihrer
V
eigenen Unternehmen hinweg nach neuen Ideen Ausschau. In
Kalifornien existiert ein pulsierender „Markt“ für externe Innovationen. Dieser besteht aus einer Fülle an Start-ups und Jungunternehmen, die hervorragende Ideen produzieren und niedrige Eintrittsbarrieren nutzen, um diese Ideen auf den Markt zu
bringen.
Die Kraft externer Innovation nutzen
Es gibt eine Reihe von etablierten großen Playern, die zur Ausweitung ihres Portfolios nach Kooperationspartnern suchen.
Oracle und Cisco Systems sind zwei exzellente Beispiele ­extrem
aktiver Unternehmen in diesem Markt. Beide haben bei der
Suche nach neuen Ideen blitzschnell reagiert und in den vergangenen fünf Jahren zusammen mehr als 80 Unternehmen
übernommen. Allein Cisco unterhält ein aktives Netzwerk aus
rund 100 Allianzen mit anderen Firmen. Salesforce.com, führend im Bereich Software-as-a-Service, bietet gegenwärtig mehr
als 800 extern entwickelte Anwendungen von 600 Unternehmen auf ihrer ‚force.com‘ Anwendungsplattform an. Dies hat
dazu geführt, dass diese Unternehmen durch frühzeitigen Zugang zu neuen, einsatzbereiten Technologien einen effizienten
Weg zur Durchsetzung von Innovationen gefunden haben.
Auch wenn diese führenden Software und Supply Player den
Markt für externes Know-how erfolgreich für sich nutzen
­konnten, war es bislang nicht jedem Unternehmen in der Technologiebranche möglich von dieser Methode zu profitieren.
­Telco-Carrier beispielsweise ringen immer noch mit der Frage,
wie sie diese neue Ideenquelle erschließen können. Aus einer
von Detecon kürzlich durchgeführten Studie über Start-ups
und Venture-Unternehmen im Silicon Valley ergibt sich im
Hinblick auf Carrier, die auf der Suche nach Kooperationen mit
oder ­Akquisitionen von Start-ups sind, bestenfalls ein gemischtes
Bild. Befragte Unternehmer bezeichneten das Management der
Carrier als „extrem risikoscheu“ und verwiesen auf ­deren „langsame Entscheidungsprozesse“. Aus Sicht der Start-ups sind Vertragsabschlüsse von langwierigen und schwerfälligen Prozessen
begleitet. Außerdem gaben die meisten Start-ups an, dass die
Carrier, mit denen sie geschäftlich verkehrten, über kein formales, gesteuertes Partnermanagement verfügten. Das Ergebnis
war, dass einige Venture Capital-Gesellschaften Start-ups generell davon abrieten, mit Carriern zu kooperieren.
Aussagen wie diese sollten ein Warnsignal für Carrier sein, die
auf der Suche nach neuen Ideen und Geschäftsmodellen sind,
aber in einer post-krisengeprägten Umgebung durch komplexe
interne Entwicklungsprozesse und Budgetbeschränkungen
herausgefordert werden. Doch trotz der offensichtlichen Hindernisse bietet der externe Markt denjenigen unbestreitbare
Vorteile, die bestrebt sind, sich nicht nur als „Bitpipes“ zu positionieren. Partnerschaften und Allianzen mit Start-ups können
für Carrier, die Innovationen anstreben, ein einfacher, schneller
und effizienter Weg sein. Durch Vertragsabschlüsse mit Jungunternehmen haben sie Zugriff auf erfolgversprechende Ideen.
Umgekehrt können sie ihre Vertriebs- und Absatzfähigkeiten
anbieten und somit Start-ups zur Erlangung der erforderlichen
Größe verhelfen. Eine Win-Win-Situation für beide: Das Eingehen einer Allianz erfordert nur geringe Ressourcen, bei Misserfolg kann diese schnell und kostengünstig aufgelöst werden.
Enormes Potenzial bietet sie aber auf jeden Fall.
Basierend auf Best Practice-Beispielen aus dem Silicon Valley
­zeigen wir anhand einer Methode auf, wie Carrier auf dem
„Markt für externe Innovation“ in zwei Schritten erfolgreich
agieren können. Der erste Schritt besteht darin, ein pragmatisches ­Kooperationsmodell zu finden und eine für Start-ups
attraktive Wertaussage zu formulieren. Der zweite Schritt
­beinhaltet den Aufbau interner Fähigkeiten, um Partnerschaften
in Einklang mit einem Lifecycle-Ansatz zu managen.
1. Schritt: Agieren Sie als Plattform!
Der erste Schritt für Carrier auf dem Weg zum Erfolg ist ein
pragmatisches Kooperationsmodell. Einerseits kann das Ein­
gehen von Partnerschaften ein problemloser, flexibler und
schneller Weg sein, um auf Ideen zuzugreifen. Andererseits beruhen Partnerschaften auf freiwilligen Übereinkommen, die im
­Gegensatz zur Akquisition nicht einseitig durchgesetzt ­werden
können. Zur Sicherstellung eines erfolgreichen Gelingens
besteht daher auf beiden Seiten das Bedürfnis nach Gewähr­
leistung eines gewissen Mehrwerts.
Glücklicherweise verfügen Carrier über hochwertige Assets, die
sie mit an den Verhandlungstisch bringen können. Viele Startup-Unternehmen – einschließlich jener, die Bestandteil unserer
Studie waren – haben hervorragende Ideen und Visionen, verfügen jedoch nicht über die Fähigkeiten und Ressourcen, ihr
Geschäft für den Massenmarkt auszuweiten. Geld ist gewöhnlich knapp und organisches Wachstum kann sich als extrem
schwierig erweisen. Auch wenn einige – zum Beispiel Facebook
9
Detecon Management Report • 1 / 2010
Strategy
oder YouTube – erfolgreich sind, muss bei den Anwendern immer noch starke Überzeugungsarbeit geleistet werden, wenn
es um kostenpflichtige Dienste geht. Im Gegensatz dazu sind
die Carrier mit ihrer ausgereiften Technologieintegration sowie Marketing- und Vertriebsmaschinerie im Massenmarkt zu
­Hause. Umfangreiche Produkteinführungen und die Belieferung des Massenmarktes mit Technologielösungen können sie
problemlos meistern. Sie haben die entsprechende Erfahrung in
der Gewinnung von Neukunden und der Pflege ihres bestehenden Kundenstamms. Häufig verfügen sie über etablierte Handelsbeziehungen durch Postpaid-Verträge, die für den Absatz
weiterer Dienste genutzt werden können. Microsoft verkauft
beispielsweise seine Anwendung „Windows Live for Mobile“ an
Carrier, die diese dann direkt an ihre Kunden weiter veräußern.
Der Preis für die Anwendung erscheint grundsätzlich nicht
als Posten auf der Rechnung des Kunden, sondern ist in den
monatlichen Vertragsgebühren enthalten. Außerdem betreiben
Carrier ein großes und effizientes Vertriebsnetz, um über herkömmliche Ladengeschäfte und bekannte E-Channels Zugang
zu ihren Kunden zu haben.
Die Chance für Carrier besteht darin, ihre Expertise und Fähigkeiten in diesen Bereichen zu nutzen, um als „Plattformen“ zu
agieren, an die Start-ups andocken und ihre Ideen großformatig kommerzialisieren können. Carrier und Start-ups könnten
somit Allianzen zur gegenseitigen Nutzung ihrer Ressourcen
bilden: Carrier würden Zugriff auf vielversprechende Ideen
erlangen, im Gegenzug würden sie Start-ups den Zugriff auf
­ihren ­Kundenstamm und ihre Absatz- und Vertriebs­fähigkeiten
ermöglichen. Abbildung 1 verdeutlicht das Partnerschafts­
konzept.
Auch wenn die praktische Umsetzung dieser Plattformpartnerschaft nicht ganz leicht ist, kann die Verbindung der Stärken von Start-ups und Carriern von erheblichem Vorteil sein.
Apple‘s App Store ist ein anschauliches Beispiel für eine solche
Plattformpartnerschaft, weil sie innovative Ideen von Jung­
unternehmern mit dem Kundenstamm und der Vertriebsexpertise von Apple über deren hervorragend integriertes System von
Endgeräten und iTunes vereint.
Beispiele wie Salesforce.com und Apple integrieren externe Innovationen, die auf einer einzigen Plattform oder einem Endgerät basieren. Die echte Chance für Carrier besteht jedoch
darin, ein Konzept anzustreben, das über diese Einzelszenarien
hinausgeht: Ein Carrier, der Festnetz-, Mobilkommunikationsund Entertainment-Services über viele verschiedene Netze und
ein umfangreiches Endgeräteportfolio anbietet, verfügt über
das Potenzial, seinen Kunden eine noch größere, stärker integrierte, innovativere und daher überzeugendere Bandbreite an
Produkten und Services anzubieten.
10
Detecon Management Report • 1 / 2010
Dieses „Supermarktmodell“ ist eine sich neu entwickelnde
­Theorie für Telco 2.0. Könnte der Carrier der Zukunft wie ein
Supermarkt agieren und die besten Produkte und Services, die
auf der Konnektivität Dritter basieren, an einem für alle Kunden geeigneten Standort vereinen? Könnten Carrier mit Startups und Endanwendern dadurch Mehrwert erzeugen, dass sie
sich als primäre Schnittstelle neu positionieren, um den Markt
nach Ideen abzusuchen, ein unverwechselbares Service-Erlebnis
anzubieten und für künftige Dienste eine hochqualitative Lieferung zu gewährleisten?
Für Carrier ist das Partnering-Modell mit Start-ups und innovativen Unternehmen nicht nur eine schnelle und risikoarme
Methode zur Markteinführung von neuen Produkten und Services, sondern unterstützt auch das verbesserte Markenimage
und die Kundentreue und erzeugt neue Cross- und Up-SellingMöglichkeiten. Start-up-Partner können sofort auf eine größere
Kundenbasis zugreifen und profitieren durch die Verbindung
mit einem bewährten Supplier von einem deutlich geringeren
Marketing- und Vertriebsaufwand sowie von der unmittelbar
steigenden Markenpositionierung. Aufgrund des leichteren Zugriffs auf Produkte, der Kostenvorteile durch Skaleneffekte und
des Komforts einer einzigen Rechnung gehören – wie im Fall der
Supermärkte – auch die Endverbraucher zu den Gewinnern.
Die Vorteile eines effizienten Innovationsansatzes, bei dem
Start-ups und Carrier ihre Kräfte in Partnerschaften bündeln
und Ideen zu Kommerzialisierungszwecken austauschen, sind
erheblich. Doch die zentrale Herausforderung, die sich bei
­allen Partnerschaftsszenarien stellt, bleibt bestehen: Wie können ­beide Parteien das theoretische Versprechen einer Allianz,
das heißt die Maximierung ihres Wertes, für sich nutzen? Was
müssen Carrier unternehmen, damit dieses Plattformmodell der
Zusammenarbeit funktioniert?
2. Schritt: Verfolgen Sie einen strukturierten Ansatz!
Nachdem im ersten Schritt ein Vorschlag zur Plattform getroffen
wurde, müssen Carrier in einem strukturierten Ansatz festlegen,
mit wem sie eine Partnerschaft unter welchen Voraussetzungen
eingehen wollen. Auch wenn Start-up-Partnerschaften in der
Lage sind, die Innovationseffizienz voranzutreiben, ermöglichen sie nur bei professioneller Durchführung den gewünschten
Nutzen.
Unsere Studie ergab, dass Start-ups in der Vergangenheit ziemlich chaotische Beziehungen mit Carriern erlebt hatten, die sich
weder durch Zielsetzungen noch durch Fokus auszeichneten.
Die Anzahl der Personen, die an Verhandlungen beteiligt waren sowie die lange Zeitspanne, die für das Fällen von Entscheidungen nötig war, wurden häufig als befremdlich empfunden.
Clever andocken
Am häufigsten verwiesen Start-ups auf eine vorherrschende Kultur, die Ideen ablehnt, da sie „hier nicht ihren Ursprung hatten“
(not-invented-here-Syndrom). Darüber hinaus beklagten sie einen Mangel an Aufgeschlossenheit sowie die Nichtbereitschaft,
mit den Partnern in enger Zusammenarbeit gemeinsame Zielsetzungen zu verfolgen. Diese Art von Problemen führen häufig
zu Situationen, in denen beide Parteien ihre anfänglichen Zielsetzungen nicht erreichen und das Scheitern der Partnerschaft
vorprogrammiert ist.
Zur Reduzierung dieser Risiken ist es erforderlich, dass Carrier
eine Reihe organisatorischer und prozessbezogener Anforderungen für den gesamten „Lebenszyklus der Partnerschaft“ definieren und umsetzen. Dieser Lebenszyklusansatz für Partnerschaften führt die Carrier durch den Prozess, Start-up-Partner
in einer Abfolge von sechs Schritten zu suchen, auszuwählen
und effizient und effektiv zu managen. Abbildung 2 auf Seite 12
veranschaulicht den Lebenszyklus.
1. Scannen: Verschaffen Sie sich einen Überblick über den Markt
(Long List).
Zentraler Erfolgsfaktor: Entdecken Sie anhand einer gut strukturierten Methode neue Ideen und potenzielle Partner.
Best Practice: Scanning stellt sicher, dass alle potenziellen neuen Produkte, Service-Chancen und Partnerschaften identifiziert werden. Strukturierung ist dafür die Grundvoraussetzung.
Scan-Methoden müssen professionell, gut organisiert und weitreichend sein.
2. Filtern: Identifizieren Sie die High-Potentials aus der Kandidatenliste (Short List).
Zentraler Erfolgsfaktor: Formulieren Sie relevante, messbare
Kriterien.
Best Practice: Um zwischen High-Potential-Möglichkeiten und
„Hype“ unterscheiden zu können, müssen die Carrier ihre Long
List unter Berücksichtigung wichtiger Kriterien filtern. Die exakten Kriterien hängen von der jeweiligen Strategie ab, sollten
aber Dimensionen wie Marktpotenzial, strategische Passgenauigkeit in Bezug auf den Carrier und seine Produktangebote,
problemlose kommerzielle und technische Integration sowie
Anlaufzeit umfassen.
3. Auswählen: Wählen Sie die passenden Kandidaten aus der
Short List.
Zentraler Erfolgsfaktor: Partnerschaften sind ein „People Business“. Schauen Sie bei der Wahl des passenden Partners nicht
nur auf das wirtschaftliche Potenzial.
Best Practice: Die Wahl beinhaltet eine gründliche Bewertung
anhand eines formalen Entscheidungsprozesses. Unternehmen,
die es auf die Short List schaffen, müssen noch detaillierter bewertet werden, um ein wohlüberlegtes Urteil über ihr Partnerschaftspotenzial zu fällen. Eine wirtschaftliche und technische
Due Diligence ist ein valides Instrument, um ein deutliches Bild
über die Stärken und Schwächen zu erlangen. Die daraus resultierenden Ergebnisse können dokumentiert und mit den aufgestellten Kriterien verglichen werden, um so den Entscheidungsprozess einzuleiten. Carrier sollten jedoch nicht ausschließlich
Abbildung 1: Das Partnerschaftskonzept
Start-up Ecosystem
1
Carrier Docking-Plattform & Supermarkt
Produkt-/
Service-Idee
Produktion
Marketing
Absatz &
Vertrieb
2
Produktion
Marketing
Absatz &
Vertrieb
Produktion
Marketing
Absatz &
Vertrieb
Produktion
Marketing
Absatz &
Vertrieb
Produkt-/
Service-Idee
n
Produkt-/
Service-Idee
Start-ups mit Ideen docken an
die Carrier-Plattform an.
Carrier-Kunden
Informations-,
Kommunikations- &
UnterhaltungsProdukte &
-Services
Carrier entwickeln & sammeln die Ideen auf ihrer Plattform. Wie im Supermarkt
bündeln und vertreiben sie diese auf dem Massenmarkt.
Carrier-Kunden werden in
einem One-Stop-Shop bedient.
Quelle: Detecon
11
Detecon Management Report • 1 / 2010
Strategy
auf die reinen Fakten abstellen. Allianzen werden durch die
Beteiligten vorangetrieben und zumeist gilt das auch für ihren
Erfolg. Bei der Due Diligence sollte dabei besonders auf die kulturelle Passgenauigkeit beider Parteien geachtet werden.
4. Verpflichten: Errichtung einer produktiven Partnerschaft mit
einem ausgewählten Start-up-Unternehmen.
Zentrale Erfolgsfaktoren: Identifizieren Sie die Allianz-Sponsoren und stellen Sie sicher, dass Prozesse eine schnelle Aufnahme der Partnerschaft ermöglichen.
Best Practice: Nachdem die Entscheidung über das gemeinsame Vorankommen getroffen wurde, müssen sich beide Parteien schnell einigen, damit sie die Zielrichtung nicht aus den
Augen verlieren. Wie aus unserer Studie hervorgeht, liegt einer
der Hauptgründe für die Frustration der Start-ups darin, dass
es Carriern nach Abschluss des Partnerschaftsvertrags an Prozessen für ein effektives Errichten und Managen von Allianzen
mangelt.
In einem ersten Schritt sollten beide Seiten einen AllianzSponsoren ernennen, der für Entwicklung und Wachstum der
Partnerschaft verantwortlich ist. Diese Sponsoren entscheiden
über die nächsten Schritte, die die Allianz zum Erfolg führen.
Als Richtlinie gilt, dass die folgenden Bereiche angesprochen
und abgestimmt werden: Partnerschaftsziele und -meilensteine, Bewertungskriterien (KPIs), Governance-Modell und
Entscheidungsgremien, Reporting und Monitoring, Eskalationsprozeduren, Sitzungs- und Besprechungspläne, Rollen und
Verantwortlichkeiten, Budgets sowie den Auslöser für den Ausstieg. Abhängig von der Art der einzelnen Beziehungen und
den sonstigen Faktoren, zum Beispiel Größe oder geografische
Nähe, variieren die Geschäftsführungsstile der Partnerschaften.
Ist zum Beispiel ein hohes Ausmaß an gegenseitigem Vertrauen
vorhanden, kann man eventuell auf ein starres wöchentliches
Status-Reporting einschließlich umfangreicher Dokumentation
verzichten.
Um die Effizienz während der Anlaufzeit voranzutreiben, sollten
Carrier zur Abdeckung der vorgenannten Aspekte einheitliche
Prozesse und Dokumente festlegen. Insbesondere der Prozess
des Andockens eines Start-up-Unternehmens an die Plattform
des Carriers sollte soweit wie möglich vereinheitlicht werden.
Carrier sollten zum Beispiel ein einheitliches Vertragsdokument
einschließlich wirtschaftlicher Details über das Aufspalten gemeinsamer Kosten und Umsätze entwerfen. Darüber hinaus
können sie die zu erfüllenden IT-Anforderungen sowie einheitliche Schnittstellen festlegen, um einen reibungslosen Andockprozess technisch zu ermöglichen.
Abbildung 2: Lebenszyklus für Partnerschaften
Grad der
Partner­
integration
5
6
4
3
1
Scannen
2
Filtern
Quelle: Detecon
12
Detecon Management Report • 1 / 2010
Auswählen
Verpflichten
Managen
Trennen/Übernehmen
Zeit
Clever andocken
5. Managen: Früchte der Zusammenarbeit ernten.
Zentrale Erfolgsfaktoren: Aufrechterhaltung des Vertrauens
in die Partnerschaft, Konflikte frühzeitig lösen, Anzeichen für
­einen Ausstieg erkennen.
Best Practice: Sobald die Anlaufphase erfolgreich abgeschlossen
ist und die Partnerschaft auf vollen Touren läuft, ist es Zeit, sich
auf den Kunden zu konzentrieren und die Früchte der Partnerschaft zu ernten. In dieser Phase hat das Start-up-Unternehmen
bereits an die Plattform des Carriers angedockt; das neue Produkt oder der neue Service ist in das Carrier-Portfolio integriert.
Beide Partner sollten den Fokus jetzt auf ihre Kernkompetenzen
richten: das Start-up-Unternehmen auf die Beibehaltung und
Verbesserung seines Produkts oder Services und der Carrier darauf, das Produkt oder den Service seinen Kunden anzubieten
und für den Massenmarkt auszuweiten.
An diesem Punkt wird die Beziehung von gemeinsam formulierten Partnerschaftszielen und KPIs getragen. Noch einmal
wiederholt: KPIs können bei jeder Partnerschaft variieren. Sie
sollten jedoch Metriken zur Messung des Wertes der Partnerschaft enthalten. Potenzielle KPIs sind gemeinsamer Umsatz,
Gewinnung neuer Kunden und Erhalt bestehender Kunden,
strategischer Wert der Partnerschaft oder künftiges gemeinsames Go-to-Market-Potenzial.
Außerdem ist es für beide Partner wichtig, korrektive Maßnahmen zu ergreifen oder die Partnerschaft zu beenden, falls die
Leistung mangelhaft ist, eine Änderung der Marktsituation eintritt oder die KPIs sowie anfängliche Ziele nicht erreicht werden
können.
6. Trennen/Übernehmen: Die Partnerschaft optimal beenden.
Zentraler Erfolgsfaktor: Auslöser für den Ausstieg beachten und
unproduktive Partnerschaften schnell beenden.
Best Practice: Keine Partnerschaft dauert ewig – sie muss es
auch nicht. Falls sich die in Schritt 4 festgelegten Auslöser für
den Ausstieg ergeben, sollten sich die Parteien ohne zu zögern
trennen. Das Festhalten an unproduktiven Beziehungen ruiniert
den Effizienzvorteil des Partnerschaftsmodells. Das Zurechtstutzen und Sortieren des Produktportfolios der Partnerschaften ist
daher absolut notwendig und erfordert regelmäßige Aufmerksamkeit. Partnerschaften werden jedoch nicht immer aufgrund
von Unproduktivität beendet. Im Falle einer erfolgreichen Beziehung können die Parteien gegebenenfalls beschließen, die
Betriebe zu verschmelzen, um so ein größeres wirtschaftliches
Potenzial nutzen zu können.
Die Berücksichtigung dieser Best-Practice-Ansätze entlang des
Lebenszyklus kann – von Unternehmen wie Cisco nachgewiesen – auf jeden Fall die Wahrscheinlichkeit erhöhen, dass Part-
nerschaften sich erfolgreich entwickeln. Carrier müssen daher
sorgfältig abwägen, wie sie diese Ansätze in die Organisation
und Abläufe ihres Tageschäfts einbeziehen können.
Partnermodelle schaffen ein Fundament für effiziente
Innovationen
Open Innovation mit offener Plattform, externen Entwicklern und Partnermodellen hat die Fähigkeit der Unternehmen,
neue Ideen effizient auf den Markt zu bringen, enorm verbessert. Dies ist nirgendwo offensichtlicher als im Silicon Valley,
wo wegbereitende Unternehmen wie Apple, Cisco oder Salesforce.com bewiesen haben, dass das Anzapfen externer TalentPools Unternehmen einen enormen Wettbewerbsvorteil bringen kann. Wie Peter Coffee, Director für Plattformforschung
bei Salesforce.com, in einem Interview mit Detecon kürzlich
ausführte, „ist es schwierig, ein Geschäftsmodell darüber aufrechtzuerhalten, für immer der Schlauste der Welt zu sein. Aber
man kann grundsätzlich versuchen, der Partner erster Wahl für
jemanden zu sein, der gegenwärtig der Schlauste der Welt ist.“*
Der Markt drängt Carrier, ihre Innovationseffizienz zu steigern
und mehr Produkte und Services in immer kürzeren Zeitabständen auf den Markt zu bringen. Daher sind sie gezwungen
sich zu überlegen, ob sie von einem Ad-hoc-Partnering-Ansatz
zu einem eher strukturierten Ansatz wechseln wollen. Die Definition als Plattform mit standardisierten Methoden, die das
Andocken von Partnern ermöglicht, sowie die Entwicklung
eines strukturierten Rahmens, der über den gesamten PartnerLebenszyklus implementiert wird, befähigt Carrier, in Zukunft
ein solides Fundament für effiziente Innovation zu errichten.
* http://www.detecon-dmr.com/en/article/future-of-cloud-i_2009_12_15
Yasmin Narielvala ist als Managing Consultant bei Detecon, Inc. in San Francisco tätig und verantwortlich für die Bewertung führender strategischer Technologien für Telcos und Kunden der digitalen Unterhaltungsindustrie, Scouting sowie die Bewertung neuer Technologien, Services und Produkte. Darüber ­hinaus
unterstützt sie die Entwicklung von Technologie-, Geschäfts- und Produktstrategien. Mit mehr als 12 Jahren Erfahrung in der Telekommunikationsbranche
verfügt sie über ein fundiertes Wissen bezüglich internationale Branchen und
Technologien.
[email protected]
Martin Beiten ist als Consultant tätig. Während seiner zweijährigen Betriebszugehörigkeit hat er an Projekten in Deutschland, den USA und Afrika mitgewirkt. Schwerpunkte seiner Tätigkeit sind die strategische Entwicklung von
Vertrieb und Distribution sowie Innovationsthemen.
[email protected]
13
Detecon Management Report • 1 / 2010
Strategy
Martin Pieperhoff-Sauter
Gutes Klima
Die Umwälzungen im Energiebereich bedeuten mehr als nur
die Entwicklung eines großvolumigen M2M-Absatzmarktes
Vielfältige energieeffizienzfördernde Produkte und ­Dienstleistungen
­adressieren bereits jetzt einen Markt von beachtlicher Größe. ­Obwohl
dieser Sektor oberflächlich betrachtet außerhalb des Fokus von
­Telekommunikationsunternehmen liegt, bietet er doch attraktive Chancen
für neue Mehrwertdienste.
14
Detecon Management Report • 1 / 2010
Gutes Klima
urch die weltweite Diskussion zum Klimaschutz sowie
D
eine zunehmende gesellschaftliche Sensibilität gegenüber Um-
weltfragen motiviert ist die Verbesserung der Energieeffizienz
derzeit eine der zentralen Forderungen an die Entwickler und
Anwender technischer Systeme. Längst hat sich die produzierende Industrie dem Thema gestellt und offeriert erfolgreich
energiesparende Geräte. Selbst in der eher auf Wachstum und
­Leistungssteigerung setzenden ICT-Welt ist das Thema inzwischen angekommen und sogenannte Green-IT-Geräte sind verfügbar.
Von Telekommunikationsdienstleistern wird dieser Markt aber
kaum adressiert. Die Unternehmen verstehen Energieeffizienz
bisher lediglich als Mittel, Kosten im Betrieb von Kommunikationstechnik zu senken. Sehrwohl ergeben sich hier aber
weitere Chancen, die Kernkompetenzen der Telekommunikationsunternehmen zu nutzen, um lukrative Mehrwertdienste
anzubieten, die den allgemeinen Trend zu einer Erhöhung der
Energieeffizienz ansprechen.
Telekommunikationsmehrwertdienste
in der Energieversorgung
Vielversprechende Ansatzpunkte für Mehrwertdienste bietet
derzeit der Energieversorgungssektor. Die technischen Strukturen für die Energieerzeugung und Verteilung befinden sich
seit einiger Zeit im Umbruch. In der Vergangenheit war die
Energieversorgung beherrscht von wenigen Großkraftwerken
und streng hierarchisch aufgebauten Energieverteilnetzen. Eine
Netzsteuerung und insbesondere die Sicherung einer gleichbleibenden Stromqualität waren überschaubare Aufgaben. Die
Förderung regenerativer Energiequellen verlangt heute aber
nach anderen Strukturen. Bei Energieerzeugern, die regenerative Quellen nutzen, handelt es sich oftmals um vergleichsweise
15
Detecon Management Report • 1 / 2010
Strategy
k­ leine dezentrale Anlagen wie Wasser- und Windkraftanlagen
oder Photovoltaikanlagen. Dies stellt einen großen Unterschied
zu den großen traditionellen Kraftwerken dar, die sich auf
­wenige Standorte verteilen. Erschwert allein schon die Vielzahl
und Dezentralität dieser Anlagen eine Netzsteuerung, so wird
die Komplexität der Steuerung zusätzlich durch die kaum zu
prognostizierende Stromliefermenge dieser Anlagen erhöht.
Der Grund besteht in der Abhängigkeit dieser Anlagen von den
­aktuellen Windverhältnissen oder der Sonneneinstrahlung. Um
auch unter diesen erschwerten Randbedingungen die Stromund Netzqualität sicherstellen zu können, sind neue Netz­
konzepte wie das „Smart-Grid“-Konzept erforderlich.
Smart Grid ist ein Netz-Architekturansatz, der die Steuerung,
Überwachung, Energieerzeugung und Lastverteilung, aber auch
Leistungsverrechnung in komplexen Energienetzen erlaubt.
Ein Kernaspekt des Ansatzes besteht in der Kombination von
­Energieversorgungsnetzen und Datennetzen. Dabei fällt den
Datennetzen neben der Übertragung von Steuerungsbefehlen
vor allem die Aufgabe der Erfassung und des Transports von
Information über die aktuell an unterschiedlichen Punkten im
Netz erzeugte und verbrauchte Energie zu.
Die Datenübertragung stellt – allgemein bekannt – die Kernkompetenz der Telekommunikationsanbieter dar, so dass diese
eine optimale Ausgangsposition haben, der Energiewirtschaft
hier unterstützende Dienste anzubieten. Telekommunika­
tionsanbieter sind in der Regel bereits an den meisten ­„lokalen“
Energieverbrauchsstellen wie Firmen und Privathaushalten mit
Festnetz-Datenleitungen wie DSL oder zumindest mit ­einer
Mobilfunkabdeckung vertreten, so dass die für Smart Grid
notwendige, sehr detaillierte Verbrauchserfassung verteilter
­Elemente bedient werden kann. Zusätzlich zu berücksichtigen
ist, dass durch die Verbrauchserfassung auf Haushaltsebene Millionen von Einzelelementen per Datennetz zu verknüpfen sind.
Insbesondere diese Massentauglichkeit der Datenübertragungsansätze erfordert Kompetenzen, die die Energieversorger erst
noch aufbauen müssen.
Die derzeit von den Telekommunikationsanbietern ent­wickelten
„Machine to Machine“(M2M)-Anschlüsse sind dabei ein erster
vielversprechender Ansatz hinsichtlich entsprechender Dienste
für den Energieversorgungssektor. Bei M2M handelt es sich
­allerdings um reine Datenübertragungsdienste.
16
Detecon Management Report • 1 / 2010
Smart Grid bietet zusätzlich die Chance, lukrativere Mehrwertdienste für den Energieversorgungssektor zu entwickeln und
damit insbesondere das M2M-Geschäft in diesem Bereich abzusichern und auszuweiten. Mit Smart Metering, einem Teil­
aspekt des Smart Grids, wird im Folgenden ein solcher Mehrwertdienste-Ansatz vorgestellt.
Mehrwertdienste-Ansatz Smart Metering
Bei Smart Metering handelt es sich um eine intelligente
Form der Energieverbrauchserfassung – sei es für Strom, Gas
oder ­Heizungswärme. Der Energieverbrauch wird dabei von
­modernen elektronischen Zählern erfasst und dann über Daten­
leitungen den jeweiligen Energieversorgern zur Verfügung
­gestellt. Mittels entsprechender Kundenportale oder über abgesetzte Anzeigen im Haus kann sich zudem der Verbraucher über
seinen aktuellen Energieverbrauch informieren.
Smart Metering ist eine der Grundvoraussetzungen für die Verwirklichung des Smart Grid-Konzeptes. Nur die zeitnah an der
jeweiligen Verbrauchsstelle erfassten aktuellen Verbrauchsdaten,
kombiniert mit einer effizienten Datenbereitstellung, erlaubt es
den Energienetzbetreibern überhaupt, intelligente Netzsteuerungen und effiziente Lastverteilungen durchführen zu können.
Da außerdem zunehmend mehr Privathaushalte selbst zu Energieerzeugern werden und Strom aus Photovoltaikanlagen oder
Blockheizkraftwerken in das Stromnetz einspeisen, sind zudem
flexible Abrechnungssysteme, basierend auf einer zeitnahen Verbrauchs- und Einspeiseerfassung, notwendig.
Smart Metering ist im Gesamtkanon der Aktionsprogramme
der europäischen Regierungen zum Klimaschutz eine wesentliche Maßnahme zur Hebung von Energieeinsparpotenzialen.
Smart Metering, geeignet angewendet, liefert gegenüber den
bisher üblichen Energieabrechnungsverfahren im Jahresrhythmus dem Verbraucher eine wesentlich höhere Transparenz
seines momentanen Energieverbrauchs und der damit verbundenen Kosten. Zielsetzung der oben genannten Smart Metering-Maßnahmen ist es daher, das Energiebewusstsein der Verbraucher zu schärfen und ihr Verbrauchsverhalten in Richtung
eines sparsameren und effizienteren Umgangs mit Energie zu
beeinflussen. Dementsprechend haben die Europäische Union
mit der Richtlinie 2006/32/EG über Endenergieeffizienz und
Energiedienstleistungen sowie nachfolgend der deutsche Ge-
Gutes Klima
setzgeber mit dem Energiewirtschaftsgesetz Maßnahmen beschlossen, die von den Energieversorgern ab 2010 umzusetzen
sind. Hierzu gehört die Verpflichtung, ab dem 1. Januar 2010 in
Neubauten nur noch elektronische Energiezähler einzusetzen,
die den tatsächlichen Energieverbrauch und die tatsächliche
Nutzungszeit widerspiegeln. Zudem müssen die Energieversorger auch allen Bestandskunden die Möglichkeit eröffnen, ihren
Verbrauch mit elektronischen Zählern entsprechend transparent
und genau zu erfassen. Des Weiteren verpflichtet das Gesetz die
­Energieversorger, ab Ende 2010 Tarife anzubieten, die Anreize
zur Einsparung oder Steuerung des Verbrauchs setzen. Explizit
im Gesetz genannt sind dabei lastvariable und tageszeitabhängige Tarife, die somit eine wesentlich genauere Erfassung des
­Verbrauchs als heute üblich erfordern. Insgesamt werden durch
­diese ­gesetzlichen Rahmenbedingungen die Energieversorger
vor ­Herausforderungen gestellt, die ohne moderne ICT-Infrastruktur kaum zu meistern sind.
Gerade die im Zusammenhang mit dem Smart Metering geforderten Kompetenzen wie zeitnahe Erfassung und Verarbeitung von Verbrauchsdaten in Massenszenarien und Betrieb von
Netzen mit Millionen von Endgeräten sind Kernkompetenzen
der Telekommunikationsdienstleister. Diese Kernkompetenzen,
gepaart mit der vorhandenen Vor-Ort-Präsenz in den entsprechenden Haushalten und moderner ICT-Infrastruktur, sind dabei eine hervorragende Grundlage, um über einfache Datenverbindungen hinaus, beispielsweise als M2M-Ansatz, erfolgreiche
Mehrwertdienste im Zusammenhang mit Smart Metering zu
entwickeln.
Der mit Smart Metering adressierbare Markt hat europaweit*
­einen beachtlichen Umfang von rund 185 Millionen Haus­
halten. Die beigefügte Grafik zeigt die Verteilung des Markt­
potenzials auf die einzelnen EU-Staaten. Da basierend auf der
* Europa ohne skandinavische Länder, Schweiz, Liechtenstein, Mazedonien,
Polen, Türkei
185,2
Abbildung 1: Smart Metering-Marktpotenzial in West-/Mitteleuropa in Mio. Anzahl Privathaushalten je Staat
39,6
27,2
26,5
24,3
1,7
1,6
1,6
1,4
0,9
0,8
0,5
0,3
0,2
0,1
Kroatien
Irland
Litauen
Lettland
Slowenien
Estland
Zypern
Luxemburg
Malta
2,9
Bulgarien
3,6
Österreich
3,8
Ungarn
3,9
Portugal
4,2
Griechenland
4,3
Tschechische Republik
4,5
Belgien
7,2
Niederlande
Rumänien
Spanien
Italien
Großbritannien
Frankreich
Deutschland
West-/Mitteleuropa
7,4
Slowakei
16,7
Quelle: Eurostat – Stand 2008/Detecon
17
Detecon Management Report • 1 / 2010
Strategy
18
Detecon Management Report • 1 / 2010
Gutes Klima
oben erwähnten EU-Richtlinie Smart Metering in der EU generell einzuführen ist und der Energieverbrauch meist haushalts­
bezogen erfasst wird, ist hier die Anzahl der Haushalte in ­Europa
als Kenngröße des Marktpotenzials anzusehen.
Deutsche Telekom positioniert sich mit B2B-Serviceansatz
Die Deutsche Telekom AG hat die Chancen dieses sich entwickelnden Marktes wahrgenommen und über den einfachen
M2M-Datenservice hinaus Mehrwertdienstleistungen für den
Energieversorgungssektor entwickelt, die derzeit sehr erfolgreich im Markt etabliert werden. Auf Grund der Rahmenbedingungen des deutschen Energieversorgungsmarktes positioniert
sich die Deutsche Telekom dabei mit einem Business-to-Business (B2B)-Serviceansatz und bietet ihre Dienstleistungen den
sogenannten Messstellenbetreibern an. Messstellenbetreiber
sind eigenständige Unternehmen mit der Aufgabe, die Verbrauchszähler zu betreiben. Der Messstellenbetrieb war in der
Vergangenheit Aufgabe der lokalen Energieverteilnetzbetreiber.
Mit der aktuellen Fassung des Energiewirtschaftsgesetzes sind
diese Aufgaben nunmehr eigenständigen Unternehmen zu
übertragen.
Dienste wird so deutlich vereinfacht. Die Aufnahme des Aus­
leseservices auf Basis dieser Plattform ist im Herbst 2009
­erfolgt.
Die oben genannten Zusatzdienstleistungen werden Zug um
Zug entwickelt und eingeführt. Auf Grund des gewählten
SOA-Ansatzes der Plattform kann die Deutsche Telekom dabei
flexibel auf die Bedürfnisse des Marktes reagieren. Geplante Zusatzdienstleistungen sind hierbei unter anderem Daten-Hosting
und Portalservices, Rating- und Billing-Dienste sowie die Integrationsleistungen in zum Beispiel SAP-IS-U.
Um außerdem die Energieversorger in der jetzt anstehenden
Umstellungsphase von den bisherigen analogen Zählern hin zu
modernen Smart Metering-fähigen Zählern zu unterstützen,
bietet die Deutsche Telekom zudem Zählerinstallation und Austausch durch die Telekom-eigenen Servicekräfte an. Die Mitarbeiter der Telekom sind hierfür bereits entsprechend geschult
und erste Installationsprojekte werden für namhafte Kunden
durchgeführt. Geplant ist die Erweiterung von Smart Metering
um den Bereich Home Management, um dann den Zielmarkt
nochmals deutlich zu erweitern.
Das Dienste-Portfolio der Deutschen Telekom umfasst die drei
Bereiche Ausleseservice, Installationsservice und Zusatzdienste.
Der Ausleseservice ist als gemanagter Dienst ausgelegt und umfasst die Auslesung der Zählerdaten einschließlich der Bereitstellung in vereinbarten Formaten. Der Service verfolgt einen
Ende-zu-Ende-Ansatz und erstreckt sich vom Zählerausgang
bis zum Eingang der Datenverarbeitungssysteme der jeweiligen
Messstellenbetreiber. Zum Dienst gehören die Bereitstellung
und Installation der Endgeräte zur Erfassung der Zählerdaten,
die Übertragung der Daten sowie auch die Anpassung der von
den Zählern gelieferten Daten an die Energie-Daten-Management (EDM)-Systeme der jeweiligen Messstellenbetreiber oder
Energieversorger. Der IT-Anpassungsaufwand der Messstellenbetreiber für die Einführung von Smart Metering wird hierdurch minimal.
Zudem übernimmt die Deutsche Telekom mit ihrer Smart
Metering-Diensteplattform sämtliche Aufgaben eines Datennetzbetreibers wie Zugriffsschutz, Gewährleistung von Ausfallsicherheit, Sicherung der Datenintegrität, Last- und Verkehrssteuerung, Netzüberwachung und Entstörung, so dass
die Energieversorger auf eigene Smart Metering-Netze und Betriebsführungssysteme verzichten können.
Martin Pieperhoff-Sauter beschäftigt sich im Bereich Telekommunikationstechnologie mit Fragen zur strategischen Ausrichtung, Konzeption und Implementierung von Mehrwert-Diensteplattformen. Seine Expertise umfasst
Festnetz- und Mobilfunk-Diensteplattformen sowie Plattformen für digitale
Medien. Unter anderem arbeitet er als Experte für Programm-Management
und Plattform-Architektur bezogene Themen im Smart-Metering & Home
Management-Projekt der Deutschen Telekom.
Die aufgebaute Smart Metering-Diensteplattform basiert entsprechend dem Stand der Technik auf einer serviceorientierten
Architektur (SOA). Die Erweiterung der Plattform um ­weitere
19
Detecon Management Report • 1 / 2010
Strategy
Tamara Schönbucher, Sarah Lee, Nico Beyer
Was gut ist,
geht noch besser!
Providerwechsel optimiert IT Outsourcing-Leistungen
Was soll ein Unternehmen tun, wenn der erste Outsourcing-Vertrag ausläuft?
Die höchste Effizienzsteigerung lässt sich durch eine neue Ausschreibung des
Auftrages realisieren. Viele Unternehmen schrecken jedoch vor den möglichen
Risiken eines Providerwechsels zurück. Dabei lassen sich diese mit der ­richtigen
Methode beherrschen.
20
Detecon Management Report • 1 / 2010
Was gut ist, geht noch besser!
eit den 90er Jahren ist das Outsourcing von IT-Dienst­
S
leistungen in vielen Unternehmen ein häufig verwendetes
Instrument zur Steigerung der IT-Effizienz. Inzwischen gibt
es kaum ein Unternehmen, welches nicht selbst bereits ­erste
Outsourcing-Erfahrungen gesammelt oder zumindest die Möglichkeit eines Outsourcing geprüft hat. Daher wird der ITOutsourcing-Markt in den nächsten Jahren zunehmend durch
Neuausschreibungen der 1st Generation Outsourcing-Verträge
charakterisiert sein.
Wenn ein bestehendes Outsourcing-Verhältnis verlängert oder
neu ausgeschrieben wird, spricht man von 2nd Generation
­Outsourcing.
Aus Sicht des Unternehmens stellen sich im Übergang vom
1st zum 2nd Generation Outsourcing vor allem drei Frage­
stellungen:
•
•
•
Wie sollte das neue Outsourcing-Verhältnis gestaltet werden?
Wer wird die IT-Leistungen künftig erbringen?
Wie kann der Übergang vom alten zum neuen
Outsourcing-Verhältnis optimal gestaltet werden?
2nd Generation Outsourcing Lifecycle bietet grundlegende
Vorgehensweise
In der Gestaltung eines professionell durchgeführten 2nd
­Generation Outsourcing werden die Erfahrungen aus dem
­ersten Outsourcing-Verhältnis berücksichtigt. Die Strukturen
des bestehenden Verhältnisses spielen dabei nur bedingt eine
Rolle. Es bietet sich vielmehr die Chance, IT-Strukturen und
IT-Leistungen auf die geänderten Bedürfnisse und Geschäfts­
anforderungen des Unternehmens neu auszurichten.
Während das Ziel bei der ersten Fremdvergabe vor allem in der
Minimierung der Kosten für ein gegebenes Leistungsspektrum
lag, konzentrieren sich die Folgeverträge darauf, zusätzlich Wert
zu schaffen und die strategischen Ziele des Unternehmens zu
unterstützen, indem zum Beispiel völlig neue Prozesse ermöglicht oder Effizienzverbesserungen bei der Erbringung der ITLeistungen erreicht werden.
Im 2nd Generation Outsourcing Lifecycle wird eine gesamtheitliche Betrachtung der IT vorgenommen und an den strategischen
Unternehmenszielen ausgerichtet (siehe Abbildung). Das zen-
Abbildung: 2nd Generation Outsourcing-Lifecycle
DD
Betrieb und
Transformation
Sourcing
Lifecycle
Transition
und
Parallelbetrieb
Quelle: Detecon
21
Detecon Management Report • 1 / 2010
Strategy
trale Instrument hierbei ist die individuell auf das ­Unternehmen
und dessen Situation ausgerichtete Sourcing-Strategie.
An der Geschäftsstrategie ausgerichtete IT Sourcing-Strategie
ist Erfolgsfaktor für 2nd Generation Outsourcing
Die IT Sourcing-Strategie leitet sich aus der Geschäftsstrategie ab. Das Unternehmen bindet sich auch im 2nd Generation
Outsourcing in der Regel für einen Zeitraum mit Laufzeiten
zwischen drei und fünf Jahren. Daher müssen nicht nur die gegenwärtigen, sondern auch die zukünftigen IT-Anforderungen
des Geschäfts vom Sourcing-Modell und der IT-Infrastruktur
optimal unterstützt werden. Beispiele sind eine geplante Internationalisierungsstrategie oder ein geplantes starkes Wachstum
eines bestimmten Geschäftsbereichs.
Bei der Entwicklung der IT Sourcing-Strategie sollte ein
ganzheitlicher Ansatz gewählt werden, also eine vollständige
­Betrachtung der IT-Landschaft erfolgen, da eine Beschränkung ausschließlich auf die Bewertung bereits fremd vergebener
­Services große Potenziale verschenkt. Gerade ein 2nd Generation Outsourcing bietet die Chance, wesentliche Transformationen durchzuführen. Das Unternehmen verfügt auf Grund
seiner ­bereits gesammelten Erfahrungen über ein viel besseres
Verständnis darüber, welche Dienstleistungen fremd vergeben ­werden können und es kann seine Fähigkeit, Provider zu
­steuern, besser einschätzen. Mittels einer umfassenden strategischen ­Betrachtung – zusammen mit der Geschäftsstrategie –
können neue Formen des Outsourcing in Betracht gezogen werden. Ein Beispiel ist das Business Process Outsourcing (BPO),
bei dem ganze, nicht-kritische Geschäftsprozesse ausgelagert
werden, beispielsweise die Gehaltsabrechnung.
Für jeden einzelnen IT-Service wird eine separate Make-or-BuyEntscheidung getroffen. Diese hängt zum einen vom ­Potenzial
einer Auslagerung oder Wiedervergabe ab, zum anderen von
der Machbarkeit des Outsourcing oder dem Potenzial der
­Wiedereingliederung (Backsourcing oder Insourcing). Ergibt
die Analyse, dass der Vorteil der erhöhten Flexibilität und Kontrolle über den Service den Aufwand des Backsourcing überwiegt, sollte der betreffende, bereits fremd vergebene Service
besser intern erbracht werden. Dies hängt jedoch auch vom
Reifegrad der eigenen internen Organisation ab.
22
Detecon Management Report • 1 / 2010
Durch ein Backsourcing können auch wertvolle Geschäfts­
prozesskompetenzen zurückgeholt werden. Diese werden häufig
in geschäftsorientierten IT Competence Centern, zum Beispiel
SCM, CRM, PLM, FI/CO, gebündelt. Die gezielte Umsetzung
der Geschäftsanforderungen in der IT optimiert die Kernprozesse der Fachbereiche. Wärend eines 2nd Generation Outsourcing kann so durch die Umstrukturierung der Fertigungstiefe
ein verhängnisvoller Kompetenzabfluss gestoppt werden.
Ausgehend von der Analyse wird das Sourcing-Modell festgelegt,
das heißt die Art und Weise, wie die Services vergeben werden
sollen. Eine Möglichkeit ist, verschiedene Bündel von Services,
sogenannte Lose, an unterschiedliche Provider zu vergeben.
Dieses Multi-Sourcing hat den Vorteil, dass Best-of-Breed-Strategien umgesetzt werden können, bei der die besten Provider für
bestimmte Services ausgewählt werden. Meistens empfiehlt sich
eine Ausschreibung, um die größten Effekte sowohl in Bezug
auf den Preis als auch auf die Servicequalität zu erzielen und
gleichzeitig die Chance zu ergreifen, Veränderungen in der ITLandschaft durchzusetzen. Das Unternehmen hat hierbei eine
wesentlich bessere Kontrolle über das Ergebnis und eine deutlich gestärkte Verhandlungsposition gegenüber dem Provider.
Dies gilt besonders im Vergleich mit einem Benchmarking im
Rahmen einer Vertragsverlängerung (siehe Kasten).
Durch erneute Ausschreibung lassen sich attraktivere Preise
und verbesserte Servicequalität erzielen
Der erste Schritt der Ausschreibung ist die Erstellung eines
­Request for Proposal (RfP). Die Services, zum Beispiel für ­Service
Desk oder Applikationsmanagement, werden mittels Leistungsscheinen beschrieben. Das Unternehmen hat dabei den Vorteil,
dass es die Service Level und Art der Serviceerbringung, zum
Beispiel unter Nutzung innovativer Technologien, selbst bestimmen kann. Die an der Ausschreibung teilnehmenden Provider
müssen sich im Wettbewerb bemühen, diese Anforderungen zu
erfüllen. Ohne Ausschreibung wären diese Verbesserungen die
Inhalte zäher Verhandlungen mit dem bestehenden Provider.
Bei der Erstellung der Leistungsscheine kann das Unternehmen
nun auch auf seine Erfahrungen aus dem Outsourcing-Vertrag
zurückgreifen. Missverständnisse und Unstimmigkeiten hieraus
werden dabei reflektiert und in den neuen Leistungsbeschreibungen behoben.
Was gut ist, geht noch besser!
Beim 2nd Generation Outsourcing ist es wichtig, dass der RfPProzess auch für potenzielle Neu-Provider ergebnisoffen und gerecht erscheint, da ansonsten nicht der gewünschte Wettbewerb
zwischen den Bewerbern eintritt. Daher sollte der bestehende
Provider verpflichtet sein, gleichberechtigt an Ausschreibungen
Ausschreibung vs. Benchmarking
Als Alternative zu einer Ausschreibung wird immer häufiger die Durch­
führung eines Benchmark gesehen, um die Preise und Service ­Level des
Altvertrags anzupassen, bevor dieser verlängert wird. Dieses Vorgehen
­bietet gewisse Vorteile, gegenüber einer Ausschreibung jedoch auch einige
Nachteile.
Bei einem Benchmark wird die Leistung des Providers von einer ­dritten
Firma gemessen und mit marktüblichen Standards und Preisen ­verglichen.
Nach einem vorher festgelegten Verfahren passt der Provider ­seine
Leistungen und Preise nach den Ergebnissen des Benchmarks an. Ein
­Unternehmen kann so von Preissenkungen und Qualitätsverbesserungen
profitieren, ohne den Aufwand einer Ausschreibung tragen zu müssen.
Die Nachteile des Benchmarking stellen sich wie folgt dar: Durch die
starke Fokussierung auf Preise und die für einen Benchmark notwendige
Standardisierung der Services kann man nur in geringem Maße von Innovationen profitieren, die in einer Ausschreibung leicht gefordert und von
den Providern gerne angeboten werden.
Einem Benchmark inhärent ist auch ein Bias zur Vergangenheit. Entsprechend spezialisierte Firmen stützen sich auf umfangreiche Datenbanken
mit meist aktuellen Preisen. Die neuesten Innovationen im Markt, die
möglicherweise signifikante Preissenkungen ermöglichen, können ­jedoch
nur nach und nach einkalkuliert werden, da diese erst mit Verzögerung in
die Datenbanken aufgenommen werden.
Zudem stützen sich Benchmarks auf den Vergleich von Einzelpreisen
der verschiedenen Leistungen. Hierbei werden zwar durch die Wahl geeigneter Vergleichsgruppen Skaleneffekte berücksichtigt, der Effekt von
Bündelpreisen und Sonderrabatten auf gesamte Auftragsvolumen aber
oft nur unzureichend. Diese machen leicht zweistellige Prozentanteile des
Auftrages aus.
Ein Benchmark empfiehlt sich bei abgegrenzten, weitestgehend standardisierten Leistungen und bietet so eine kostengünstige Alternative, Preise
und Service Level auf ein marktübliches Niveau zu heben. Auch deswegen
werden beim Outsourcing häufig Benchmark-Klauseln vereinbart, die das
Risiko für das Unternehmen reduzieren, während der Laufzeit wesentliche
Preistrends im Markt zu verpassen.
Bei größeren Leistungsumfängen und komplexen Services mit besonderen
Anforderungen können mit einer Ausschreibung größere Preissenkungen
erzielt und die Services besser an die Geschäftsanforderungen angepasst
werden. Das Unternehmen hat bei der Ausschreibung einen größeren
Einfluss auf die Ausgestaltung der Services und den Einsatz innovativer
Technologien.
mit den anderen externen Bewerbern teilzunehmen. Dabei kann
er gegebenenfalls gewisse Sonderrechte erhalten, zum Beispiel
das Recht auf einen Last-Bid und damit die Möglichkeit, das
letzte Angebot noch einmal zu unterbieten. Eine solche Sonderbehandlung ist jedoch nach Möglichkeit zu vermeiden, da sie
dem bestehenden Provider den Anreiz nimmt, selbst neue innovative Lösungen mit attraktiver Preisgestaltung zu entwickeln.
Die Herstellung einer fairen Ausgangssituation im RfP erfordert
unter Umständen zusätzliche Maßnahmen wie beispielsweise
umfassendere Informationsmaßnahmen für externe Bewerber
und die Herbeiführung einer entsprechenden Kooperation des
bestehenden Providers. Besonders sollte darauf geachtet werden,
dass der RfP ausreichend genaue Informationen über die geforderten Service Level und Mengen enthält.
Aus den Angeboten, die auf den RfP erfolgen, werden ­mindestens
zwei Provider zur Due Diligence eingeladen. Die verbesserte
Verhandlungsposition des Unternehmens durch eine kompetitive Due Diligence rechtfertigt in der Regel den erhöhten Aufwand für die Betreuung mehrerer Bewerber.
Ziel der Due Diligence für den Provider ist es, die zu übernehmende IT-Organisation zu bewerten und Risiken aufzudecken.
Zudem werden Daten für Lösungskonzepte gesammelt, gegenseitige Annahmen in gemeinsamen Arbeitssitzungen konkretisiert und wesentliche Eckpfeiler des Vertrages herausgearbeitet.
Das Unternehmen stellt für die Due Diligence in einem Datenraum Informationen zur Verfügung. Viele dieser Informationen
kann natürlich der bestehende Provider bereitstellen. Hier muss
im Vorfeld die Kooperation mit dem Provider sichergestellt werden. Im Idealfall sind ein Reporting oder entsprechende Mitwirkungspflichten im bestehenden Outsourcing-Vertrag bereits
festgeschrieben, die den bestehenden Provider dazu verpflichten, relevante Informationen zur Verfügung zu stellen.
An die Due Diligence schließt sich die Vertragsverhandlung an.
Die Neugestaltung eines Vertrages bietet auch die Möglichkeit,
das Vertragsverhältnis zu flexibilisieren und die Steuerbarkeit
zu verbessern. Eine Möglichkeit, den Vertrag flexibel zu halten,
sind Preismodelle mit Korridoren, innerhalb derer die Preise
konstant bleiben und außerhalb in bestimmter Weise ansteigen
oder abfallen. Vorsicht ist bei Mindestabnahmen geboten, da zu
hohe Werte die Flexibilität einschränken. Wurden während des
23
Detecon Management Report • 1 / 2010
Strategy
ersten Outsourcing bereits Investitionen in moderne Anlagen
getätigt, die übernommen werden, können sowohl die Mindestvertragslaufzeit als auch die Mindestabnahmemengen reduziert
werden. Um die Steuerbarkeit der Kosten zu gewährleisten,
sind Abrechnungseinheiten zu wählen, die unmittelbar vom
Unternehmen beeinflusst werden können. So ist die Anzahl der
Benutzer oder der Arbeitsplatzsysteme ­direkt zu beeinflussen,
wohingegen zum Beispiel die Anzahl der Störungsmeldungen
am Service Desk nur bedingt beeinflussbar ist und gerade bei
Schlechtleistung des Providers stark ansteigt. Auch die Kündigungsrechte einzelner Leistungsscheine erhöhen die Flexibilität.
Eine zu lange Vertragslaufzeit verringert ebenfalls die Flexibilität. Drei bis fünf Jahre können als Maßstab genommen werden.
Der Befürchtung, der Provider würde bei kürzeren Laufzeiten
nur wenig Anreiz zu Investitionen haben, kann mit entsprechenden Innovationsklauseln, die ein Budget für Investitionen
vorschreiben, entgegengewirkt werden.
Unabhängig davon, auf welchen Provider die Wahl am Ende
fällt, kann das Unternehmen durch die Ausschreibung bereits
wesentliche Serviceverbesserungen und Preissenkungen durchsetzen – und dies bei flexibleren Preismodellen und besserer
Steuerbarkeit der Kosten.
Keine Angst vor dem Providerwechsel
Viele Unternehmen scheinen vor dem Schritt zum Providerwechsel zurückzuschrecken. Laut einer Studie von Gartner
verlagern fünf Prozent der Unternehmen aus der ersten Generation ihre ausgelagerten Leistungen wieder zurück und betreiben ­diese intern. 85 Prozent bleiben beim erstmalig gewählten
Dienst­leister, wobei ein Teil der Dienstleistungen parallel auch
an andere Anbieter vergeben wird. Lediglich zehn Prozent entscheiden sich für einen Anbieterwechsel. Ein Providerwechsel
findet meist dann statt, wenn das Unternehmen mit seinem
bisherigen Provider nicht zufrieden ist. Diese Unzufriedenheit
­resultiert dabei oft aus nicht kalkulierten Mehrkosten, un­
sicherer Projektlage, einer ungenügenden Flexibilität des Anbieters, nicht klaren Leistungsbeschreibungen oder einfach darin,
dass die „Chemie“ zwischen den beiden Parteien nicht stimmt.
Ein ­weiterer Grund für einen Anbieterwechsel liegt dann vor,
wenn das Unternehmen der Meinung ist, dass bestimmte Bereiche von anderen Providern fachlich besser erbracht werden
können.
24
Detecon Management Report • 1 / 2010
Die geringe Zahl von Providerwechseln liegt ­auch darin begründet, dass viele Unternehmen vor den Risiken der Übergangs­
phase, der sogenannten Transition, zurückschrecken. Dabei ist die Beendigung des Outsourcing-Verhältnisses mit
­anschließendem Providerwechsel ein genauso selbstverständlicher und wesentlicher Bestandteil des Outsourcing Lifecycle
wie zum Beispiel die Vertragsabschluss- oder die Betriebsphase.
Die meisten Schwierigkeiten beim Wechsel treten in der Transition zwischen dem bestehenden und neuen Provider auf. Das
Unternehmen hat keine direkte Kontrolle über die Dienste und
ist vielmehr von mindestens einem, wenn nicht von beiden
Providern abhängig. Daher ist es wichtig, dass die Kooperation
des bestehenden Providers in der Transitionsphase sichergestellt
wird, die unter anderem für einen sauberen Know-how-Transfer
und die Übergabe von Assets wie Hardware, Software, Daten
und gegebenenfalls auch Personal benötigt wird.
Aber auch eine ordentliche Planung und Organisation der
Transition, des Parallelbetriebes (Shadow-Betrieb) und die
­Sicherstellung einer Fall-Back-Lösung zurück auf den bestehenden Provider, falls Schwierigkeiten bei der Migration auftreten,
gehören zu den nicht geringen Herausforderungen, die gelöst
werden müssen.
Wie kann sich ein Unternehmen nun diesen Schwierigkeiten
und Herausforderungen stellen? Mit einigen frühzeitigen
Überlegungen können Risiken minimiert und kontrollierbar
gemacht werden. Falls, wie in den meisten Fällen, die Kooperations- und Übergabeleistungen des bestehenden Providers
nicht exakt im Vertrag definiert sind, empfiehlt es sich, den bestehenden Provider bereits im Vorfeld über die bevorstehende
Ausschreibung zu informieren und mit ihm die notwendigen
Kooperations­leistungen fest zu vereinbaren. Vor der Neu-Ausschreibung hat das Unternehmen noch die beste Möglichkeit,
hier den bestehenden Provider zu Zugeständnissen zu bewegen,
denn wenn sich dieser komplett unkooperativ zeigt, könnte er
zum Beispiel von der Neuausschreibung ausgeschlossen werden.
Nach der Neuausschreibung, wenn die Entscheidung für einen anderen Provider bereits gefallen ist, hat das Unternehmen
dieses Druck­mittel gegen den bestehenden Provider nicht mehr
in der Hand.
Es ist wichtig, dass das Unternehmen für den bestehenden
Provider und den neuen Provider die jeweiligen Transitionsverbindlichkeiten in einer klaren Vereinbarung definiert. In ­dieser
Was gut ist, geht noch besser!
sollten Haftungsgrenzen und Schadensersatzbestimmungen
im Falle von Vertragsverstößen klar beschrieben werden. Oft
­haben Vertragsverstöße die Auswirkung, dass das Unternehmen
die Kosten einer missglückten Transition selber tragen muss.
Dienstleistungen müssen vom Unternehmen selbst erbracht
werden oder der bestehende Provider wird dafür bezahlt, dass er
Leistungen so lange erbringt, bis die Probleme in der Transition
behoben wurden. Hilfreich hierbei sind bereits eine vollständige
Definition der Unterstützungsleistungen und eine Klausel für
den Weiterbetrieb zu definierten Kosten für den Fall, dass die
Übernahme durch den neuen Provider nicht funktioniert oder
sich verzögert. Fall-Back-Lösungen oder ein Shadow-Betrieb
schaffen gegen technische Ausfälle in der Transitionsphase Abhilfe. Prozesse und Methoden, die sich in der Zusammenarbeit
mit dem bestehenden Provider als effektiv herausgestellt haben,
sollten frühzeitig auch für den neuen Provider im Unternehmen
eingeführt werden. Dies stellt schnell eine reibungslose Kommunikation zwischen den Parteien sicher.
Es empfiehlt sich, Transitionsgebühren etappenweise zu bezahlen. Dabei hilft die Definition verschiedener Meilensteine, die
der neue Provider erfüllen muss. Ein Teil des Transitionspreises
wird an eine erfolgreiche Erfüllung der Meilensteine gekoppelt.
Dieses Mittel ist nicht neu, stellt jedoch einen effektiven Anreiz
dar, um eine Transition zügig umzusetzen. Erst wenn die komplette Transition erfolgreich abgeschlossen wurde, erhält der
neue Provider die gesamte Bezahlung des vereinbarten Preises.
Das Unternehmen sollte darauf achten, dass es Zugriff auf alle
Informationen hat, die vom bestehenden Provider als Teil seiner
Leistungserbringung entwickelt worden sind. Diese beinhalten
in der Regel das Verbrauchsvolumen verschiedener Services,
Netzwerkdiagramme, IT-Standards und entwickelte Softwareversionen mit zugehörigen Rechten und Lizenzen sowie andere
nützliche Informationen. Dabei ist es wichtig, dass der Zugriff
zu geringen oder gar keinen Kosten möglich ist, um dem neuen
Provider alle aktuellen Daten zur Verfügung stellen zu können.
Ein Providerwechsel bedeutet nicht, dass alle vom Unternehmen verwendeten Produkte und Tools verändert werden müssen, welche die Infrastruktur unterstützt und Dienste ausführt.
Vielmehr sollte das Unternehmen die Möglichkeit haben, Soft-
ware und anderes geistiges Eigentum weiter zu verwenden, die
vom bestehenden Provider bereitgestellt wurden. Nur so ist der
Betrieb während der Transition zu gewähr­leisten.
Durch Providerwechsel effiziente Ergebnisse erzielen
Bei der Entscheidung über die Weiterführung beziehungsweise
Neuausschreibung des Outsourcing-Vertrages wird angesichts
der möglichen Risiken des Providerwechsels oft verdrängt, dass
ein Wechsel auch wesentliche Vorteile für das Unternehmen
bringen kann.
Der erste und meistens vorherrschende Vorteil sind die hieraus resultierenden Kosteneinsparungen. Selbst wenn aus dem
existierenden Outsourcing-Verhältnis bereits signifikante Einsparungen realisiert werden konnten, die zum Zeitpunkt des
Abschlusses des Erstvertrages durchaus auch das Optimum
darstellten, sollte nicht unterschätzt werden, wie groß die zusätzlichen Potenziale durch technologischen Fortschritt und
verbesserte Methoden sein können. Zudem ist die Verhandlungsposition des Unternehmens beim 2nd Generation Outsourcing
wesentlich stärker als beim vorausgegangenen Outsourcing: Das
Unternehmen ist durch die gesammelten Erfahrungen während
des ersten Outsourcing-Vertrags wesentlich besser informiert.
Zusätzlich stehen die neuen, aber auch der bestehende Provider
stärker im Wettbewerb miteinander als beim Outsourcing der
ersten Generation.
Der bestehende Provider fürchtet, einen Personalüberhang in
Kauf zu nehmen, wohingegen die neuen Provider aufgrund der
nicht erforderlichen Personalübernahme in der Regel Niedrigpreisen anbieten können. Die Verhandlungsposition des
Unternehmens ist dabei zumeist viel stärker als ursprünglich
angenommen, denn der bestehende Provider bleibt auf seinen
Personalressourcen sitzen, wenn die IT an einen neuen Provider
verlagert wird. Sobald der bestehende Provider realisiert, dass
das Unternehmen ernsthaft einen Providerwechsel anstrebt,
zwingt ihn diese Situation, seine Leistungen gegebenenfalls zu
Dumpingpreisen anbieten zu müssen. Die neuen potenziellen
Provider können hingegen zu noch günstigeren Preisen anbieten, da sie keine oder nur wenige Mitarbeiter selektiv übernehmen müssen. Daher sind viele Kunden positiv überrascht, dass
25
Detecon Management Report • 1 / 2010
Strategy
ein 2nd Generation Outsourcing oft höhere Einsparungen ermöglicht als das 1st Generation Outsourcing.
Ein weiterer Vorteil kann in der Leistungsqualität und im
Leistungsangebot des neuen Providers bestehen. Gerade bei sich
schnell wandelnden Technologien werden oft die innovativsten
Lösungen am Markt angeboten, so dass sich ein Provider­wechsel
lohnen kann.
Eine Neuausschreibung des Outsourcing-Vertrages bietet eine
gute Chance, die Leistungen und Lösungsansätze des bis­
herigen Providers mit den Angeboten seiner Wettbewerber zu
vergleichen und fundamentale Charakteristika des Verhältnis zu
verändern, zum Beispiel einen Wechsel zum Business Process
Outsourcing durchzuführen oder zum Multi-Sourcing überzugehen.
Auch im Abhängigkeitsmanagement kann ein Providerwechsel
positive Nebeneffekte haben. Prinzipiell sollte sich jedes Unternehmen darauf vorbereiteten, seine Provider wechseln zu
können, um auf einen möglichen Ausfall eines Providers, zum
Beispiel durch dessen Konkurs oder – bei Offshoring – durch
politische Ereignisse, vorbereitet zu sein. Falls nun ein Provider im Rahmen des 2nd Generation Outsourcing tatsächlich
gewechselt wird, sind die im Rahmen dieses Providerwechsels
gesammelten Erfahrungen in den meisten Fällen auf ­andere
Provider übertragbar und somit die Abhängigkeit von anderen
externen Providern reduzierbar. Das Unternehmen hat nun bereits mindestens einen größeren Providerwechsel durchgeführt.
Zusätzlich kann die Existenz eines durchdachten und vertraglich sauber vereinbarten Ausstiegsplans eine positive Wirkung
auf die Motivation und Servicequalität eines Providers haben.
Dabei ist zu berücksichtigen, dass dem neuen Provider dennoch
Kalkulationssicherheit und eine ausreichende Mindestvertragslaufzeit verbleiben, um ihm genügend Anreize für die notwendigen Investitionen in die Zukunft des Outsourcing-Verhältnisses zu bieten.
26
Detecon Management Report • 1 / 2010
Die Kunst im 2nd Generation Outsourcing liegt darin, die bedeutenden Chancen und Vorteile zu nutzen, die ein Providerwechsel bietet. Viele Risiken, die mit dem Übergang zu einem
neuen Outsourcing-Vertrag verbunden sind, lassen sich beherrschen. Als wesentliche Punkte gilt es zu beachten:
•
•
•
•
Entwicklung einer umfassenden Sourcing-Strategie,
Berücksichtigung der Erfahrungen aus dem
vorherigen Outsourcing-Verhältnis,
Ausnutzen des Gestaltungs- und
Verhandlungsspielraums der Ausschreibung,
Frühzeitige Sicherung der Kooperation des
bestehenden Providers.
Ein gut vorbereitetes und strukturiert durchgeführtes 2nd Generation Outsourcing bildet die Grundlage für die kommenden
Outsourcing-Generationen.
Tamara Schönbucher ist als Senior Consultant im Bereich IT-Management tätig.
Zu ihrem Schwerpunkt gehören Entwicklung und Umsetzung von IT-VendorStrategien, die Verhandlung und Um­setzung von IT-Outsourcing-Verträgen
­sowie die Optimierung der Kunden­zufriedenheit in IT-Outsourcing-Projekten.
[email protected]
Nico Beyer arbeitet als Business Analyst im Bereich IT Service and Operations
Management. Sein Schwerpunkt liegt auf der Entwicklung und Umsetzung von
IT-Outsourcing-Strategien und der kontinuierlichen Verbesserung im IT Service Management.
Nico.Beyer @detecon.com
Sarah Lee hat an der Technischen Universität Berlin und der Pohang University
of Science and Technology/Korea Wirtschaftsingenieurwesen studiert. Seit 2008
arbeitet sie im Bereich IT Service and Operations Management. Die Entwicklung und Erstellung von Ausschreibungen sowie Optimierung und Umsetzung
bestehender IT-Management-Prozesse g­ ehören zu ihren Schwerpunkten.
[email protected]
Online!
Das DMR-Portal
Im DMR-Portal finden Sie neben den ­Artikeln
der aktuellen Printausgabe ­zahlreiche Fachartikel sowie über ­komfortable Such- und
Archiv­funktionen alle Artikel aus früheren
­­­DMR-­Ausgaben. Dieses Portal bauen wir als
­führendes ­Wissensportal für ICT-­Themen
aus und ­bieten gleich­zeitig eine attraktive
Publikations­plattform für A
­ utoren.
­ mfangreiche Funktionalität:
U
Komfortable Such- und Download­
möglichkeiten helfen Ihnen, sofort alle
Artikel zu dem von Ihnen gewünschten
Thema zu finden.
Top aktuell:
Neben der Printausgabe finden Sie auf
der ­Startseite laufend neue Topartikel
zu wichtigen Themen.
Vernetztes Wissen:
RSS Feeds halten Sie auf Wunsch über neue
Veröffentlichungen auf dem L
­ aufenden.
www.detecon-dmr.com
Organization
Rachad Abdallah, Hung Fai Ma, Dirk Münning
Gut geteilt
ist doppelt gewonnen
Richtlinien für effizientes Infrastruktur-Sharing
Durch gemeinsame Nutzung der Zugangsnetze können Telco-Betreiber
Servicekosten senken und Wettbewerbsvorteile ausbauen. Die Möglichkeiten, einen potenziell geeigneten Partner zu finden, sind allerdings
nicht breit gestreut. Optionen, Modelle, Risiken und Interessen der
­Stakeholder gründlich auszuloten hilft Telco-Betreibern, ihren Betrieb
in einem optimal geeigneten Sharing-Modell effzienter zu gestalten.
28
Detecon Management Report • 1 / 2010
Gut geteilt ist doppelt gewonnen
ugangsnetze und die damit verbundene Infrastruktur sind
Z
zentrale Bestandteile des Service-Angebots von Mobil- und Fest-
Das WARUM: Wahl der richtigen Aufgabenstellung
netzbetreibern mit hoher Asset-Spezifität und Komplexität und
unterliegen daher typischerweise einer vertikalen Integration1.
Auch wenn international zahlreiche Anstrengungen und sogar
Regulierungseingriffe unternommen wurden, um das TelcoGeschäft für Anbieter ohne eigene Zugangsnetze – zum Beispiel
MVNOs, nationales Roaming, entbündelte Festnetzzugänge –
vollständig zu öffnen, gibt es nur wenige langfristig erfolgreiche
Beispiele von großen Anbietern ohne eigenes Zugangsnetz.
Letztendlich greifen wesentliche Player zumeist auf ihre eigenen
Zugangsinfrastrukturen zurück oder investieren in den Aufbau
einer solchen, sobald sie sich zu bedeutenden Marktgrößen entwickelt haben.
Um den potenziellen Nutzen eines gemeinsamen Zugangsnetzes
bewerten zu können, ist es erforderlich, die zentralen Ziele,
die später für die Bewertung der Sharing-Leistung verwendet
werden, klar zu definieren. Im Wesentlichen kann es dabei um
folgende Ziele gehen: Kosteneinsparungen, schnelleres Timeto-Market – Start-up neuer Betreiber oder Rollout neuer Technologien –, größere oder bessere Netzabdeckung, insbesondere
in ländlichen Regionen, höhere Kapazitäten und Qualität – dies
insbesondere in städtischen Regionen, in denen die Standortverfügbarkeit sich bei steigender Netzdichte zu einem immer
größeren Problem entwickelt – und Einhaltung der Regulierungsauflagen.
Gleichwohl gehören die in Zugangsnetze getätigten Investi­
tionen und die damit einhergehenden Betriebskosten zu den
größten Kostentreibern der Netzbetreiber. Folglich ist die
­effektive gemeinsame Nutzung der Zugangsnetze zu einem
der interessantesten Themen für Betreiber geworden, die dann
entweder weiterhin eine vertikale Integration beibehalten oder
ihre entsprechenden Assets in eine strategische Partnerschaft
­einfließen lassen können.
Erst nach klarer Definition der Ziele sollte ein Betreiber sich
nach einem geeigneten Partner umsehen und effiziente Modelle
zur Umsetzung seiner Idee prüfen.
Dabei hat Network-Sharing nicht nur die Kostensenkung zum
Ziel, sondern auch die Beschleunigung des Netzaufbaus, die
Erhöhung der Netzabdeckung oder die Erfüllung von Regulierungsauflagen. Voraussetzung ist, dass technische und regulatorische Einschränkungen bewältigt werden können.
Die mit der Implementierung verbundenen Herausforderungen
und Risiken können ein Network-Sharing-Abkommen jedoch
undurchführbar machen und beenden, bevor es überhaupt
begonnen hat. Die Festlegung auf ein allgemeines Prinzip
mag relativ einfach sein, aber gefordert ist eine Vereinbarung
mit detaillierten Abstimmungen zu Management der gemeinsam genutzten Infrastruktur, Planung, Betrieb und Wartung,
­Governance und kommerziellen Bedingungen. Genau in diesen
Punkten scheitern die meisten Vereinbarungen – trotz der offensichtlichen Kostenvorteile für die Stakeholder.
Daher ist es unumgänglich, drei zentrale Fragen bei der Erwägung von Network Sharing rational anzugehen: Das WARUM,
das WER und das WIE, um so die Risiken einer ineffizienten
Sharing-Vereinbarung zu minimieren.
1 Douma, S. und Schreuder, H., „Economic contributions to strategic
management“, Economic Approaches to Organization, 3. Auflage,
Prentice Hall, 2002, S. 205-207.
Das WER: Wahl des geeigneten Partners
Im Telekommunikationssektor gibt es in einer geographischen
Region üblicherweise nur wenige Betreiber, die über eine ­eigene
Zugangsnetz-Infrastruktur verfügen und als Wettbewerber im
jeweiligen Markt auftreten. Vor diesem Hintergrund ist die
Sondierung des Marktes nach möglichen Sharing-Partnern
­offensichtlich der nächste wichtige Schritt. Alle weiteren Überlegungen hinsichtlich der Details potenzieller Sharing-­Optionen
bleiben ergebnislos, wenn kein geeigneter Partner gefunden
werden kann, es sei denn, Sharing ist durch Vorgaben des Regulierers verpflichtend.
Offensichtlich ist unter Berücksichtigung der oben genannten Ziele das Kostensenkungspotenzial dort am höchsten, wo
­unmittelbare Wettbewerber sich die Infrastruktur teilen. Zwar
ist es auch möglich und einfacher, ein Abkommen zur Infrastrukturmitbenutzung zwischen Betreibern unterschiedlicher
Dienste zu erzielen, beispielsweise zwischen Mobil- und Festnetzdiensten oder zwischen einem Energieversorgungsunternehmen und einem Mobilfunkbetreiber, doch dienen Infrastruktur
und Standorte, die von beiden Partnern genutzt werden können, anderen Zielsetzungen und verhindern somit meist eine
Maximierung der Synergien.
Sharing zwischen direkten Wettbewerbern bedingt eine klare
gegenseitige Übereinkunft und Verpflichtung hinsichtlich der
von jedem Partner zu leistenden Beiträge, Anteile und Verantwortlichkeiten. Eine gemeinsame Nutzung der Zugangsnetze ist
in etwa vergleichbar mit einer strategischen Eheschließung zwischen zwei herrschenden Familien – ehemals ein wichtiger Bestandteil der Diplomatie: Wenn die Partner zusammenpassen,
29
Detecon Management Report • 1 / 2010
Organization
können sie einträchtig zum gegenseitigen Nutzen kooperieren
und das wirtschaftliche Wachstum beschleunigen. Ist das Gegenteil der Fall, kann das zu erheblichem Verlust des guten Rufs
und Wohlstands sowie zur langfristigen Zerrüttung der Beziehung zwischen den Beteiligten führen. Genau wie bei den in der
Vergangenheit üblichen Partnerschaften müssen die folgenden
Kriterien bei Network-Sharing-Abkommen daher sorgfältig geprüft werden:
• Beziehung zwischen den Partnern einschließlich ­Vorgeschichte
ihrer Zusammenarbeit und Verträglichkeit des kulturellen Hintergrunds,
• Fähigkeiten der Partner hinsichtlich Ressourcen, Finanzkraft,
Risiken bei der Planerfüllung und
• Stand der jeweiligen Netz-Assets und deren Tauglichkeit, zu
den Zielvorstellungen beizutragen.
Das Eingehen einer solchen Partnerschaft erfordert eventuell
die Zustimmung Dritter. In der Telekommunikationswelt sorgt
der Regulierer dafür, dass es keine wettbewerbswidrigen Abmachungen gibt, die gegebenenfalls Preisfestsetzungen, Einschränkung der Kundenwahl oder Zuteilung der Märkte zur Folge
haben. Betreiber, die ein Network Sharing anstreben, müssen
daher eventuell belegen, dass durch die Partnerschaft ein verbesserter Ausbau der Infrastruktur bei geringeren Kosten erzielt
und somit das Gemeinwohl gefördert wird ohne maßgebliche
Beeinträchtigung des Wettbewerbs.
Das erste WIE:
Wahl des geeigneten technischen Betriebsmodells
Die technischen Modelle zur gemeinsamen Nutzung der Zugangsnetze lassen sich in vier Hauptkategorien mit möglichen
Kombinationen und Varianten unterteilen:
1.Passives Infrastruktur-Sharing: ausgehend von der gemeinsamen Nutzung unterstützender Infrastruktur auf unterschiedlichen Ebenen – vom Standort oder Stellfläche, zum Beispiel
Grundstück, Hausdach, Wegerecht, bis hin zu passiven Assets
wie Sendetürme, Container, Schächte und Kanäle, Betriebsräume, Stromversorgung und Installation.
2.Aktives Backhaul-Sharing: die gemeinsame Nutzung von
Backhaul-Einrichtungen wie beispielsweise RAN-BackhaulRichtfunkverbindungen oder Glasfaserkabel zur Verbindung
von RNC mit Node B - oder Backhaul-Fiber zwischen der Ortsvermittlungsstelle und den Verzweigerkästen für FTTC.
3.Aktives Access Network Sharing: die gemeinsame Nutzung der
aktiven Teile der Zugangsnetze einschließlich Antennensystem,
auch wenn dieses selbst nicht aktiv ist, der Übertragungssysteme
wie Repeater und Transceiver und sonstiges aktives Equipment
und
4.Nationales Roaming: die Nutzung des Netzes eines nationalen
Wettbewerbers, um eine schnelle Abdeckung nicht selbst ausgebauter Gebiete zu erzielen.
Die technischen Modelle weisen unterschiedliche Implika­
tionen im Hinblick auf Kostensenkungspotenzial, technische
Manövrierfähigkeit – Flexibilität in puncto Planung und Betrieb –, Service-Differenzierung und Time-to-Market auf. Zur
Erzielung eines maximalen Nutzens können die Betreiber nun
die Möglichkeiten, die ihnen aufgrund dieser technischen Arrangements geboten werden, mit ihren Zielen abgleichen.
Passive Netzelemente sind die zentralen Kostentreiber bei jedem
Netzaus- oder aufbau. Für Betreiber, die lediglich ihre Kosten
senken wollen, erscheint das passive Sharing am ge­eignetsten, da
es erhebliche Einsparungen ermöglicht und nur eine ­geringe Einschränkung der technischen Manövrierfähigkeit bewirkt. Wenn
die Betreiber bei den Diensten und nicht in der Ab­deckung konkurrieren, ist die Auswirkung auf die Service-Differenzierung
gering. Je mehr Elemente die Betreiber in den Sharing-Umfang
einbeziehen, desto effektiver ist das ­Kostensenkungspotenzial,
aber desto höher ist auch der Koordina­tionsaufwand und die
gegenseitige Abhängigkeit.
Betreiber, die bestrebt sind, CAPEX und OPEX weiter zu senken, sollten zusätzlich zum passiven Sharing das aktive Sharing
in Betracht ziehen. Backhaul-Sharing gewinnt mit steigender
Breitbandversorgung zunehmend an Bedeutung2. FrequenzSharing sollte ebenfalls in die Überlegungen eingehen, insbesondere bei regulatorischen Einschränkungen. Aktives Access
Network Sharing erfordert seitens der Betreiber einen höheren
Grad an Koordination und Kompatibilität, wobei jede ­beteiligte
Partei ihr besonderes Augenmerk auf die Kapazitätsanforderungen richten sollte. Doch da viele Dienstemerkmale in erster
Linie im Core Network und auf höheren Ebenen bereitgestellt
werden, ermöglicht das aktive Sharing den Betreibern die teilweise Beibehaltung der Service-Differenzierung.
Nationales Roaming wird normalerweise nicht als langfristige
Lösung gewählt. Es ermöglicht Neueinsteigern jedoch die Einhaltung von Regulierungsauflagen, die schnelle Verfügbarkeit
der Dienste bei Betriebsbeginn, Streckung von Investitionen
und Fokussierung auf Kernbereiche.
2 Graham, P., „OFCOM proposes revised regulatory framework for superfast
broadband“, Telecom Updates, Dundas & Wilson, April 2009, S. 12-15.
30
Detecon Management Report • 1 / 2010
Gut geteilt ist doppelt gewonnen
Bevor die Betreiber sich für ein technisches Modell entscheiden, müssen sie die folgenden drei Hauptkriterien in Betracht
ziehen: Erstens muss das anfänglich gemeinsam erzielbare Zugangsnetz in Bezug auf Standorte, Technologie, Kosten, Kapazität und Last die jeweiligen Unternehmensstrategien stützen.
Zweitens muss das Modell die Anforderungen an die zukünftige
Technologie- und Service-Roadmap, den geplanten Netzausbau, technologische Erweiterungen und die künftige Servicequalität nachträglich ermöglichen. Drittens sind operative Beschränkungen in Bezug auf Ressourcen, O&M-Anforderungen,
bestehende vertragliche und regulatorische Pflichten, Technologie sowie die Tauglichkeit der eingesetzten Herstellerlösungen
zu berücksichtigen.
Ein gewähltes Modell ist immer ein Kompromiß. Die Wahl
des geeigneten technischen Modells ist somit abhängig von den
besonderen Gegebenheiten der Betreiber, ihrer Lieferanten und
auch von den Standorten innerhalb eines Landes.
Das zweite WIE: Wahl des geeigneten Geschäftsmodells
Ein geeignetes Geschäftsmodell zur gemeinsamen Netznutzung
muss die Geschäftsziele der Betreiber widerspiegeln. Doch aus
der gemeinsamen Nutzung ergeben sich nicht nur Vorteile, es
entstehen ebenfalls zusätzliche Kosten für Vertragserstellung
und Vertragsmanagement, technische Neuplanung, Organisations- und Prozessänderungen.
Nachstehend folgt eine Auflistung typischer Geschäftsmodelle:
1.Bilaterales Leasing: Betreiber vermieten Standortfläche und
ausgewählte Infrastruktur untereinander, behalten aber ihre ei-
genen täglichen Betriebsabläufe und ihr für das Netz zuständige
O&M-Personal bei.
2.Transfer und Leaseback: Betreiber B überträgt seine Assets an
Betreiber A, der den Betrieb sämtlicher Assets übernimmt. Betreiber B mietet von ihm im Leaseback-Verfahren die erforderlichen Kapazitäten.
3.Joint Venture: Gemeinsam wird ein separates Unternehmen
zur Übernahme der Netzkapazität – bestehend oder neu –
und des Netzbetriebs gegründet. Zudem können bestimmte
Auf­gaben an Dritte vergeben werden – zum Beispiel einem
­Managed ­Service Provider.
Je nach Modell sind der potenzielle Nutzen und die hierfür erforderliche Komplexität der vertraglichen und operativen Gestaltung zu betrachten. Beim Vergleich der Modelle lässt sich
feststellen, dass bilaterales Leasing in der Umsetzung weniger
kompliziert ist, da jeder Betreiber seine eigenen Assets und Betriebsabläufe beibehalten kann – jedoch ist der Nutzen häufig
auch geringer als bei Netzzusammenlegung mit Transfer und
Leaseback oder Gründung eines Joint Ventures, weil die letztgenannten Modelle durch die Konsolidierung von Infrastruktur
und Netzbetrieb bessere Synergien ermöglichen.
In Bezug auf die technische Flexibilität liegt das bilaterale
­Leasing im mittleren Bereich, da jeder Betreiber die vollständige
Kontrolle über sein eigenes Netz mit Einschränkungen durch
Gebundenheit an Standorte des Partners und Partnerinstalla­
tionen am eigenen Standort ausübt. Dagegen ist die technische
Flexibilität für den Betreiber, der unter Transfer und Leaseback
sämtliche Assets erhält, sehr hoch, für seinen Partner trifft je-
Abbildung 1: Typische technische Modelle für Access Network Sharing und deren Implikationen
Passives
Infrastruktur-Sharing
Aktives
Backhaul-Sharing
Aktives Access
Network Sharing
Nationales
Roaming
Einsparungspotenzial
5
3*
3
3*
Grad der Kontrolle und
Service-Differenzierung
4
4
3
2
Time-to-Market
3
3
2
5
Regulatorische
Einschränkung
2
2
4
3
Legende: 5
= Hoch
1 = Niedrig
* = Einsparpotenzial ist vertragsabhängig und schwankt dementsprechend
31
Quelle: Detecon
Detecon Management Report • 1 / 2010
Organization
doch das Gegenteil zu. Ein Joint Venture sollte es beiden Partnern ermöglichen, über die Governance des Joint Venture und
die abzuschließenden Service Level Agreements eine hinreichende Kontrolle auf Asset Management, Planung und Betrieb
zu erzielen.
Die Wahl des bestgeeigneten Geschäftsmodells ist daher keine
einfache Aufgabe. Intern ist es erforderlich, dass Asset-Besitz,
Nutzen- und Kostenverteilung, Investitionsbedarf und Governance der Partner einheitlich ausgerichtet sind. Extern wirken
sich Regulierungsauflagen – zum Beispiel die Öffnung des
Zugangs für andere Wettbewerber und die damit verbundene
Einschränkung der Preisgestaltung sowie bestehende Vertragsverpflichtungen gegenüber Lieferanten – auf den Business Case
aus. Auf die Herausforderungen in diesen Bereichen muss während der Verhandlungsphase eingegangen werden. Die Ausge­
glichenheit zwischen Komplexität, Kontrolle und geschäftlichem
Nutzen sollte zur Zufriedenheit der Partner erzielt werden.
Aspekte, die leicht übersehen werden
Ein Antizipieren aller möglichen Risiken bei Sharing-Abkommen könnte anfänglich aufgrund der zugrunde liegenden Komplexität kontraproduktiv sein. Es ist sinnvoll, sich zunächst auf
einige wesentliche Aspekte zu konzentrieren. Drei Punkte, die
zu Anfang leicht unterschätzt werden, sind aber besonders zu
berücksichtigen.
Stakeholder Management: Stakeholder haben unterschiedliche
Erwartungen, Bedenken und Interessen. Es ist unerlässlich, die
Bedenken zu benennen und zu adressieren und die Vorteile für
jeden einzelnen Stakeholder – zu denen in erster Linie Betreiber,
deren Mitarbeiter, Investoren, Regulierer und Zulieferer gehören – darzustellen.
Bei den Betreibern bilden Kosteneinsparungen und Beeinflussung von Umsatz und Wachstum die wichtigsten Aspekte. Der
aus dem Sharing resultierende Nutzen erfordert eine Quantifizierung. Zur Vorbeugung von falschen Annahmen ist es wichtig,
auf die erwartete Einsparung in CAPEX und OPEX sowie auf
die voraussichtlichen Netzausbaugewinne – schnelleres Rollout,
Zugang zu neuen Bereichen – für die beteiligten Betreiber zu
beziffern. Die künftige Netzentwicklung und Service-Roadmap
muß vereinbart werden, um eine Verträglichkeit des Agreements
mit der Strategie der beteiligten Betreiber zu sichern.
Ebenso wichtig ist die Handhabung von Kürzungen der Ressourcen oder Freisetzung von Arbeitskräften als Folge eines SharingAbkommens – insbesondere für die Mitarbeiter der beteiligten
Betreiber. In Bezug auf das Management und die Mitarbeiter ist
es erforderlich, die absehbaren Änderungen in ihrem bisherigen
Beschäftigungsverhältnis und die damit verbundenen Chancen
und Anforderungen zu adressieren.
Ausschlaggebend für Investoren sind eine stabile und vorhersagbare Investitionsrentabilität sowie künftige Wachstumschancen
und weitere Investitionsmöglichkeiten.
Für Regulierer liegt der Fokus auf einer verbesserten Effizienz
der eingesetzten Ressourcen und auf dem Nutzen für die Kunden einschließlich eines schnellereren Zugangs zu den Diensten
sowie auf einer größeren Netzabdeckung. Behinderungen des
Abbildung 2: Typische Geschäftsmodelle zur gemeinsamen Netznutzung und deren Implikationen
Komplexität und
potenzieller Nutzen
Funktion intelligenter Formulare
Hoch
3
Transfer
und Leaseback
• „Komplexität“ beinhaltet geschäftliche, ­vertragliche und
operative Gestaltung.
Transfer
und Leaseback
2a
Niedrig
2b
1 Bilaterales Leasing
Niedrig
Quelle: Detecon
32
JV
Detecon Management Report • 1 / 2010
Hoch
• „Potenzieller Nutzen“ bezieht sich auf positive Geschäftsauswirkungen, zum Beispiel Kosten­einsparung und Timeto-Market.
• „Grad der Kontrolle“ beinhaltet Flexibilität in Bezug auf
Kapazitätenplanung, Anpassung und Asset Management.
• „2a“ bezieht sich auf das Transfer- und Leaseback­Szenario in Bezug auf Betreiber A, der die Assets erhält.
„2b bezieht sich auf dasselbe Szenario in Bezug auf
­Betreiber B, der die Assets abgibt.
Grad der Kontrolle
seitens des Betreibers
Gut geteilt ist doppelt gewonnen
Wettbewerbs gilt es auf jeden Fall zu vermeiden. Die Senkung
der Betriebskosten findet ihren Ausdruck in niedrigeren Preisen für neuere Dienste. Zunehmend wichtig sind die umweltfreundlichen Auswirkungen, die aus den Sharing-­Abkommen
resultieren, beispielsweise weniger Funkmasten oder geringerer
Energieverbrauch.
Für Zulieferer sind mögliche Folge-Agreements, zum Beispiel
Managed Services, und erweiterte Möglichkeiten durch einen
Zugang zu allen beteiligten Betreibern hervorzuheben.
Stakeholder-Management muß zum frühestmöglichen Zeitpunkt vor der Implementierung des Sharing-Agreements einsetzen.
Kulturelles Change Management: Transition und Transforma­tion
im Hinblick auf das angestrebte Sharing Agreement können
kostspielig und störend sein, wenn sie nicht professionell durchgeführt werden. Parallel zur Umsetzung des Network-Sharing
sind die Betreiber gefordert, den damit einhergehenden kulturellen Wechsel von innen heraus zu planen und abzustimmen,
um einen effizienten Betrieb zu ermöglichen.
Kulturelles Change Management erstreckt sich auf Personal,
Prozesse und Systeme. Die Umsetzung muß mit vollständiger
Unterstützung des Top-Managements erfolgen und einer systematischen Methodik folgen mit Einschätzung der Ist-Situation,
Entwicklung einer klaren Change-Strategie und eines Projektplans, guter Mitarbeiterkommunikation, professioneller Ausführung, kontinuierlicher Überprüfung und Verbesserung.
Mit der zwischen den Sharing-Parteien stattfindenden neuen
Kooperation ergeben sich aufgrund der Unterschiede in der
­Organisationsstruktur, HR-Richtlinien, Führungsstile, Arbeitsprozesse, Arbeitskultur und Qualitätsstandards neue Herausforderungen – insbesondere wenn Mitarbeiter zu neuen Teams
oder gemeinsamen Einheiten verschmolzen werden. Gemeinsame Prozesse und Richtlinien müssen erarbeitet und auf Vertrauen basierende Arbeitsbeziehungen gefördert werden.
Abhängig vom Ausmaß der operativen Änderungen und Interaktionen kann der Zeitraum von der Planung bis zur Durchführung der Änderung drei bis sechs Monate betragen. Es können
weitere drei bis neun Monate verstreichen, bis sich eine allgemeine Akzeptanz durchgesetzt und eine gemeinsame positive
Arbeitsatmosphäre etabliert hat.
Ausstiegsstrategie: Betreiber, die ein Sharing-Abkommen abschließen, müssen Aufwand in die Planung der Ausstiegsoptionen investieren, die einen wichtigen Bestandteil des Abkom-
mens selbst bilden. Trennungen sind schmerzhaft und es gibt
keine Garantie dafür, dass eine Sharing-Partnerschaft erfolgreich sein wird oder lange bestehen bleibt. Es ist daher erforderlich, Ausstiegs­mechanismen zu definieren, die die Verantwortlichkeiten der Betreiber während der Übergangsphase als auch
die ­Übertragung gemeinsamer ­Assets und deren Bewertung
einschließen. Zieht man die zwischen den Sharing-Partnern
bestehende gegenseitige Abhängigkeit und das Eingehen einer
langfristigen Zusammenarbeit in Betracht, muss ein möglicher
Vertragsausstieg bei Nichterfüllung sowohl auf dem Papier als
auch in der Realität eine glaubhafte Bedrohung darstellen, insbesondere für den eine Auflösung verursachenden Partner.
Eine Ausstiegsoption sollte den Betreibern eine Umstellung ­auf
individuelle Netze ermöglichen, wenn die Beweggründe für das
Sharing nicht länger existieren.
Rachad Abdallah ist Senior Consultant in der Gruppe „Program Management
and Engineering“. Er hat sein Studium an der Technischen Universität München mit einem MSc in Telekommunikationswissenschaften abgeschlossen und
mehr als fünf Jahre für führende Equipment-Zulieferer im Bereich Einsatz von
Funknetzprodukten und Erstellung von Managed-Service-Lösungen gearbeitet.
Seit 2006 ist er für Detecon tätig und berät Kunden auf technischen, betrieblichen und strategischen Ebenen. Er verfügt über fundierte Kenntnisse und
Erfahrungen in der Netzentwicklung, Operations, Netzprüfungen, technische
Due Diligence und Programm-Management mit weltweit führenden Mobilfunkbetreibern und Zulieferern.
[email protected]
Hung Fai Ma ist Senior Consultant in der Gruppe „Program Management
and Engineering“. Nach Abschluss seines Studiums mit einem MSc in Telekommunikationswissenschaften war er zunächst mehr als zehn Jahre für einen
führenden Betreiber in Hongkong tätig und für die Bereiche Festnetzqualitäts­
sicherung, Einführung eines regulatorischen „Code of Practice“, Interconnection-Offering und Vertragsverhandlungen zuständig. Bevor er 2007 zu Detecon
kam, studierte er an der HEC und Telecom Paris mit einem Master-Abschluss
in Management. ­Gegenwärtig liegt der Schwerpunkt seiner Tätigkeit auf Programm-Management, Managed Services und Network Sharing. Er ist ein zertifizierter Project Management Professional (PMP®).
[email protected]
Dirk Münning ist Managing Partner und Leiter der Gruppe „Program
­Management and Engineering“. Nach dem Studium der Nachrichtentechnik
an der Fachhochschule Frankfurt am Main arbeitete er als Systemingenieur für
Satellitenkommunikation bei ANT Bosch Telecom in Backnang. 1992 kam
er zu Detecon und war zunächst als Projektleiter für Mobilfunksysteme tätig
und bei ETSI in Sophia Antipolis als Mitglied der Expertengruppe PT-SMG,
wo er zu maßgeblichen Weiterentwicklungen des GSM-Standards beitrug. Seit
1997 übernahm er die Verantwortung als Projekt und Programm Manager in
zahlreichen Start-up- und Privatisierungsvorhaben sowie InterimsmanagementProjekten in der ­weltweiten Telekommunikationsindustrie. Er ist zertifizierter
Project ­Management Professional (PMP®).
[email protected]
33
Detecon Management Report • 1 / 2010
Organization
Claudia Skrobol
Am Puls
der Veränderung
Change Management ist kritischer Erfolgsfaktor
in Effizienzprojekten
Obwohl Manager heute wissen, wie wichtig der professionelle und
faire Umgang mit Mitarbeiterinteressen in Kostensenkungs- und
­Restrukturierungsprojekten ist, sieht die Realität oft anders aus. ­Dabei
sind es gerade zu Beginn die weichen Faktoren, mit denen man am
Ende harte Projektziele erreicht.
34
Detecon Management Report • 1 / 2010
Am Puls der Veränderung
ie gegenwärtige Wirtschaftssituation lässt vermuten, dass
D
professionelles Veränderungsmanagement eher wenig Konjunk-
tur hat. Für manche Unternehmen geht es derzeit im Krisen­
management um die reine Existenz. In anderen Unternehmen,
in der ein Effizienzsteigerungsprogramm die nächste Kosten­
senkungsmaßnahme jagt, fragt sich so manche Führungskraft
nicht nur hinter vorgehaltener Hand, ob man die Ressourcen
für das Managen der vermeintlich „weichen“ Faktoren nicht
woanders einsetzen müsste. Wenn die „harten“ Fakten den Takt
angeben und das Budget ohnehin knapp ist, scheint die Versuchung groß zu sein, der rein funktionellen Seite von Effizienzprojekten Vorfahrt zu geben.
Gleichzeitig wissen Management und Projektmanager um die
Notwendigkeit eines professionellen und fairen Umgangs mit
den Mitarbeiterinteressen in Kostensenkungs- und Reengineringprojekten. Ohne die Mitarbeiter in den Veränderungs­
prozess mit einzubeziehen gelingt kein Rationalisierungs- und
Restrukturierungsprojekt. Was sind also die Erfolgsfaktoren
für ein Effizienz-getriebenes Veränderungsprojekt? Und worauf
kommt es insbesondere zu Beginn eines solchen Vorhabens an?
jektphase prägend für den gesamten Projektverlauf und damit
elementar für den Erfolg des Veränderungsvorhabens sind:
•
•
•
•
Weiche Themen im harten Projekt: Change Management
in der Projektorganisation
Dimensionen der Veränderung: Change Impact Analyse
erzeugt Transparenz
Zeitnaher Dialog statt brodelnder Gerüchteküche:
Change Kommunikation
Veränderung aktiv führen: die Rolle der Führungskräfte
in Effizienzprojekten.
Mit Oliver Wagner und Florian Lutter lernen Sie zudem zwei
fiktive Manager kennen, deren Dialoge so oder ähnlich heute
in jedem Unternehmen stattfinden könnten. Alle Ähnlichkeiten
mit lebenden Personen und realen Handlungen sind rein zufällig und nicht beabsichtigt.
Weiche Themen im harten Projekt:
Change Management in der Projektorganisation
Dennoch sieht die Realität oft anders aus: Zwischen brodelnder Gerüchteküche, einer „Jetzt aber warm anziehen“-Einstellung und der Haltung nach dem Motto „Nichts wird so heiß
gegessen wie es gekocht wird“ liegt mit einem auf operative
­Themen fokussierten Projektbeginn bereits eine breite Varianz
an Einstellungen vor. Abhängig von Anzahl, Intensität und erlebten Konsequenzen bereits durchlebter Optimierungsprojekte
schwankt in der Belegschaft die Stimmung zwischen Angst und
Abwarten.
Florian Lutter war noch im Meeting, als die SMS von seinem
Jogging-Partner Oliver Wagner eintraf: Ob sie heute eine Stunde
später laufen könnten? „Mein Chef hat kurzfristig das heutige Jour
Fixe und alle Meetings für die nächsten zwei Wochen abgesagt und
stattdessen mich direkt zu sich geholt.“ meinte Wagner, als sie sich
am Lauftreff begegneten. „Ich werde im neuen Effizienzprojekt, das
gerade aufgesetzt wird, die Projektkoordination leiten – natürlich
add on zu meinem jetzt schon 12 Stunden-Linien-Job.“ knurrte
er. „Glückwunsch! Dann sitzt Du ja an der Quelle aller Informa­
tionen!“ feixte Lutter. „Und dann ist bei mir auch noch das ­Change
Management und Projektmarketing angesiedelt – Neuland für
mich!“ Lutter grinste ihn im Laufen an: „Na, das erledigen doch
bestimmt ein paar nette junge Kolleginnen aus der Kommunikationsabteilung gerne für Dich!“ „Ganz ehrlich, das hat Prio drei
bei mir. In drei Wochen soll die komplette Projektorganisation,
­-struktur und alle Gremien stehen. Wenn ich die Deadline hinter
mir habe, dann mache ich mir mal langsam Gedanken, wen ich für
das Veränderungsmanagement brauche.“
Wir stellen die wichtigsten Aspekte eines die Ziele von Kostensenkungs- und Reengineringprojekten unterstützenden Veränderungsmanagements vor. Im Blickpunkt stehen dabei solche
Erfolgsfaktoren, die für den Projektstart und in der ersten Pro-
Die Art und Weise des Projektstarts prägt den Projektverlauf
und zu weiten Teilen das Projektergebnis. Diese Projektmanagement-Weisheit trifft für jedes und insbesondere für EffizienzProjekte zu. Wer den Anspruch verfolgt, in mit harten und
Projektleiter von Veränderungsprojekten benennen inzwischen
die Änderung von Einstellungen und Haltungen, die Unternehmenskultur und eine unterschätzte Komplexität als die
drei größten Herausforderungen von Change-Projekten. Diese
„weichen“ Themen werden heute deutlich vor operativen Hürden wie Ressourcenknappheit, Prozess- und IT-Änderungen
genannt.1
1 IBM Corporation, „Making Change Work“, Oktober 2008, S. 12
35
Detecon Management Report • 1 / 2010
Organization
unbequemen Zielen versehenen Projekten bei den Mitarbeitern
auf allen Ebenen Verständnis, zumindest Akzeptanz oder gar
Unterstützung für die bevorstehenden Schritte zu erzeugen und
damit Projektergebnisse nachhaltig abzusichern, nimmt sich
viel vor. Er tut gut daran, bereits in der strategischen Planungsphase den Faktor „Mensch“ in die Planung und Dramaturgie
des Projektstarts mit einzubeziehen. Anstatt die auf Change
und Kommunikation fokussierten Teilprojekte als letztes und
nicht selten personell halbherzig zu besetzen, gilt es, umgehend
Veränderungsmanagement-Kompetenz in das Projekt zu holen.
Ziel ist, von Beginn an die funktionalen Teilprojekten mit dem
Veränderungsmanagement zu verzahnen und damit beide Seiten des Veränderungsprozesses adäquat zu bearbeiten.
Welche Anforderungen muss ein professioneller Change Manager erfüllen, um den kompletten Veränderungsprozess zu gestalten und zu steuern? Welches Ideal-Profil hat ein Manager von
Veränderungen, um als Sparringspartner auf Augenhöhe von
Projektauftraggeber, Lenkungskreis und Projektleitung agieren
zu können?
Profil eines Change Managers:
• Erfahrung aus dem operativen Business, um Projektziele, Vorgehensplanung und -geschwindigkeit mit realistischem Blick unter Change
Management-Aspekten zu bewerten
• Fähigkeit, die Auswirkungen von strategischen und operativen Veränderungen auf soziale Systeme zu erfassen und dem Management und
Projektbeteiligten anschaulich zu vermitteln
• Intensive Projekterfahrung aus Prozessoptimierungsprogrammen,
­Reorganisationen, Kostensenkungsprogrammen, Personalabbau,
Outsourcing, Near-/Offshoring
• Fähigkeit, ein Netzwerk zu sehr unterschiedlichen Stakeholdergruppen
zu bilden
• Ausgeprägte Kommunikationsfähigkeiten und Erfahrung in der
­Vermittlung von „unangenehmen Wahrheiten“
• Erfahrung im Konfliktmanagement und Krisenmanagement in
­Projekten
• Erfahrung im Umgang mit Sozialpartnern bei Veränderungsprojekten
Damit wird klar, dass die Anforderungen an einen Change
­Manager, der ein Effizienzprogramm mit steuern wird, vom
Profil eines Veränderungsmanagers abweichen, der in einem
Post Merger-Integrationsprogramm oder Kulturveränderungsprojekt eingesetzt wird.
Ob einer internen Besetzung Vorrang vor einer externen Besetzung zu geben ist, hängt wesentlich davon ab, ob und in wel-
36
Detecon Management Report • 1 / 2010
chem Umfang interne Change Manager mit dem beschriebenen
Profil existieren. Im Idealfall können ­unternehmensinterne
Kompetenzen mit externen Professionellen gekoppelt werden. Die Innensicht, die Kenntnis des Unternehmens und das
­existierende Netzwerk eines internen Veränderungsmanagers
kombiniert mit der Projekterfahrung und dem Methoden-Set
eines externen Change-Beraters wird sich über den Projektverlauf hin auszahlen.
Der Change Manager hat, um wirklich erfolgreich wirken zu
können, seinen Platz in der Programmkoordination oder im
Projekt Management Office. Nicht selten wird ein eigenes Teilprojekt für Change Management und Projektmarketing aufgesetzt und mit Experten aus beiden Lagern besetzt. Nur hier, an
der Schaltstelle der Projektgeschehnisse, in unmittelbarer Nähe
zur Projektleitung und in enger Zusammenarbeit mit den Teilprojekten, wird das Management des Change mit dazu beitragen, den Business Case über den Projektverlauf „grün“ werden
zu lassen.
Dimensionen der Veränderung:
Change Impact Analyse erzeugt Transparenz
Wagners Wagen bog um die Ecke. Er war noch in Anzug und Krawatte. „Das Projekt-Kickoff-Meeting dauerte länger als geplant.“
meinte er entschuldigend zu Lutter und schlüpfte in seine Laufhose. Wagner war mit seinen Gedanken noch im Meeting: „Es gab
mehr Fragen als Antworten. Zwar sind die vom Vorstand gesetzten
Projektziele und die Projektorganisation fixiert, aber welche Auswirkungen die Kostensenkungen in den einzelnen Bereichen haben
werden, konnte der Projektleiter heute noch nicht transparent darstellen. Der Business Case ist das eine. Was sich bei den Prozessen,
Organisationsstruktur und IT tatsächlich ändern wird, scheint
noch recht nebulös. Und was das konkret für unsere ManagementEbenen und die Mitarbeiter heißt, erst recht.“
„Na ja, irgendwas zwischen ein paar Spänen, die fallen und einem
Teil-Kahlschlag wird´s werden. Das kennt ihr doch schon – ist doch
nicht euer erstes Effizienzprojekt“. Sie liefen los. Lutter hatte gut
reden. In vier Wochen sollte das erste Kommunikationspaket für
die Mitarbeiter stehen. Und er hatte zum jetzigen Zeitpunkt noch
keinen Überblick, was sich wo in welchem Ausmaß ändern würde.
Nur soviel war ihm klar: In einigen Bereichen würde kein Stein auf
dem anderen bleiben.
Professionelle Change Manager werden in einem frühen Stadium des Projektstarts, in dem sich gewöhnlich alles um den Aufbau der Projektstruktur und funktionale Themen dreht, zusam-
Am Puls der Veränderung
men mit den Projektverantwortlichen die zu diesem Zeitpunkt
erkennbaren Auswirkungen der Projektziele auf die Mitarbeiter
erfassen. Eine erste, noch grobe Change Impact Analyse skizziert in einer Matrix das Ausmaß der geplanten Veränderungen
in quantitativer und qualitativer Hinsicht entlang Business­bezogener Dimensionen.
Inhalte der Change Impact Analyse:
• Analyse der Veränderungen in quantitativer Hinsicht:
- Welche Bereiche und welche Teams sind von den
Projektzielen betroffen?
- Welche Hierarchieebenen tangiert das Projekt besonders?
- Wie viele Mitarbeiter betrifft das Projekt direkt und wie viele
indirekt?
• Analyse der Veränderungen in qualitativer Hinsicht:
- Was konkret ändert sich für welche der aufgeführten Bereiche
und Teams bezogen auf die Dimensionen Prozesse, IT, Aufgaben,
Organisation, Rollen, Status, Zusammenarbeit, Führung, Kultur?
- Wie stark wird die Veränderung auf einer Skala von 1-3 sein?
- Wie veränderungserfahren sind diese Bereiche? Mit wieviel
Widerstand ist zu rechnen?
Über eine systematische Erst-Analyse, basierend auf Interviews
mit Projektbeteiligten, werden die Auswirkungen und Veränderungen differenziert nach zuvor festgelegten Dimensionen
dargestellt. Gerade zum Zeitpunkt des Projektstarts, zu dem die
funktionale Projektplanung gemeinhin im Vordergrund steht,
beleuchten die aus der Change Impact Analyse hervorgehenden
Erkenntnisse Umfang und Auswirkungen der anstehenden Veränderungsprozesse: Führen Prozessänderungen zu Änderungen
oder gar dem Wegfall von Arbeitsinhalten? Sind Zusammenlegungen von Teams und Bereichen geplant und werden damit
Zusammenarbeits- und Führungsstrukturen stark betroffen sein
mit Auswirkungen auf Rollen und Status von Key Playern und
Mitarbeitern?
Die Ergebnisse der Change Impact Analyse – und seien es auch
nur allererste Einschätzungen – liefern dem Projektteam zu
diesem frühen Zeitpunkt bereits Input für die Gestaltung der
­initialen Projektk­ommunikation. Zudem zeigen sie systematisch
auf, welche Stakeholder-Gruppen besonders stark vom Projekt
betroffen sind und wo die Prioritäten für das zu entwickelnde
Change-Konzept liegen sollten.
Mit fortschreitendem Projektverlauf wird die Change Impact
Analyse schrittweise detailliert. Gemeinsam mit Ergebnissen aus
Fokus Interviews bilden die Erkenntnisse der Impact Analyse die
Basis für das Design zielgruppenspezifischer Change-Maßnahmen und die Entwicklung von Kommunikationskonzepten.
Zeitnaher Dialog statt brodelnder Gerüchteküche:
Change-Kommunikation
Sie liefen die längere Runde am See entlang. Lutter, der parallel für
einen Marathon trainierte, dominierte inzwischen das Lauftempo.
„Was macht Deine Projektkoordination? Alle Ampeln auf grün?“
fragte er. Wagner hatte projektbedingt in den letzten zwei Wochen
keine Zeit zum Laufen gehabt und musste zusehen, dass Lutter ihn
nicht abhängte. „Na ja....“. Wagner zögerte. „Heute war Steering
Meeting, in dem ich das Kommunikationskonzept für den Projektstart vorgestellt habe. Mit vielem hatte ich gerechnet, aber nicht mit
einer solch hitzigen Diskussion zu diesem Thema! Zwei der Steering
Mitglieder fanden es zu früh, jetzt schon „kommunikativ on air“ zu
gehen, wie einer sich ausdrückte. Am liebsten würde er zu diesem
Zeitpunkt nur verkünden, dass ein Projekt zur Effizienzsteigerung
aufgesetzt wurde, die grobe Zielsetzung bekanntmachen und auf
folgende Informationen verweisen. Du kannst Dir ja vorstellen, was
das in der Mannschaft auslöst!“ Lutter, dessen Unternehmen gerade einen Merger hinter sich hatte, wusste Wagners Befürchtung zu
übersetzen: „Bei den Führungskräften sind plötzlich die Bürotüren
auffallend oft geschlossen und die fensterlose Kaffeeküche entwickelt
sich über Nacht zum hot spot der Mitarbeiter!“
Wenn unbequeme Wahrheiten auszusprechen sind, harte Ziele
verkündet werden müssen und ein damit verbundener steiniger
Weg vor dem Unternehmen liegt, neigen Management und Projektverantwortliche dazu, mit der Kommunikation zu warten.
Man möchte im Unternehmen keine Unruhe verbreiten und
über „ungelegte Eier“ sprechen, bevor Eckpunkte anstehender
Kostensenkungen und Prozessoptimierungen vereinbart sind.
So verständlich und ehrbar diese Einstellung ist – sie hat die
entgegengesetzte Wirkung. Das Schweigen des Managements
und jede Nicht-Kommunikation deuten Mitarbeiter als die
Ruhe vor dem Sturm. Jede Mail, jeder Intranet-Artikel und
­jedes Interview mit dem Management wird auf das genaueste
auf mögliche Anzeichen für das Kommende hin untersucht.
­Alles Nicht-Gesagte bietet Anlass für neuerliche Spekulationen,
man hört sprichwörtlich das Gras wachsen. Und selbst in Unternehmen mit zahlreichen durchlebten Veränderungsprozessen
breitet sich der Flurfunk jedes Mal auf´s Neue in ungeahnter
Geschwindigkeit aus.
Dem sich bereits entwickelten Misstrauen in dieser Phase mit
einer für die Projektziele und das geplante Vorgehen werbenden
Kommunikationskampagne begegnen zu wollen, gleicht einer
Herkulesaufgabe. Dramaturgische Fehler in der Startphase des
Projektes und in der Kommunikation sind nicht oder nur mit
immensem Aufwand langwierig wieder zu bereinigen.
37
Detecon Management Report • 1 / 2010
Organization
Aus der Erfahrung von Kostensenkungs- und Reengineringprojekten mit heiklen Zielen empfiehlt es sich, sehr früh mit einer offenen und ehrlichen Kommunikation zu starten und so –
möglicherweise – unbegründeten Ängsten und überbordenden
Spekulationen den Nährboden zu entziehen. Dabei muss das
Management und das Projektteam die Ambivalenz aushalten,
die sich aus noch nicht fixierten Problemen und bereits bekannten, möglicherweise noch nicht kommunizierbaren Randbedingungen ergibt. Die Erwartung der Mitarbeiter nach dem
Informationsgehalt der initialen Kommunikation wird immer
um ein Vielfaches größer sein als das, was zu diesem Zeitpunkt
gesagt werden kann.
Basis für die „Story“ der ersten Kommunikation sind Ausgangslage und Handlungsdruck als Grund für das aufgesetzte Projekt.
Hier gilt es, offen und ehrlich die aktuelle Lage darzustellen.
Dazu gehört auch der Mut, mögliche Fehlentwicklungen, Entscheidungen aus vorangegangenen Programmen und Fehleinschätzungen auszusprechen und nicht einfach unter den Teppich
zu kehren. Die Glaubwürdigkeit der Projektziele ist symbiotisch
mit dem authentischen und offenen Kommunikationsauftritt
des Managements verbunden.
An dieser Stelle sei auf die Mitbestimmungsrechte des Sozialpartners in Veränderungsprojekten verwiesen. Generell sollten
sich Management und Projektleitung über die gesetzlichen
Regelungen hinaus ihre projektspezifische Strategie der Zusammenarbeit und möglicherweise frühzeitigen Einbindung
des Betriebsrats zurechtlegen. Dies gilt insbesondere für die geplante Erst-Kommunikation, die als Weichenstellung für eine
mögliche Kooperation betrachtet werden kann.
Eckpunkte der „Story“ einer Erst-Kommunikation:
• Ausgangslage, aktuelle Situation und „Pain Points“ • Handlungsdruck: Warum müssen wir etwas verändern?
Was würde geschehen, wenn wir nichts ändern?
• Projektziele: Welche strategischen Ziele verfolgen wir mit der
Veränderung? Wie wird der Zielzustand aussehen?
• Projektplanung und -organisation: Wie wollen wir es erreichen?
Wer sind die Projektbeteiligten?
• Projektstatus: Wo stehen wir heute? Was ist klar, was noch nicht
entschieden? Wie geht es im Projekt weiter?
Sich von vornherein dem Dialog mit der Belegschaft zu stellen,
schafft Glaubwürdigkeit und stützt so den Veränderungsprozess. Auch wenn viele Fragen der Mitarbeiter in diesem ­Stadium
noch unbeantwortet bleiben werden und es sich für beide Seiten möglicherweise unbefriedigend anfühlt – der Anfang ist gemacht, ein Informationsvakuum ist gar nicht erst entstanden
und die Belegschaft spürt trotz vieler offener Themen, dass sie
mit ihrem Wunsch nach zeitnaher Information ernst genommen wird.
Veränderung aktiv führen:
Die Rolle der Führungskräfte in ­Effizienzprojekten
Auf ihrer Sonntagsrunde erzählte Lutter begeistert von seinem
Leadership-Training, von dem er am Vorabend zurückgekehrt war.
„Anspruchsvoll, interaktiv, spannend gemacht und die Teilnehmer kamen aus allen Branchen. Tat mal wieder gut, sich über den
Firmen-Tellerrand hinaus mit anderen intensiv auszutauschen“.
Wagner, der seine Frau und Kinder seit Wochen fast nur schlafend
gesehen hatte, spürte ein wenig Neid in sich hochsteigen. Im Projekt
wuchs der Druck, die Timeline war kaum zu halten und gestern
hatte sich auch noch sein Teamleiter, der ihm momentan viele seiner
Linienaufgaben abnahm, für die kommende Woche krank gemeldet.
Die Stimmung in der Linie war ohnehin seit Wochen angespannt.
Die zynischen Bemerkungen seiner Bereichsleiter-Kollegen, die er
jetzt nur noch im wöchentlichen Jour Fixe traf, nahmen auffallend
zu. Und hinter der langen Diskussionsdauer für eigentlich klare
Themen vermutete er den Beginn von Positionierungskämpfen. Erst
am Freitag hatte er ein längeres Meeting mit dem Change Manager,
der ihn seit kurzem unterstützte. Wie er, Wagner, die Veränderungskompetenz der Führungskräfte einschätze, wollte dieser von ihm
wissen. Wagner war im Verlauf des Gespräches bewusst geworden,
was sie verstärkt angehen mussten.
Inzwischen hat sich die Erkenntnis durchgesetzt: Commitment und Glaubwürdigkeit des Managements und die realistische, klare Vision und Zielsetzung sowie ihre offene und klare
Kommunikation zählen zu den wichtigsten Erfolgsfaktoren für
Veränderungsprozesse.2 Wenn die Unternehmensspitze in der
Start- und Mobilisierungsphase die Ziele eines Effizienzprogramms vorgibt, als Bündnispartner die Stakeholder gewinnt,
alle Energien für das Projekt bündelt und offen und authentisch
kommuniziert, sind wesentliche Grundsteine für den Projekterfolg gelegt. Das Top Management führt den Veränderungsprozess und ist der „Motor“ dessen.
Die Führungskräfte des mittleren und operativen Managements
sind es, die als „Keilriemen“ die Umsetzung der Veränderungsziele im Unternehmen verantworten. An ihnen ist es, Akzeptanz
bei den Mitarbeitern zu erzeugen, eine kritische Masse für die
Ziele zu gewinnen und die Projektziele mit ihren Mitarbeitern
2 Capgemini Consulting, “Change Management Studie 2008”, S. 40
38
Detecon Management Report • 1 / 2010
Am Puls der Veränderung
zu realisieren. Auf ihnen lastet die permanente Verantwortung,
im Tagesgeschäft auf breiter Ebene die neuen Prozesse umzusetzen, die Kosten weiter zu senken und Personal um- oder abzubauen. Von ihrem Engagement und dem sichtbaren Vorbildverhalten hängt in einem hohen Maß das Projektergebnis ab.
Als Bindeglied zwischen Management und Mitarbeitern nimmt
das mittlere Management eine Sandwich-Position ein: Ambitionierte Ziele, hoher Erwartungs- und Erfolgsdruck, straffer
Projekt- und Zeitplan von „oben“ – Unsicherheit, Widerstand
und Unverständnis von „unten“ in einer Situation, wo möglicherweise die letzte Reorganisation oder Prozessoptimierung
auf operativer Ebene nicht mal abgeschlossen ist und das neue
Projekt das noch laufende rechts überholt. Sie sind oftmals
nicht nur Beteiligte, sondern ebenso Betroffene des aktuellen
Projektes und müssen Orientierung geben bei gleichzeitig eigener Unsicherheit.
Umso wichtiger ist es, der Zielgruppe des mittleren und operativen Managements in der Change-Konzeption besonderes
Augenmerk zu schenken. Ausgeprägte Frustrations- und
­Ambiguitätstoleranz3, Erfahrung im Konfliktmanagement
und die Fähigkeit, immer wieder Distanz zur eigenen Situation und Betroffenheit halten zu können, sind die Grund­
voraussetzungen, um in Zeiten starker Veränderungen über
lange Zeiträume Mitarbeiter – und sich selbst – adäquat führen zu können. Ein speziell auf die Zielgruppe des mittleren
und operativen Management zugeschnittenes Change-Konzept
­stärkt die Veränderungskompetenz und das Führungsverhalten
in Effizienz-getriebenen Projekten (siehe Kasten).
Führungskräfte, die sich in der Umsetzung eines Veränderungsprojektes befinden, benötigen eine kontinuierliche Begleitung.
Insoweit sind die dargestellten Empfehlungen als mögliche Interventionen zu verstehen, die je nach Prozessverlauf ausgewählt,
überdacht, neu konzipiert oder gar verworfen werden müssen.
Auch wenn sich der ein oder andere Manager aus Kostengründen
ein plan- und kalkulierbares Change-Konzept „out-of-the-box“
wünscht: Im Hinblick auf die Zeitdauer der Umsetzungsphase stellt ein prozessorientiertes Vorgehen mit der Fragestellung
„Was ist jetzt wichtig? Was ist gerade nun notwendig?“ situationsgerechte Veränderungsmaßnahmen ­sicher. Und setzt die
Ressourcen zum richtigen Zeitpunkt und an der richtigen Stelle
ein – effektives Change Management im ­Effizienzprojekt.
Schwerpunkte eines Change-Konzeptes für Führungskräfte (Beispiel):
• Mitgestaltung
Key Player in die Projektplanung und in Steuerungsgruppen
einbinden und damit den direkten Bezug zur operativen Ebene
sicherstellen.
• Commitment
- Erwartung an die Rolle und das Führungsverhalten des
mittleren Management im Effizienzprojekt klar kommunizieren
- Buy in“ der Führungskräfte über Intensiv-Workshops zu
Ausgangslage, Zielen und Vorgehen des Effizienzprojektes verstärken
- Führungskräfte als Change Agents gewinnen
• Kommunikation
- Kommunikationskonzept für die Zielgruppe des mittleren und
operativen Managements aufsetzen und durchführen
- Info-Package mit Methodenkoffer, Workshop-Designs,
Präsentationen erstellen zur Verwendung von Führungskräften
für die Zielgruppe „Mitarbeiter“
• Veränderungskompetenz
- Praxisbezogenes Training „Führen in Veränderung“ mit
Schwerpunkt-Themen und Herausforderungen des aktuellen
Veränderungsprojektes durchführen
- Change Coaching auf 1:1-Basis bedarfsorientiert anbieten
• Vernetzung
Eigeninitiative der Führungskräfte zur Vernetzung stärken über
Methodenvermittlung wie kollegiale Beratung oder Bildung von
Peer Groups
• Best Practice und Nachhaltigkeit
Reviews und Lessons Learnt-Workshops mit Führungskräften
durchführen: Was läuft im Veränderungsprozess erfolgreich,
welche Methoden sind hilfreich und welche weniger?
Claudia Skrobol arbeitet seit 2007 als Senior Consultant im Bereich Transformation Management mit den Themenschwerpunkten Business Transformation,
Change Management und Programm- und Projektmanagement. Sie verfügt
über langjährige Erfahrung im Telekommunikationssektor – davon zehn Jahre
als Führungskraft und Projektleiterin für Reorganisations-, Post Merger Integration- und Kulturentwicklungsprojekte. In der Beratung verbindet sie ihre
Praxis-Expertise mit der Detecon Transformation Management Methodik und
dem Ansatz der systemischen Beratung.
[email protected]
3 Ambiguitätstoleranz: Das Ertragen von Mehrdeutigkeiten, Widersprüchlich keiten, ungewissen und unstrukturierten Situationen oder unterschiedlichen
Erwartungen und Rollen, die an die eigene Person gerichtet sind.
39
Detecon Management Report • 1 / 2010
Organization
Dr. Olivier Coutand, Jawahar Sajjad, Dr. Andreas Amann
Den Goldgehalt
prüfen
Verbesserung der Effektivität von Operationen zur Umsatzsicherung
Weltweit sind Telco-Betreiber damit beschäftigt, organisatorische ­Effizienz durch
­Revenue Assurance zu steigern. Womit sie sich jedoch nicht ­befassen, ist die Notwendigkeit zur Steigerung der Effizienz, mit der ­Revenue ­Assurance selbst durchgeführt
wird. Betreiber sollten davon absehen, Schwachstellen über das aufwändige Verfahren
der Simulation jeder einzelnen Datentransaktion zu kontrollieren – und vielmehr alle
vorhandenen Hebel ziehen, um die nächst höhere Stufe ansteuern.
40
Detecon Management Report • 1 / 2010
Den Goldgehalt prüfen
m Gewinnmargen aufrechtzuerhalten und zu steigern, gibt
U
es zwei populäre Methoden: die Umsätze über ein neues Pro-
duktangebot oder einen aggressiven Vertrieb hochtreiben oder
die Kosten über technologische Fortschritte und gesteigerte Effizienz senken. Noch vor Beginn der aktuellen Finanzkrise hat
die Telco-Branche aufgrund des Bedarfs für neue, attraktivere
und mehrwerthaltige Produkte massive Erneuerungen durchgeführt, um sinkende ARPUs abzufangen. Zur Stützung einer
komplexeren und gleichzeitig flexiblen Produktstruktur haben
Betreiber Investitionen in NGNs, IP-basierte Produkte und in
NG-Billing vorgenommen. Die Kombination aus Marktsättigung, sinkendem Umsatz der Sprachprodukte und instabiler
finanzieller Lage lässt der Branche nur noch wenige Optionen.
Der Fokus liegt jetzt deutlich auf der Verbesserung der betrieblichen Effizienz. Die größten Investitionen, die in diesem
Zeitraum getätigt werden, gelten der Optimierung des Produktionsbetriebs. Trotz dieser Anstrengungen fangen die erzielten
Kostensenkungen die dramatischen Umsatzeinbußen der vergangenen Jahre bislang nicht auf.
Die Notwendigkeit zur Revenue Assurance
An dieser Stelle setzt Revenue Assurance an. Eine von ­Analysys
Research UK in 2007 durchgeführte Studie, die zirka 100 welt­
weit operierende Telco-Betreiber einbezog, gibt Aufschluss über
die Misere der gesamten Branche. Der gesamte Umsatz der
Branche wird für 2007 weltweit auf etwa 1,6 Billionen US-Dollar geschätzt. Von diesem Umsatz wurden zirka 218 Milliarden
US-Dollar nicht realisiert. Der Trend der vorangegangenen Jahre ist sogar noch alarmierender: Die Umsatzeinbußen sind von
11,6 Prozent in 2005 auf 13,6 Prozent in 2007 gestiegen. Splittet man diese Verluste nach geografischen Regionen auf, können
sie in einigen Fällen, zum Beispiel in Unternehmen im Mitt­
leren Osten und in Afrika, sogar bis zu 20 Prozent b­ etragen.
Durch den Einsatz effizienter Strategien und Methoden zur
­Realisierung von Revenue Assurance in ihren Unternehmen
können Telcos sicherstellen, dass Umsatzeinbußen korrigiert
und verhindert werden und dass sich ihre Verluste somit erheblich verringern.
Mit der Zunahme an Popularität während des vergangenen
Jahrzehnts hat sich Revenue Assurance zu einem Überbegriff für
eine Bandbreite an Konzepten entwickelt, die darauf ab­zielen,
den Telcos gesundes Wachstum zu bescheren. Genauer gesagt,
bezieht sich Revenue Assurance auf die Datenqualität und Prozessverbesserungsmethoden, die Gewinne, Umsätze und Cash
Flows ohne Auswirkung auf die Nachfrage steigern.1 Ziel dieser Methoden ist die Minimierung der Umsatzein­bußen, die
auf den unterschiedlichen Stufen des Billing-Prozesses des
­Unternehmens eintreten. Eines der Hauptziele von Revenue
­Assurance besteht somit darin, die Konsistenz und Validität der
in den Billing-Prozess einbezogenen Daten zu gewährleisten.
Um die mit Revenue Assurance verknüpften Erwartungen
nachvollziehen zu können, ist es unumgänglich, sich zunächst
mit dem Problem zu befassen, das mittels Revenue Assurance
in Angriff genommen werden soll. Der Billing-Prozess wird
häufig als die Hauptschlagader eines Telco-Unternehmens betrachtet, da er die Bits und Bytes der digitalen Informationen
innerhalb eines Netzes für den Service Provider in Geld umwandelt. Wenn ein Kunde im Rahmen des Postpaid-Business
Anrufe tätigt, bewirken die über das Netz vermittelten Verbindungen, beispielsweise Schaltungen, das Aufzeichnen ihrer Aktivitäten. Diese Aufzeichnungen beinhalten die Identifikation
des Kunden und sonstige wichtige Informationen, die an das
Billing-System weitergegeben werden. Das Billing-System erhält ebenfalls Aufzeichnungen von anderen Carriern, zum Beispiel von nationalen Service Providern oder Roaming-Partnern.
1 TR131, Revenue Assurance Overview, Release 2.0, verfügbar unter
http://www.tmforum.org/DocumentsRevenue/TR131RevenueAssurance/
35902/article.html
41
Detecon Management Report • 1 / 2010
Organization
Das Billing-System übernimmt das Guiding dieser „Call Detail
Records“ (CDRs) zu den richtigen Kunden und aktualisiert
die Rating-Information. Alle Informationen über den Kunden
werden erfasst, zum Beispiel Tarife, die aktualisierten BillingAufzeichnungen werden in einem Billing-Pool platziert, so dass
sie gegebenenfalls zu einer einzigen Rechnung, die dem Kunden
übermittelt wird, zusammengefasst werden. Der Kunde leistet
daraufhin seine Zahlung an den Telco-Dienstleister. Zahlungen
werden im Billing-System erfasst und die History-Dateien anschließend für die Zwecke der Kundendienstberater (CSRs)
und Auditing Manager aktualisiert.
Umsatzeinbußen im Postpaid- und Prepaid-Business
Im Postpaid-Business können Umsatzeinbußen sich an jeder
Stelle des Billing-Prozesses ergeben. Folgende unterschiedliche
Arten von Fehlern und Problemen verursachen die Einbußen:
• Fehler bei der Erhebung und Vermittlung resultieren zum
Beispiel aus der großen Vielzahl der verwendeten Datenerfassungsgeräte, den zahlreichen Datenformaten, die verwendet
werden, und dem Umgang mit fehlenden, unvollständigen oder
redundanten Daten in der Billing-Kette.
• Billing-Probleme resultieren aus der Nichteinhaltung
vertraglich vereinbarter Tarife, technologischer Komplexität
aufgrund unterschiedlicher Systeme für unterschiedliche Geschäftsmodelle, postpaid, prepaid und andere, ungeprüften
Rechnungen, Rechnungen, bei denen zu viel (over billing) oder
zu wenig (under billing) berechnet wurde.
• Fehler bei der Verwendung von Datenerfassungsgeräten
­resultieren aus unvollständigen Nutzungsdaten, fehlerhaften
Geräten und System-Setup, unterschiedlichen Zeitstempeln
und Inkompatibilität der Geräte.
• Fehler beim Kunden-Provisioning und bei den Aufträgen
resultieren beispielsweise aus falschen Kunden- und Vertragsdaten, mangelhaften Sicherheitsmechanismen, Verzögerung in
Bezug auf Service-Aktivierung und Statusänderung, ServiceBestellvorgang versus Statusänderung oder inkonsistem ServiceStatus.
42
Detecon Management Report • 1 / 2010
• Fehler in den Finanz- und Accounting-Systemen resultieren
vor allem aus fehlerhaften Interaktionen (Datenaustausch) mit
anderen Systemen, uneinheitlichen Informationen, Folgehandlungen wie Mahnungen oder Bugs in Software-Updates und
Fehlerbehebungen.
Doch Umsatzeinbußen sind nicht auf das Postpaid-Business
beschränkt. Prepaid ist ebenfalls ein Thema, wenn es um Umsatzverluste geht, und das gilt auch für das Roaming- und InterOperator-Business.
Wenn es darum geht, keine Umsatzeinbußen zu erleiden,
­gleichen die Herausforderungen im Prepaid-Business denen
des Postpaid-Business. Fehlerhafte Wahl der Gebührenpläne,
­Fehler in Netz-Routen oder in sonstigen Referenzangaben führen letztendlich dazu, dass Kunden falsche Beträge in Rechnung
gestellt werden. Umsatzeinbußen bei Prepaid-Services können
ebenfalls die Folge einer fehlerhaften Konfiguration sein. Bei
der Konfiguration von Prepaid- und Postpaid-Services müssen
„Switch-Fähnchen“ gesetzt werden, damit für jeden einzelnen
Kunden der Status Prepaid- oder Postpaid-Kunde festgelegt
werden kann, so dass die Call Records der entsprechenden Billing-Plattform zugeordnet werden können. Wenn diese falsch
gesetzt wurden, werden die Prepaid-Records an die PostpaidBilling-Plattform weitergeleitet, wo sie im Schwebezustand verharren und eventuell für einige Zeit unentdeckt oder ungelöst
bleiben. Bis das Problem gelöst ist, können die Prepaid-Kunden
in der Zwischenzeit kostenlos telefonieren. Spezielle Umsatzverluste im Prepaid-Business sollten auch in Verbindung mit dem
Überziehen von Kreditlinien beachtet werden. In nicht-onlinebasierten Prepaid-Architekturen würde zwischen dem auf Null
zulaufenden Prepaid-Kontostand der Nutzer und dem an das
HLR gesendeten Sperrbefehl eine Verzögerung eintreten – dieses
Zeitfenster ermöglicht es immer noch, Anrufe zu tätigen.
Um die finanzielle Leistungsfähigkeit eines Unternehmens zu
verbessern und die Quellen für Umsatzeinbußen einzudämmen,
sind dedizierte Prozeduren für Systeme entlang des Billing-Prozesses erforderlich, um zum Beispiel Account-Aktivierung und
Tracking, Wahl des Service-Merkmals, Wahl der Billing-Gebühren für spezielle Anrufe, Rechnungserstellung, Erfassung der
Zahlung und Kommunikationsabläufe mit den Kunden zu ermöglichen. Das Problem besteht jedoch darin, dass Umsatzein-
Den Goldgehalt prüfen
bußen an vielen unterschiedlichen Stellen des Billing-Prozesses
und bei allen Geschäftsarten – Prepaid, Postpaid, Roaming und
Inter-Operator – entstehen und es daher wenig hilfreich ist, eine
Reihe unkoordinierter Ad-hoc-Maßnahmen zu ergreifen. Zur
Realisierung von Revenue Assurance müssen diese Maßnahmen
vielmehr Bestandteil eines umfassenden Ansatzes sein.
Weltweit führende Betreiber haben dieses Erfordernis erkannt
und halten an ihrer eigenen Methode zu Revenue Assurance
fest.
Gegenwärtige Realisierung von Revenue Assurance
greift noch zu kurz
Konfrontiert mit der Notwendigkeit, sinkende ARPUs in Zeiten
starker wirtschaftlicher Schwankungen abzufangen und stets
­attraktivere und gleichzeitig komplexere Mehrwertprodukte auf
den Markt zu bringen, sowie ermutigt durch Untersuchungen
und Berichte, die einen kontinuierlichen Anstieg der Umsatzverluste konstatieren, haben Solution Provider Revenue Assurance als eine unumgängliche Maßnahme für ihr Unternehmen
akzeptiert. Die weltweite Diskussion in Telco-RA-Foren2 hat
sich damit vom „Warum“ auf das „Wie“ verlagert.
Die herkömmliche Methode zu Revenue Assurance besteht darin, dass die Betreiber Umsatzverluste aufspüren, indem sie nach
Problemen in zentralen Billing-Systemen suchen und Schwachstellen im gesamten Unternehmen identifizieren. Diese Do-ityourself-Strategie zielt darauf ab, dass Betreiber alle relevanten
Transaktionen und Anwendungen überwachen. Entdeckte
Schwachstellen werden dann mithilfe einer bestimmten Maßnahme korrigiert und die Suche nach der nächsten Schwachstelle wird fortgesetzt. Das Erkennen der Schwachstellen führt
dazu, dass der Provider jetzt mit der Verarbeitung einer ungeheuren Datenmenge konfrontiert wird. Um herauszufinden, wo
das Geld hingegangen ist, müssen CDRs normalerweise über
den gesamten Billing-Prozess hinweg kontrolliert und geprüft
werden.
Da die Betreiber außerdem von der Notwendigkeit der Revenue
­Assurance überzeugt sind, haben sich die meisten für unabhängige Vendor-Lösungen entschieden, die die technischen Aspekte
2 Für Umsatzsicherung wird der Einfachheit halber an einigen Stellen die
englische Abkürzung RA verwendet.
beleuchten und dabei helfen, das Problem der Datenkomplexität anzugehen. Die Lösungen ermöglichen es, viele Stellen innerhalb des Netzes und des Back Office zu prüfen. Vendor-Portfolios richten sich an die unterschiedlichen Bedürfnisse entlang
des Billing-Prozesses über Data-Warehousing-­Lösungen, ­Ratingund Billing-Prüfungssysteme oder Nutzenabgleichsysteme. Die
Betreiber haben sich daher bislang auf eine umsetzungsorientierte Methode zur Realisierung von Revenue Assurance gestützt: Oft haben sie Best-in-Class-Software zur Identifizierung
von Schwachstellen erworben und anschließend – zur Bedienung der Systeme – ein Team von IT-Spezialisten engagiert, die
den Billing-Prozess gründlich überprüfen und das Nutzungsverhalten betrügerischer Kunden überwachen ­können.
Doch trotz ihrer Anstrengungen fangen die erzielten Kostensenkungen die dramatischen Umsatzeinbußen der vergangenen
Jahre nicht auf.
Nach dieser herkömmlichen Methode wird Revenue Assurance
als ein separater und relativ autonomer Geschäftsbereich innerhalb des Unternehmens aufgefasst. RA-Spezialisten werden
– wie jeder andere Marketingspezialist oder Produktentwickler – mit bestimmten Aufgaben, nämlich der Feststellung und
Korrektur von Umsatzeinbußen, betraut. Zur Lösung dieser
Aufgabe werden ihnen optimale IT-Systeme zur Verfügung gestellt. Auch wenn der Einsatz von Tools beim Aufspüren von
Schwachstellen sicherlich hilfreich ist, verfahren Spezialisten bei
ihrer Arbeit oft so, dass sie ihr Augenmerk auf die unmittelbaren
und sichtbaren Konsequenzen der Umsatzeinbußen ­lenken,
um möglichst schnell Ergebnisse erzielen zu können. Stützt
man sich zu sehr auf Vendor-Lösungen und konzentriert sich
zu stark auf technische Aspekte, verstellt das die Optik auf die
speziellen Unternehmensschwachstellen innerhalb des Revenue
Management-Prozesses.
Auch wenn die Überwachung sämtlicher Transaktionen hinsichtlich der Behebung der Umsatzeinbußen von Nutzen sein
kann, ist dieser Vorgang sowohl redundant als auch kostspielig.
Um bessere Ergebnisse zu erhalten und um Revenue Assurance
als strategische Funktion innerhalb der Unternehmen zu verankern, ist ein umfassenderer Ansatz in Bezug auf diese Thematik
erforderlich. Kurzum, ein solcher Ansatz sollte schnellere und
43
Detecon Management Report • 1 / 2010
Organization
nachvollziehbare Ergebnisse liefern und nachhaltigere Auswirkungen haben, während gleichzeitig die Abhängigkeit von ITTools reduziert und die Zusammenarbeit über sämtliche Geschäftsfunktionen hinweg verbessert werden sollte.
Der Multi-Level-Ansatz zur Umsatzsteigerung
Die Minimierung der Umsatzverluste und die damit verbundene Steigerung der finanziellen Leistungsfähigkeit eines
Unter­nehmens wird unterstützt durch das aktive Erkennen der
Schwachstellen, die gegenwärtig zu einschneidenden Umsatzverlusten führen, als auch durch das Verfolgen der Schwachstellen, deren Auswirkungen einem Unternehmen langfristig
Schaden zufügen, zum Beispiel das negative Image eines Betreibers, das er seinen Kunden (Kundenerhalt) oder potenziellen
Neukunden (Kundenakquise) vermittelt.
Eine effiziente Methode zu Revenue Assurance muss jedoch gewährleisten, dass Schwachstellen proaktiv verfolgt und behoben
werden. Um die Umsatzeinbußen niedrig zu halten, muss das
Entstehen neuer Schwachstellen verhindert beziehungsweise
müssen diese so früh wie möglich entdeckt werden.
Um all diese Aspekte effizient angehen und die technologische
Komplexität beherrschen zu können, darf eine angemessene
Methode zu Revenue Assurance nicht darauf reduziert sein,
tagtäglich Umsatzeinbußen festzustellen und zu kontrollieren.
Daher ist ein Multi-Level-Ansatz erforderlich, der den strategischen Rahmen für die Festlegung der Aktivitäten zu Revenue
Assurance des Unternehmens vorgibt und die betrieblichen Abläufe zur Minimierung der Umsatzverluste regelt.
Es gibt keine Wunderwaffe für eine Methode zu Revenue Assurance. Jedes Unternehmen stützt sich auf sein eigenes Organisationsmodell und IT-Umfeld, legt bestimmte Ziele und Pläne
fest und entwickelt und vermarktet seine eigenen Produkte.
Revenue Assurance muss auf diese unternehmenseigenen Spezifitäten zugeschnitten sein. Die Eigenschaften eines leistungsstarken Multi-Level-Ansatzes zur Umsatzsteigerung können wie
folgt skizziert werden:
Strategieorientiert: Für eine erfolgreiche Realisierung von
­Revenue Assurance ist die Einbindung der Top-Führungskräfte
von zentraler Bedeutung, denn sie transportieren die Botschaft,
44
Detecon Management Report • 1 / 2010
dass die Umsatzströme effektiv gemanagt werden müssen,
wenn die Ergebnisse beibehalten oder verbessert werden sollen,
und etablieren Revenue Assurance unternehmensweit. Strategische Aspekte werden häufig übersehen, wenn wichtige Entscheidungen getroffen werden, und dies gilt auch für Revenue
­Assurance. Die Investitionsrentabilität wird in Verbindung mit
­Revenue Assurance häufig als die wichtigste Kennzahl betrachtet. Doch was mittels dieser Messgröße nicht erfasst werden
kann, sind Langlebigkeit und nicht-monetärer Nutzen, der aus
einer Investition resultiert.
Managed: Eine wichtige Voraussetzung zur effizienten Umsetzung von Revenue Assurance ist, dass die Verantwortung für
diese Aufgabe einer dedizierten Geschäftsfunktion übertragen
werden muss. Dem RA-Team des Unternehmens obliegt die
Wegbereitung zur Realisierung von ­Revenue Assurance, Berichterstattung gegenüber und Abstimmung der Aktivitäten mit
dem Management, Entwicklung der Tools und Festigung der
RA-Practices des Unternehmens.
Übergreifend: Als funktionsübergreifende Thematik bietet Revenue Assurance nicht nur anderen Geschäftseinheiten Vorteile,
sondern ist ebenfalls auf deren Unterstützung angewiesen. Angefangen bei den kaufmännischen Geschäftsbereichen bis hin
zum Personalwesen, zur Qualitätssicherung oder zu den internen Prüfern – Revenue Assurance ist für alle wichtig und relevant zugleich. Für das RA-Team gilt, seinen Einfluss dadurch
unternehmensweit geltend zu machen, dass es Geschäftsfunk­
tionen dazu bringt, ihre betrieblichen Abläufe kontinuierlich
aus der Perspektive von Revenue Assurance zu überprüfen.
Für eine derart breit angelegte Thematik ist die Festlegung einer
schlüssigen Strategie von zentraler Bedeutung, damit die Erwartungen der Geschäftsführung effektiv in betriebliche Abläufe
umgesetzt werden können.
Standardisiert: Auch wenn eine Methode immer speziell auf
ein Unternehmen zugeschnitten ist, wäre es kontraproduktiv
und zeitaufwändig, nicht von Standards zu profitieren und auf
Praxisbeispiele zurückzugreifen, die sich für andere als erfolgreich erwiesen haben. Revenue Assurance ist nach wie vor ein
neues Thema, doch einige Industrienormen gibt es bereits. Bei
der Entwicklung von Betriebsmodellen für die Geschäftseinheit
ist es äußerst hilfreich, auf bestehende Grundlagen üblicher
Den Goldgehalt prüfen
Industrienormen zurückzugreifen. Diese Normen beinhalten
üblicherweise den New Generation Operating Systems und
Software (NGOSS) Framework des TMForums sowie sonstige
Normen, zum Beispiel spezielle Zertifizierungen wie Grapa.
Best Practices von ITIL (IT-Infrastrukturbibliothek) liefern
ebenfalls nützliche und effiziente Maßnahmen zur Vermeidung
üblicher Stolpersteine.
Adaptiv: Die Wahl eines für das Unternehmen geeigneten Ansatzes ist definitiv ein wichtiger Schritt zur Realisierung von
Revenue Assurance. Doch den RA-Experten innerhalb eines
Unternehmens sollte stets bewusst sein, dass ein geeigneter Ansatz in Einklang mit der Entwicklung eines Unternehmens sein
muss, da es sich im Laufe der Entwicklung sowohl an externe – Marktdruck, technologische Entwicklung – als auch an
interne Änderungen – strategische Restrukturierung – anpasst.
Betriebsabläufe, die sich zu einem bestimmten Zeitpunkt als
erfolgreich erwiesen haben, können einige Monate später eventuell überholt sein. Daher sollte sich das RA-Team, auch wenn
es erfolgreich ist, nicht auf seinen Lorbeeren ausruhen, sondern
die technischen Entwicklungen verfolgen und die eingesetzten
Tools und Methoden prüfen, während es, beispielsweise in der
RA-Community, nach neuen Practices Ausschau hält.
Produktzentriert: Auf jeden Fall ist es wichtig, im Auge zu
behalten, dass Revenue Assurance in erster Linie darauf abzielt, die finanzielle Leistungsfähigkeit eines Unternehmens zu
verbessern. Die wichtigsten Akteure, die die Finanzlage eines
Unternehmens steuern, sind zweifelsohne die Produkte oder
Leistungen, die ein Unternehmen verkauft. Die Entwicklung
einer produktzentrierten Methode zu Revenue Assurance beinhaltet, dass kein Produkt ohne die Zustimmung des RA-Teams
auf den Markt eingeführt werden darf, weil nur so sichergestellt
werden kann, dass das neue Produkt in Einklang mit den in
dem Unternehmen bestehenden RA-Richtlinien ist. Dies erfordert allerdings die Entwicklung einer Top-down-Methode
zu Revenue Assurance, die RA-Richtlinien ab dem Zeitpunkt,
an dem die Produktentwicklung abgeschlossen ist, bis zu dem
Zeitpunkt, an dem es auf den Markt eingeführt wird, beinhaltet. Eine solche Methode steht im Gegensatz zu einer umsetzungsbasierten Methode, die gegenwärtig von der Mehrheit der
Betreiber eingesetzt wird.
Regeln für eine effiziente Organisation
von Revenue Assurance
Sowie die Methode etabliert und der Handlungsrahmen festgelegt ist, bestehen die nächsten Schritte zur Umsetzung von
Revenue Assurance darin, diese zu aktivieren und die tagtägliche Vorgehensweise für das Aufspüren und Minimieren der
Umsatzverluste festzulegen.
Wie bereits zuvor erwähnt muss jede Vorgehensweise auf die
Besonderheiten eines Unternehmens zugeschnitten sein. Trotzdem ist es möglich, von zurückliegenden Erfahrungen, die im
Rahmen von Revenue Assurance gemacht wurden, zu profitieren und Regeln für diese Betriebsabläufe zu entwickeln.
Regel Nr. 1: Betrachten Sie Revenue Assurance nicht nur als technisches „Fixing Tool“!
Das für die Identifizierung von Schwachstellen verwendete
IT-Tool wird im Rahmen der Revenue Assurance-Abläufe typischerweise als zentrale Säule betrachtet. Ein IT-basiertes Revenue Assurance Tool kann jedoch nur Unterstützung als Teil
eines Gesamtprozesses bieten.
Schwachstellen ändern sich dynamisch, der Identifizierungsprozess muss sich schnell entsprechend anpassen. Bei einer erfolgreichen Methode zur Realisierung von Revenue Assurance ist es
daher von zentraler Bedeutung, Techniken und Aktivitäten in
Betracht zu ziehen, die in puncto Revenue Assurance ein Optimum erzielen. Prozessverbesserungen, Qualitätssicherung sowie
eine offene Kommunikation gelten für solche Techniken als gute
Beispiele. Schwachstellen können zum Beispiel direkt aus Inkonsistenzen und Unzulänglichkeiten umsatzbezogener Prozesse resultieren. Eine Analyse des aktuellen Prozessrahmens eines Unternehmens hat sich als äußerst nützliches Tool zur Aufdeckung
von zu Umsatzeinbußen führenden Schwachstellen erwiesen.
Weiterhin lassen sich diese Schwachstellen durch Maßnahmen
zur Prozessverbesserung beheben. Interessanterweise erweist
sich diese Methode als effektiver als eine rein IT-basierte Methode, da sie nicht nur das Ergebnis hervorhebt, sondern auch
die Schwachstelle selbst und – noch wichtiger – deren Ursache, was dazu führt, dass sich Abhilfemaßnahmen noch leichter
ableiten lassen. Die Benefits, die sie erlangen, beinhalten nicht
45
Detecon Management Report • 1 / 2010
Strategy
nur die Minimierung der Schwachstellen, sondern reduzieren
die Kundenabwanderung, erhöhen die Kundenzufriedenheit,
verringern die Kosten und erhöhen die Produktivität.
Regel Nr. 2: Kehren Sie von der Do-it-yourself-Methode ab!
Traditionell betrachtet besteht die Durchführung von ­Revenue
Assurance darin, alle Transaktionen zwischen relevanten Anwendungen zu überwachen und zu kontrollieren. Diese betrieblichen Abläufe überträgt das Unternehmen zumeist ausgesuchten Spezialisten: den Experten in Revenue Assurance,
die im Unternehmen allein für die Durchführung sämtlicher
Aufgaben, die sich auf Revenue Assurance beziehen, verantwortlich sind. Zugespitzt formuliert sind diese Experten die
einzigen Mitarbeiter im Unternehmen, die mit den Aktivitäten
zu ­Revenue Assurance vertraut sind. Die unmittelbare ­Folge
daraus ist, dass diesen Experten sehr schnell eine überbordende Fülle an Aufgaben und einzurichtenden Kontroll- und
Überwachungs­aktivitäten zugewiesen wird, sie dadurch überfordert sind und den übergreifenden und unternehmensweiten
Aspekt bei ­Revenue Assurance aus den Augen verlieren. Hinzu
kommt, dass sie Anpassungen oft nicht in Einklang mit den sich
im Unternehmen ständig ent­wickelnden Geschäftsfunktionen
vornehmen.
Revenue Assurance lässt sich in Unternehmen dann optimal
durchführen, wenn eine Abkehr von der Do-it-yourself-Strategie vorgenommen wird. Zur Umsetzung einer effizienten Strategie zu Revenue Assurance sollten Unternehmen sich darauf
konzentrieren, Kontrollen innerhalb der Geschäftsfunktionen
zu delegieren und das Expertenteam mit der Überwachung und
Kumulierung ihrer Ergebnisse zu betrauen, um ein Gesamtbild
der Situation zu erlangen. Die Suche nach Schwachstellen ist
nicht allein die Aufgabe des RA-Teams, sondern sollte gemeinsam mit den Experten des Geschäftsbereichs, die ihr eigenes
Spezialwissen einbringen, durchgeführt werden. Das hilft dem
Team insofern, als dass es herausfinden und prognostizieren
kann, welche Geschäftsbereiche am ehesten von Umsatzeinbußen betroffen sind. Dies hat sich auch als äußerst hilfreich zur
Behebung von Schwachstellen erwiesen, da der Definitionsprozess vom Input und der Erfahrung der Experten der Geschäftsbereiche profitiert. Es wird somit leichter, Schwachstellen zu
­reduzieren, die Anzahl der Prozessüberprüfungen zu erhöhen,
um das künftige Auftreten ähnlicher Risiken bestimmen zu
können, und solche Risiken, die sich nicht verringern lassen,
mittels spezieller Monitoring-Praktiken innerhalb eines akzeptablen Rahmens zu kontrollieren.
46
Detecon Management Report • 1 / 2010
Regel Nr. 3: Definieren Sie Verantwortlichkeiten klar und übertragen Sie diese den Mitarbeitern in Schlüsselpositionen!
Als unternehmensübergreifende Thematik ist eine klare Definition der Verantwortlichkeiten – wer macht was und wann –
eine unerlässliche Voraussetzung, um die Zusammenarbeit aller
beteiligten Geschäftsfunktionen zu fördern. Die in puncto Revenue Assurance zu erzielenden Leistungen müssen Bestandteil
der für die Führungskräfte geltenden jährlichen Zielsetzungen
sein.
Die Realisierung von Revenue Assurance unterliegt nicht der
alleinigen Verantwortung des RA-Teams; da alle Geschäftsbereiche potenzielle Quellen für Umsatzeinbußen sind, muss es
ein unternehmensweites Anliegen sein. Daher ist das Team
kein Funktionsteam, das für die „Reparatur der Schwachstellen“ verantwortlich ist, sondern es ermöglicht den beteiligten
Geschäftsfunktionen, ihre jeweiligen Umsatzmanagementprobleme in Angriff zu nehmen. Die Übertragung der Verantwortlichkeiten an die Geschäftsfunktionen ermöglicht es dem RATeam, die Projekte parallel laufen zu lassen und den Umfang der
­Thematik auszuweiten. Daraus folgt, dass das RA-Team nicht
aus reinen RA-Spezialisten besteht, sondern aus gut ausgebildeten Experten mit einem umfassenden Know-how der sich
ständig ent­wickelnden Geschäftsfunktionen innerhalb eines
Unternehmens. Der durch Anreize für kontinuierliche Verbesserung gestützte Delegationsansatz wird der einzige Ansatz sein,
den es künftig zu verfolgen gilt.
Doch die Mitarbeiter, die das RA-Team unterstützen und verantwortlich beim Beheben der in ihren Geschäftsbereichen
entdeckten Schwachstellen agieren, müssen die Verantwortung
für diese Handlungen übernehmen. Dies ist die einzig mögliche Lösung, um die Anforderung des RA-Teams von einem
„Gefallen“ in eine „Verpflichtung“ zu verwandeln und somit zu
gewährleisten, dass diese Anforderung so gründlich und schnell
wie möglich umgesetzt wird. Um Führungskräfte in sämtlichen
Geschäftsfunktionen zu verpflichten, muss Revenue Assurance
zum Bestandteil ihrer jährlichen Zielsetzungen werden. Das ist
auf jeden Fall eine Entscheidung, die von der Geschäftsführung
des Unternehmens gestützt werden muss und bei der die Einbindung der Top-Führungskräfte in diese Thematik eine zentrale Rolle spielt.
Den Goldgehalt prüfen
Regel Nr. 4: Sparen Sie Ressourcen durch Entwicklung interner
­Synergien und Wissensaustausch!
Wenn Unternehmen die Geschäftsfunktion Revenue Assurance
einrichten, tendieren sie zu der Auffassung, dass diese neue Infrastruktur erhebliche Investitionen voraussetzt. Tatsächlich
hat die Erfahrung gezeigt, dass dem Unternehmen die meisten
Ressourcen zur Durchführung des Revenue Assurance-Prozesses
durch die Entwicklung interner Synergien und durch die Beteiligung am Wissensaustausch ohne großen Aufwand verfügbar
gemacht werden können.
Die meisten nicht personellen Ressourcen für Revenue
­Assurance – zum Beispiel Workflow-Managementsystem – sind
bereits in anderen Geschäftsfunktionen verfügbar und können
für den Schwachstellen-Eskalationsprozess genutzt werden.
Datenabgleiche können in Zusammenarbeit mit dem IT-Team
durchgeführt werden. Weitere ähnliche Initiativen können dazu
beitragen, die Overhead-Kosten zu senken und die für Revenue
Assurance erforderliche Investition zu verringern.
Das Aufspüren und Beheben von Schwachstellen erfordert ein
hohes Maß an Know-how. Es ist sinnlos, nach Schwachstellen zu
suchen, wenn man nicht weiß, in welchen Bereichen man vorrangig suchen muss. Zeit und Aufwand können gespart werden,
wenn die angewandten Korrekturmaßnahmen sich zuvor als erfolgreich erwiesen haben. Zur Optimierung der Aktivitäten zu
Revenue Assurance kann ein Unternehmen erheblichen Nutzen
aus einer Wissensdatenbank ziehen, in der spezielle RA-bezogene
Szenarien – detailliert aufgeführte Fälle in Bezug auf Schwachstellen – und damit verbundene implementierte Kontroll- und
Behebungsmaßnahmen erfasst werden. Da die Szenarien für
unterschiedliche Unternehmen mit großer Wahrscheinlichkeit
relativ gleich sind, vergrößert sich die Datenbank durch einen
aktiven, regelmäßigen Wissensaustausch mit externen Parteien.
Auch die Beteiligung am Branchen-Benchmarking liefert nicht
nur relevante Kennzahlen der RA-Leistung des Unternehmens
im Vergleich zu seinen Peers, sondern ebenfalls Updates der aktuellen Kontrollen und KPIs, die in der Branche zur Überwachung der Betriebsabläufe verwendet werden. Darüber hinaus
erweist sich das Mitwirken an der Etablierung von Industrienormen für Unternehmen häufig als vorteilhaft, da es eine Plattform zur Diskussion über Praktiken mit anderen Unternehmen
liefert, die häufig mit denselben Problemen konfrontiert sind
und die es ihnen ermöglicht, die neuesten Entwicklungen innerhalb der RA-Community zeitnah zu verfolgen.
Regel Nr. 5: Geld sparen darf nicht die Antriebskraft sein!
Da Schwachstellen in jedem Unternehmen in Bezug auf ihre
Ursache, Auswirkungen und potenziellen Lösungen stark
­variieren, ist es wichtig herauszufinden, welche man zuerst in
Angriff nehmen sollte. Entgegen der allgemeinen Auffassung,
sich zuerst den „tief hängenden Früchten“ zuzuwenden, weil
diese einen kurzfristigen Gewinn suggerieren, ist es ratsam, sich
auf die Behebung der Schwachstellen zu konzentrieren, die das
größte Risiko darstellen. Schwachstellen nach der Vorrangigkeit
ihrer Auswirkungen und der Auswirkungen der vorgeschlagenen ­Lösungen zu beheben, ist von zentraler Bedeutung. Ganz
wichtig in diesem Kontext ist, dass man sich von der gängigen
Auffassung, nämlich dass Revenue Assurance eindimensional
ist und nur die Finanzperspektive betrifft, verabschieden muss.
Andere Perspektiven mit geringeren messbaren finanziellen Auswirkungen sind für ein Unternehmen mindestens genauso wichtig. Dazu zählt auf jeden Fall der Erhalt des Kundenstamms.
Kundenabwanderung kann unterschiedliche Ursachen haben,
beispielsweise der beschädigte Ruf eines Unternehmens oder die
Ausstellung überhöhter Rechnungen, die durch Praktiken von
Revenue Assurance ebenfalls abgefangen beziehungsweise reduziert werden kann.
Sobald die Aktivitäten zu Revenue Assurance in einem Unternehmen etabliert sind, ist es wichtig, außer der Finanzperspektive andere Perspektiven in den Fokus zu rücken, weil erst
dann gewährleistet werden kann, dass sich Revenue Assurance
nachhaltig auswirkt. In der Tat verhält es sich so, dass es nach
Monaten oder Jahren in einem Unternehmen ständig schwieriger wird, Schwachstellen aufzudecken und eindrucksvolle
Zahlen über gerettete Umsätze zu produzieren. Die Ursache ist
klar: Während des ersten Monats des Betriebes von Revenue Assurance wurden Schwachstellen mit dem größten finanziellen
Risiko bereits aufgedeckt und behoben. Praktiken wurden ebenfalls implementiert, um das Auftreten neuer großer Schwachstellen zu verhindern. Somit wird es immer schwieriger, die
Auswirkungen des in einem Unternehmen etablierten ­Revenue
Assurance-Prozesses aus finanzieller Sicht zu quantifizieren. Die
47
Detecon Management Report • 1 / 2010
Strategy
48
Detecon Management Report • 1 / 2010
Den Goldgehalt prüfen
Bewertung des aus Revenue Assurance resultierenden Nutzens
erfolgt dann langfristig über andere Perspektiven wie Qualitätssicherung und Erhalt des Kundenstamms.
Da insbesondere in Zeiten starker wirtschaftlicher Schwankungen Telco-Unternehmen einem immer stärkeren Wettbewerbsdruck ausgesetzt sind, wird Revenue Assurance jetzt als
eine unumgängliche Maßnahme akzeptiert. Der herkömmliche
Ansatz zu Revenue Assurance besteht bei den meisten Betreibern immer noch aus der Überwachung der Transaktionen und
entsprechenden Anwendungen, die auf die Aufdeckung der
Umsatzeinbußen abzielt. Wie sich gezeigt hat, greift dieser Ansatz zu kurz, da die Betreiber laut Studien nach wie vor einen
erheblichen Anteil des Umsatzes einbüßen.
Um diesem Trend entgegenzuwirken und um zu gewähr­leisten,
dass Betreiber Revenue Assurance effizient umsetzen, ist ein
anderer Ansatz erforderlich, und zwar einer, der nicht nur auf
die Vendor-Lösungen und im Übermaß auf technische Aspekte
abstellt. Daher ist ein Multi-Level-Ansatz erforderlich, der den
strategischen Rahmen für die Festlegung der Aktivitäten zu
Revenue Assurance des Unternehmens vorgibt und die betrieblichen Abläufe zur Minimierung der Umsatzverluste regelt. Bei
der praktischen Umsetzung dieses Ansatzes kann sich der Rückgriff auf Branchenerfahrungen durchaus als nutzbringend erweisen. Vorstehend haben wir eine Reihe an Regeln aufgestellt,
von denen wir glauben, dass sie die Durchführung von Revenue
Assurance-Abläufen in Unternehmen erleichtern.
Alle Autoren sind Gründungsmitglieder des Detecon „Revenue Assurance and
Billing“ Teams:
Dr. Olivier Coutand hat auf dem Gebiet der Informations- und Kommunikationstechnologie promoviert. Er ist Experte für Prozessmanagement und Prozess-Design. Seit seinem Eintritt bei Detecon hat Dr. Coutand an zahlreichen
Projekten mitgewirkt, die sich auf Revenue Management bezogen. Er hat einen
aktiven Beitrag zur Entwicklung des Themas Revenue Assurance geleistet, als
Referent an internationalen RA-Foren teilgenommen und neue RA-Funktionen
implementiert.
[email protected]
Jawahar Sajjad verfügt über eine fünfjährige Erfahrung in der Implementierung und im Management zahlreicher RA-Funktionen bei Telco-Providern.
Herr ­Sajjad ist Experte für Revenue Assurance, Fraud Management und Profiling, Credit Management- und Scoring-Systeme, Inkasso, Mahnverfahren und
CRM/Billing Audits und verfügt über ein umfassendes Wissen über Geschäftsprozesse und deren Reifegrade.
[email protected]
Dr. Andreas Amann verfügt über zehn Jahre Berufserfahrung in der Leitung
internationaler Projekte bei Telco-Providern und hat seit seinem Eintritt bei
­Detecon umfassende Erfahrungen in der Implementierung von Revenue
­Assurance in Zusammenhang mit NG-Services für einen führenden internationalen Carrier gesammelt. Zusätzlich zu seinem Schwerpunkt Revenue Management ist Dr. Amann Experte für CRM, Projektmanagement, Prozess-Design
und -Analyse, Total Quality Management und Software-Entwicklung.
[email protected]
Aktuell steckt Revenue Assurance immer noch in den Kinderschuhen. Es ist noch einiges erforderlich, um die Neuheiten
zu meistern, die sich durch die technologische Verlagerung auf
NGN und durch ständig komplexere Produkte ergeben ­haben
– insbesondere aus der Billing-Perspektive –, und Revenue
­Assurance in Unternehmen zu optimieren. Doch angesichts der
bereits verzeichneten Erfolge wendet sich die Community bereits neuen Themen wie der Minimierung der Kundenabwanderung, Herabsetzung der Servicekosten durch Outsourcing
oder Reduzierung der Auftragsausführungszeiten zu, um höhere
Umsätze zu generieren und den Umfang des Revenue Assurance
für alle mit dem Umsatzmanagement verknüpften Aktivitäten
zu erweitern.
49
Detecon Management Report • 1 / 2010
Organization
Mate Balthazar, Stephan Herrel
Vom Traum
zur Wirklichkeit
Effiziente und kundenorientierte
Einkaufsfunktionen in globalen Unternehmen
Die eigene Wertschöpfungstiefe sinkt, der zugekaufte
Anteil steigt an. Die Verantwortung des Einkaufs für die
Erreichung der strategischen Unternehmensziele nimmt
daher kontinuierlich zu, gleichzeitig ist Kostensenkung
gefordert. Auf der Agenda der Einkaufsleiter steht, mit
­weniger Ressourceneinsatz erfolgreicher zu arbeiten.
50
Detecon Management Report • 1 / 2010
Vom Traum zur Wirklichkeit
scharfen Wettbewerbs können Effizienzgewinne
Inichtn Zeiten
durch eingeschränkten Service erkauft werden. Kunden­
orientierung wird heute auch für interne Servicefunktionen wie
den Einkauf groß geschrieben. ­Global führende Einkaufsorganisationen nutzen gezielt Maßnahmen zur Effizienzsteigerung,
um auch ihre Kundenorientierung zu ­erhöhen und so die Bedeutung des Einkaufs insgesamt für das eigene Unternehmen
zu steigern. Wie lässt sich diese ­Strategie mit effizienten Organisationsformen und durch exzellente ­Systemunterstützung
umsetzen?
Heute investieren, um morgen zu gewinnen!
„Wir müssen unsere Einkaufstätigkeiten effizienter gestalten,
um unsere internen Kosten zu senken!“. Derartige Empfehlungen hört man heutzutage häufig. Falsch sind sie nicht. Doch
sie erfassen nicht das gesamte Bild. Im Gegensatz zu vielen
Behauptungen hat eine hohe Einkaufseffizienz bedeutendere
Vorteile, als nur interne Kosten zu sparen. Natürlich ist der
­Kostenfaktor ein Aspekt, auf den gerade in der heutigen Zeit
der ökonomischen Flaute mit Argusaugen geachtet wird. Aber
Einkaufseffizienz bietet mehr. Hier einige Beispiele:
Effizient aufgestellte Einkaufsaktivitäten verringern die Durchlaufzeiten in der Beschaffung. Dies stellt eine höhere Flexibilität
sicher und erlaubt schnellere Reaktionen auf externe Nachfrageänderungen oder interne Umsteuerung. Agiert das Unternehmen auf Absatzmärkten mit hoher Wettbewerbsintensität, ist
dies entscheidend für den Erfolg.
Die optimierte Abwicklung der Einkaufs- und zugehörigen
Zahlungsaktivitäten (Procure-to-Pay) ermöglicht eine Free
Cash Flow-Optimierung. Eine wichtige Kennzahl, die Grundlage für Analystenbewertungen ist und über Schicksal des
­Unternehmens entscheiden kann, wird damit direkt vom Einkauf beeinflussbar.
Einkaufseffizienz ist in der Regel begleitet von Prozessautomatisierung und sichert so eine hohe Qualität von Transaktionssowie Stammdaten und stellt eine hohe Transparenz sicher. Dies
ist für strategische Entscheidungen von höchster Wichtigkeit.
Die Transparenz erhöht zudem die Planungssicherheit bei den
Lieferanten. Insgesamt sinken dadurch die Kosten entlang der
gesamten Supply Chain, beispielsweise für Lagerhaltung, so
dass vorteilhafte Konditionen wie geringere Einstandspreise und
verlängerte Gewährleistungspflichten ausgehandelt werden können.
Schließlich wird die Motivation in der Beschaffung stark von
der Effizienz beeinflusst. Ist der Einkaufsprozess langsam, mit
Fehlern behaftet und sehr ressourcenaufwendig, so sinkt die Zufriedenheit der Fachabteilungen. Ihre Beschwerden und ­Kritik
resultieren in einer stetigen Verringerung der Motivation der
Einkäufer. Die sich daraus ergebenden Effizienzeinbußen führen
zu einem Teufelskreis, aus dem der Ausbruch nur sehr schwer
gelingen kann.
Einkaufseffizienz bedeutet also mehr als Kosten zu sparen. Sie
ist eine Kernfähigkeit, die dem Unternehmen zu strategischen
Wettbewerbsvorteilen verhilft. Heute ist der Satz „Make more
with less!“ wohl häufiger zu hören denn je, und eine wirkungsvolle Vorgehensweise zur Realisierung von Effizienzsteigerungen
wird besonders wichtig. Dabei sind in den meisten Einkaufsorganisationen die „low hanging fruits“ bereits geerntet. Somit
lässt sich die Effizienz nur durch strategisch angelegte, mittelund langfristige Maßnahmen signifikant heben.
Ein „Shared Service Center“ als Alleskönner und
Allheilmittel?
Beim Schlagwort „Shared Service Center“ (SSC) ­läuten häufig immer noch die Alarmglocken. Erinnerungen an – oftmals
gescheiterte – Outsourcing-Projekte und Fragestellungen rund
um „Make-or-buy“ werden wach. Allerdings gibt es zwischen
SSC und Outsourcing einen entscheidenden Unterschied: Die
Schnittstelle zwischen den agierenden Personen verbleibt beim
SSC im eigenen Hause. Dies hat massive – positive – Auswirkungen auf die Implementierbarkeit. Anforderungen an die Reife der Organisation und die Prozesse sind beileibe nicht so hoch
wie bei einem kompletten Outsourcing. Obwohl die Gründung
eines SSCs nicht automatisch die meisten internen Probleme
löst, kann sie mittels guter Vorarbeit durchaus zu einem wirkungsvollen Alleskönner und Allheilmittel gegen ­Ineffizienzen
im Unternehmen werden.
51
Detecon Management Report • 1 / 2010
Organization
Shared Service Center (SSC) – was ist das?
Typischerweise lassen sich weitgehend standardisierte Dienstleistungen, auf
die eine Vielzahl von Mitarbeitern des gesamten Unternehmens zugreift,
gut zusammenfassen. Ebenso eignen sich SSCs zur Bündelung von dezentralen Standorten, an denen zentrale Leistungen erbracht werden. Detecon
versteht unter dem Begriff „Shared Service Center“ die konsequente Bündelung innerhalb der eigenen Unternehmensstrukturen zu einer Zentraleinheit mit Services für das ganze Unternehmen. Die Überführung der
Dienstleistungen in ein SSC wird in aller Regel von effizienzsteigernden
Maßnahmen wie Prozessharmonisierung und Automatisierung begleitet.
Typische Beispiele für SSCs sind:
Zentraler Einkauf, Zentrale Buchhaltung, HR-Abteilung, Reporting.
Grundsätzlich stellt sich die Frage: „Was soll das SSC leisten und
was nicht?“ Der Umfang der Services muss klar definiert werden
als eine der wesentlichen Grundlagen für nachhaltige Akzeptanz und Erfolg der neuen Einheit. Nach unseren Projekterfahrungen ist die Gründung eines SSCs im Einkauf für den operativen Bereich am erfolgversprechendsten. Der operative Bereich
ist – im Vergleich zum strategischen Sourcing – stark durch
repetitive Tätigkeiten und gut systemunterstützbare Aufgaben
gekennzeichnet. Ebenso zeigt sich, dass die Bündelung der vielfach dezentral ausgeübten Tätigkeiten einen deutlichen Schub
hinsichtlich Effizienz durch Harmonisierung bringt. In einem
aktuellen Projekt haben wir festgestellt, dass identische Prozesse
häufig standortspezifisch ausgeprägt sind, obwohl es eigentlich
keinen Grund dafür gibt. Beispielhaft sei hier der operative Bau-
leistungseinkauf bei einem Global Player genannt. Am Standort
A wurden die Aufträge immer als „Turnkey-Projekt“ mit einem
Generalunternehmer und am Standort B immer an ein Konsortium mit mehreren Vertragspartnern vergeben, obwohl in beiden Fällen die zentralen Vorgaben gleich waren. Konkret eignen
sich die operativen Bestellabwicklungsprozesse (Procure-to-Pay),
die operative Betreuung der Schnittstelle zum Lieferanten oder
das Stammdatenmanagement besonders gut für Kern­leistungen
eines SSCs „operativer Einkauf“. Bei der Konzeption sollte vor
allem auf diese Kernleistungen ein besonderes Augenmerk gerichtet werden, denn an diesen Services wird der Erfolg der
Transformation und somit der Projektverantwortliche hinterher
gemessen werden.
Der rote Faden zu guten Kernleistungen lässt sich einfach strukturieren: Analyse der gesamten Prozesse, die potentiell im SSC
abgewickelt werden könnten, Selektion der Leistungen in- und
out of Scope, Prozessredesign hin zu Best-in-Class-Prozessen
für die Kernservices, Definition von Schnittstellen und ServiceLeveln, Dienstleistungsbeschreibungen, Festlegung von Kennzahlen (KPI-Set), Anpassung der IT-Systeme, Planung und
Neuausrichtung der Organisation, Schulung der Kernservices,
Change Management, kontinuierlicher Verbesserungsprozess.
Zusammengefasst lässt sich festhalten, dass die Gründung eines
SSC für den operativen Einkauf als eine zentrale, mittelfristige
Maßnahme zur Erhöhung der Einkaufseffizienz prädestiniert ist.
Sie eignet sich besonders für mittlere bis große, eher dezentral
Abbildung 1: Beispielhafter Leistungskatalog eines „SCC operativer Einkauf“
Weitere Leistungen (optional)
• Sonderausgaben
• Beratung
bei eAuctions
• Beratung
bei der Katalogerstellung
Kernleistungen
• Operativer Bestellabwicklungsprozess (Purchase-to-Pay – P2P)
• Operatives Supply (Chain) Management
• Stammdatenmanagement
• Zentraler User- und- Lieferanten-Helpdesk
• Reporting
• Erstellung
von Sonderreports
Quelle: Detecon
52
Detecon Management Report • 1 / 2010
• Operatives
Category Management
•
Ausarbeitung von strategischen
Vorgehensmodellen
• Führen von strategischen Verhandlungen
zur Abfederung von Arbeitsspitzen
Vom Traum zur Wirklichkeit
aufgestellte Unternehmen beziehungsweise für Organisa­tionen,
die durch Zukäufe gewachsen sind. Neben der Bündelung
­(Skaleneffekte) greift hier besonders der Effizienz-Hebel „Harmonisierung der Prozesslandschaft“. Bei gewissenhafter Vorbereitung kann das Projekt in gut einem Jahr umgesetzt werden
und dabei Effizienzen bis zu 30 Prozent heben.
Effizienz oder Kundenorientierung? Global Leader schaffen
beides!
Kaum ist das SSC erfolgreich implementiert, wird häufig Kritik laut: „Super Effizienz-Kennzahlen, aber trotzdem war früher
alles besser“. Solche Aussagen sind im Rahmen von Veränderungsprozessen verständlich, im Fall der Gründung von SSCs
„Operativer Einkauf“ sind diese in aller Regel auf unzureichende
Kundenorientierung bezogen. Aus dem Projektalltag kennen wir
interne Aussagen von Kunden des Einkaufs, wie zum Beispiel:
„Früher konnte ich immer Herrn Müller anrufen, wenn es um
meine BANF* ging – heute ist es jedes Mal eine andere Person,
die mich berät“. Allzu schnell ist die Diskussion auf die plakative Ebene „Effizienz oder Kundenorientierung – beides kann
ja nicht gehen“ abgeglitten. Global Leader stellen diese Widersprüche vom Kopf auf die Füße und nutzen die Stärken der
neuen Organisationsform sowohl zur Steigerung der ­Effizienz
als auch zur Erhöhung der Kundenorientierung.
Wie man dies erfolgreich tut, zeigen die folgenden ausgewählten Projektbeispiele:
Self-Service Procurement und räumliche Trennung von
Bedarfsträger und operativem Einkauf senken die Qualität
in der Beschaffung
Auf den ersten Blick erscheint dies logisch: Der Bedarfsträger hat
eine neue, unbekannte Schnittstelle – meist ein IT-Tool –, um
seinen Bedarfswunsch zu artikulieren. Hier treten typische Phänomene wie Kommunikationsdifferenzen, fehlendes IT Knowhow oder aber auch schlicht Veränderungsresistenz auf. Oftmals
liegt der Schlüssel zur Kundenorientierung in der Verbesserung
mangelhafter Ergonomie der Nutzer-Schnittstellen. Als oberste
Maxime kann „Die Eingabemaske ist erst gut, wenn sie jeder
auf Anhieb benutzen kann!“ ausgesprochen werden. Zusammen
mit den Entwicklern, der Fachseite und ausgewählten Bedarfsträgern sollte hierzu im Vorfeld bereits eine Arbeitsgruppe gebildet werden. Besonders hilfreich haben sich interaktive Elemente erwiesen, die den Bedarfsträger Schritt für Schritt zum
Ziel seiner Bestellung führen. Es muss betont werden, dass der
Anforderer beispielsweise nicht für die korrekte Auswahl ­einer
Warengruppe verantwortlich gemacht werden kann, wenn ihm
das System nicht eine ausreichende Unterstützung dazu liefert.
Clever eingesetzte Mini-Applikationen leisten hier wahre Wunder und wirken enorm distanzverkürzend. Und nebenbei hat
der Einkauf die Qualität der BANFen weiter gesteigert, ohne
dass die Hotline oder der Einkäufer kontaktiert werden ­musste.
Am Rande sei angemerkt, dass es in aller Regel hier immer Anfangsschwierigkeiten gibt, die sich aber nach den ersten paar
Bestellungen aufgelöst haben, da beide Seiten wissen, was zu
tun ist (Lernkurveneffekte). Im Optimum treten diese gar nicht
auf, da die IT selbsterklärend gestaltet ist.
Die Einkaufs-Hotline – wieder ein Call-Center wie jedes andere?
Mitnichten sollte die Einkaufshotline ein Call-Center wie ­jedes
andere sein – oder wünschen wir uns verärgerte Kunden und
steigende Einkaufsumgehungsraten? Beim Rückzug aus der
Fläche muss die physische Distanz kompensiert werden. Neben
den beschriebenen Ansätzen zur Verbesserung der Schnittstelle
muss es allerdings auch für den Fall der Fälle kompetente Hilfe
beziehungsweise Unterstützung geben. Die Probleme sind vielfältig und thematisch breit gefächert. Mal ist es nur eine Frage,
ein Hinweis, der wichtig ist, aber nicht „Prio A“ hat. Oder es
handelt sich eben um ein akutes Problem in einer Bestellung
mit hoher Dringlichkeit für den „internen Kunden“. Kann in
diesem Fall nicht schnell und zielgerichtet geholfen werden,
wird die Reputation des operativen Einkaufs durch die – vermeintlich schlechte – Hotline nachhaltig beschädigt. Auf Grund
dieser breiten Fächerung empfiehlt sich der hierarchische Aufbau der Hotline. Es sollte ein First-Level-Support mit hoher
Lösungsrate durch eine gute Knowledge-Datenbank und einem
Ticketsystem vorhanden sein, bei dem der Anrufer wirklich ein
Feedback bekommt, unterstützt durch eine Art Helpline, bei
der sich bei Bedarf der Agent direkt auf den Rechner des Anrufers aufschalten kann. Unsere Projekterfahrung zeigt, dass viele
der „Prio A Probleme“ rein bedientechnischer Natur sind und
– viel wichtiger – nicht warten können, da es Probleme sind, die
den Nutzer an der weiteren Arbeit hindern. Hier sei angemerkt,
dass solch eine Hot- und Helpline zwar zunächst Kosten verursacht, aber trotz räumlicher Distanz deutlich mehr Kundenorientierung bieten kann als der oft angeführte Klassiker: „Ich
hätte besser mal den Einkäuferkollegen um die Ecke gefragt,
der hätte mir bestimmt geholfen“. Dieser ist im Gegensatz zum
Telefon nicht immer greifbar – die Hot- und Helpline hingegen
sollte arbeitstäglich besetzt sein.
* BANF = Bedarfsanforderung
(papierbasierte oder elektrische Beschreibung des Beschaffungsbedarfes)
53
Detecon Management Report • 1 / 2010
Organization
Kostengünstige und effiziente Kundenorientierung ist auch
Kommunikation: Tue Gutes und sprich darüber!
Effizienz und effizientes Handeln sind oftmals durch viele kleine
Verbesserungen an unterschiedlichen Stellen im gesamten Prozess geprägt. Bei einer zentralen Organisation wie einem SSC
und dezentralen Kunden, den Bedarfsträgern, passiert es all zu
leicht, dass Gutes getan, aber nicht kommuniziert wird. Die
„internen Kunden“ in der Fläche freuen sich bestimmt über die
(beispielhaft) erdachte Verbesserung im IT-System – in aller Regel möchten sie aber trotzdem vorher wissen, was die Zentrale
zu ändern gedenkt. Die Distanz sollte auch hier immer wieder
reflektiert werden. Bedarfsträger sollten von Anfang an mit ins
Boot, gute Erfahrungen lassen sich auf Einkaufs-Systemtagen,
Sekretariatsforen, Anwendertagen und Hausmessen sammeln.
Darüber hinaus sollte regelmäßig und zielgruppenspezifisch
per Newsletter, Blog oder Systemnachricht kommuniziert werden, um Aktivität, Präsenz und Kundenorientierung zu zeigen.
Denn Effizienz beginnt an dieser Stelle schon lange bevor die
Maßnahme aktiviert wird und mündet in Kundenorientierung,
wenn der Anwender von der Maßnahme weiss, bevor er sie erfährt oder erlebt.
Die dargestellten Praxisbeispiele zeigen, wie die Kombination
von Effizienz und Kundenorientierung gelebt werden kann. Der
nachfolgende Absatz widmet sich einer ganz anderen Methode,
um die beiden Faktoren in Einklang zu bringen – dem „katalogbasierten Einkaufen“.
Einkaufseffizienz mit Kundenorientierung – Katalogbasiertes
Einkaufen als Schlüssel zum Erfolg!
Kundenorientierung und Effizienz sind nicht zwingend gegenläufige Ziele. Sie lassen sich mit geschickten Mitteln durchaus
beide realisieren. Ein Beispiel aus dem operativen Einkauf ­liefert
hierfür der optimale Einsatz von elektronischen Lieferantenka-
talogen. Diese sind systemunterstützte Darstellungen von Lieferantenprodukten, ähnlich wie in einem gewöhnlichen Shop im
Internet. Während gemeldete Bedarfe an ­nicht-katalogisierten
Produkten in der Regel zu unspezifisch sind und folglich Nachfragen durch den Einkäufer bei dem Bedarfsträger erforderlich
werden, muss der Bedarfs­träger in einem Katalogsystem genau
angeben, was er wann und von welchem Vertragspartner benötigt. Durch die Nutzung von ­Lieferantenkatalogen wird also
die operative Tätigkeit der Bedarfs­spezifizierung, wie Beschreibung oder Zuordnung zum bestehenden Rahmenvertrag, genau
dorthin verlagert, wo das für ihre Durchführung notwendige
Wissen tatsächlich vorliegt, nämlich weg von dem Einkauf zu
dem Bedarfsträger. Nach­fragen ­erübrigen sich, das damit einhergehende Fehlerrisiko wird beseitigt. Gleichzeitig verringern
sich die Durchlaufzeiten, und die Zufriedenheit des internen
Kunden steigt.
Die Vorteile des Katalogmanagements sind mittlerweile wohl
keinem Einkäufer mehr unbekannt. Umso interessanter ist,
dass lediglich einige Einkaufsorganisationen einen ausreichend
­hohen Reifegrad in diesem Umfeld erreicht haben. Nur ­wenige
Global Leader haben es bis dato geschafft, in mindestens 90
Prozent ­ihrer Materialgruppen, inklusive komplexer ­technischer
Produkte und Dienstleistungen, Kataloge einzuführen und
­dadurch bis zu 70 Prozent aller manuellen Tätigkeiten zu
­eliminieren.
Global Leader haben im Gegensatz zu durchschnittlichen Organisationen eine hohe Abdeckung der bestellbaren Lieferantenprodukte durch Kataloge erreicht, indem sie auf ausgewählte
Erfolgsfaktoren fokussieren:
Sie verfolgen stringent das Ziel, alle Materialien, deren Bestell­
anzahl einen festgelegten Wert überschreitet, zu katalogisieren – und zwar ohne Ausnahmen. Bei Produkten, bei denen
Abbildung 2: Funktion von intelligenten Formularen im Katalogmanagement
Ausgangssituation Funktion intelligenter Formulare
• Bedarfsträger können dem
gemeldeten Bedarf alle
einkaufsrelevanten
Informationen beifügen.
Ich habe meinen
Bedarf gemeldet.
Prozessoptimierung mit intelligenten Formularen
Ja, aber ich brauche noch
folgende Angaben…
Ich habe meinen
Bedarf gemeldet.
…habe das Material
konfiguriert…
• Das benötigte Material kann
flexibel konfiguriert werden.
• Es sind keine Rückfragen durch
den Einkäufer notwendig.
Bedarfsträger
Quelle: Detecon
54
Detecon Management Report • 1 / 2010
Einkäuferin
Bedarfsträger
…und habe es ohne lästige
Nachfragen bekommen!
Vom Traum zur Wirklichkeit
dies aufgrund der Komplexität zunächst unmöglich erscheint,
setzen sie konsequent intelligente Formulare ein. Das sind
„Dialog-­Menüs“, die den Bedarfsträger bei der Auswahl seines
Materials unterstützen und strukturiert alle bestellrelevanten
Informa­tionen bezüglich der gewünschten Konfiguration
­abfragen. ­Diese Angaben werden in die Bestellung automatisch
­übernommen und an den Lieferanten übermittelt, ohne dass ein
­Einkäufer mitwirken muss. Dadurch können zum Beispiel auch
Visitenkarten mit hoher Qualität und geringer Fehlerquote einfach aus Katalogen bestellt werden. Die intelligenten ­Formulare
helfen hier, Unternehmensangaben und Layout nach CI/CDVorgaben umzusetzen, ein Ansichtmodus ermöglicht dem Bedarfsträger ein Preview seiner Visitenkarte vor der Bestellung,
um gegebenenfalls noch Änderungen rechtzeitig vornehmen zu
können. Prüfschritte im Einkauf können somit entfallen.
Global Leader setzen zudem auf die Nutzerfreundlichkeit der
Katalogapplikationen. Nur auf diese Weise werden die Bedarfsträger die Kataloge im Sinne von „Self Service Procurement“
tatsächlich nutzen und nicht direkt Kontakt zum Einkäufer aufnehmen. Dabei stellen sie sicher, dass ein gut funktionierender
und lernfähiger Suchalgorithmus eingesetzt wird. Zudem
­achten sie darauf, dass alle Bearbeitungsmasken stets nach derselben Logik aufgebaut sind und eine intuitive Nutzerführung
ermöglichen.
Global Leader gewährleisten die Aktualität und Validität ihrer
Katalogdaten, indem sie beim Aufbereiten ihrer Katalogdaten
die meisten Arbeitsschritte mittels spezieller Software-Lösungen
automatisieren. Prozessschritte, die nur manuell durchzuführen
sind, werden an die jeweils zuständige Stelle delegiert. Mittels
elektronischer Abläufe (Workflows) stellt der Lieferant relevante
Produktinformationen in das System ein und die Finanzbuchhaltung reichert die Artikel mit den zugehörigen Sachkonten
an.
Im Vergleich zu durchschnittlichen Organisationen verwirk­
lichen Global Leader durch den Einsatz eines derartig aufgebauten Katalogsystems einen Effizienzvorteil von zirka 30
Prozent und erreichen eine um 45 Prozent höhere Kundenzufriedenheit.
Der richtige Mix macht’s: Shared Service Center-Gründung
mit kurzfristigen Effizienzmaßnahmen kombinieren
Erfahrungen in mehreren Optimierungsprojekten haben ­gezeigt,
dass die meisten Unternehmen, die ihre ­Einkaufseffizienz
ausschließlich mittels einer SSC-Gründung heben wollten,
in der Umsetzung mit zahlreichen Problemen konfrontiert
­wurden. Zwar sind bei einem gut strukturierten Projekt sowie bei ­Beachtung der Erfolgsfaktoren erhebliche Potenziale
­realisierbar, jedoch sind Projekte zur Einführung und Aufstellung eines SSC in der Regel langwieriger als die vorgegebene
Umsetzungszeit durch die Unternehmensleitung. Dagegen
sind Planung und Umsetzung kleinerer, wirksamer Automatisierungsmaßnahmen schneller, bewirken jedoch am Ende des
Tages nicht den gewünschten Gesamteffekt. Wie können Einkaufsleiter die Effizienz im Einkauf dann aber signifikant und
nachhaltig steigern? Die Antwort ist die Kombination der beiden Maßnahmenfelder: die Gründung einer SSC verknüpft mit
einzelnen, kurzfristigen Effizienzmaßnahmen wie Katalogisierung von ­Lieferantensortimenten und Automatisierung der Lieferantenkommunikation. Auf diese Weise können bereits nach
­wenigen Wochen erste Erfolge gefeiert werden. In regelmäßigen
Abständen können weitere Erfolge bis zum Ende des Gesamtprogramms aufgezeigt werden, was Motivation sowie Commitment des Managements aufrecht erhält. Die Investition von
Ressourcen in die Maßnahmenumsetzung lohnt sich, und die
Einkaufseffizienz wird wesentlich erhöht.
Mate Balthazar studierte Betriebswirtschaftslehre in Deutschland und Irland.
Er ist seit 2005 bei Detecon tätig und verfügt über umfassende Expertise in der
End-to-End Optimierung von Prozessen im operativen und strategischen Einkauf. Besondere Schwerpunkte seiner Arbeit bilden die Entwicklung und Umsetzung von Konzepten zur Integration von Prozess- und Applikations­strategien
in der Beschaffung.
[email protected]
Stephan Herrel befasst sich seit 2005 intensiv mit dem Thema Effizienz und
Strategie im Einkauf. Als Senior Consultant in der Gruppe Supply Management
liegen seine Schwerpunkte auf der Optimierung von Prozessen, der ­richtigen
Einkaufsstrategie und dem Organisationsaufbau. Er ist Diplom-Wirtschafts­
ingenieur und hat vor seinem Wechsel zu Detecon unter anderem im Einkauf
in der Telekommunikationsindustrie gearbeitet.
[email protected]
55
Detecon Management Report • 1 / 2010
Organization
Wilfried Kessler, Jörg Hermes
Interview mit Dr. Stefan Schloter, CIO der T-Systems International GmbH
Hochsaison
Krisenzeiten sind gute Zeiten für IT-Effizienzprogramme
Die Wirtschaftskrise ist da. Umsätze schrumpfen und Kundenaufträge brechen
weg. Während die deutsche Wirtschaft schwächelt, erleben Sanierer, Kostensenker und Prozessoptimierer in diesen Tagen einen Boom. Jedes Unternehmen
muss kostenbewusst denken und sparen und die interne Effizienz steigern.
56
Detecon Management Report • 1 / 2010
Hochsaison
as Thema IT-Kostenoptimierung hat in der aktuellen
D
­Krisendiskussion auf breiter Front wieder stark an Bedeutung
gewonnen. Es ist davon auszugehen, dass diese Entwicklung
mit dem Sichtbarwerden der Auswirkungen der Wirtschaftskrise noch weiter zunimmt. Die Treiber hierfür sind erkennbar
durch die sich bereits abzeichnende Konjunkturabschwächung
und den Anstieg der Arbeitslosigkeit, die trotz des Preisrückgangs ­relativ hohen Rohstoff- und Energiepreise und den seit
längerem spürbaren Kostendruck durch den globalen Wettbewerb.
Die genannten Faktoren betreffen an sich zwar nicht unmittelbar die so genannten Support- beziehungsweise indirekten
Bereiche, üben aber insgesamt Druck zur Kostenoptimierung
aus. Die Kundenzufriedenheit in den indirekten Bereichen ist
sowohl hinsichtlich des Kostenniveaus als auch bei der Transparenz und Steuerbarkeit der Kosten deutlich niedriger als in
direkten Bereichen.
Agieren statt reagieren
Der Anteil der indirekten Kosten und damit einhergehend die
Priorität, welche der Kostenoptimierung indirekter Bereiche
zugewiesen wird, steigt mit der Unternehmensgröße. Der ITVerantwortliche hat in Krisenzeiten keinen guten Stand im
­Unternehmen, jede größere Ausgabe landet auf dem Prüftisch.
Vor allem der CFO nimmt dem CIO immer mehr Verantwortung ab. Oft verliert der IT-Bereich in der Wirtschaftskrise auch
an strategischem Einfluss im Unternehmen.
Vielfach heißt die Strategie in der Krise „Sparen in altbewährter
Weise“, wozu Maßnahmen zählen wie Personalabbau, Restrukturierung, Konsolidierung und Einstellungsstopp. Doch sind
die altbewährten Maßnahmen noch zeitgemäß? Nach ­neueren
Erkenntnissen erzielen solche Maßnahmen nur kurzfristig
Wirkung. Erfolgreiche Unternehmen sind langfristig orientiert und können in Krisen agieren statt reagieren. Oft ist ein
antizyklisches Verhalten zu beobachten: Während alle anderen
die Personalkosten reduzieren, optimieren erfolgreiche Unter­
nehmen trotz Krise ihre Serviceprozesse und stellen qualifiziertes Personal ein. Dadurch wird ein Beitrag geleistet für mehr
Wachstum und Schaffung einer sicheren Wettbewerbsposition
für die Zukunft.
Die Erfolgsstrategie des CIO stützt sich dabei mehr und mehr
auf ein vorausschauendes und permanentes Effizienzmanagement, das die indirekten Kosten nachhaltig senkt und erforderliche Spielräume für die Gestaltung wertschöpfender Services für
das Unternehmen schafft. Die Rolle des Effizienzmanagements
ist daher in die Ziel- und Budgetplanung mit einzubinden. In
der Folge ist ein Effizienzprogramm dafür verantwortlich, dass
Maßnahmen hinsichtlich ihrer Effizienzwirkung durchgängig
von der (internen) Kundenseite bis zum Lieferanten betrachtet
werden.
Beim Aufbau eines Effizienzmanagement-Programms sind sowohl strategische als auch operative Maßnahmen zu berücksichtigen (vergleiche Abbildung). Mit den strategischen Maßnahmen werden die Leitplanken für künftige Investitionen und
längerfristige Prozessänderungen gesetzt, wohingegen operative
Maßnahmen auf kurzfristige Erfolge abzielen.
Erfolgreiche Effizienzprogramme sind an umfassende
Voraussetzungen gebunden
Essenziell für ein IT-Effizienzprogramm ist ein professionell
­organisiertes Programmmanagement. Dieses muss zum einen
die Aktivitäten der Effizienzmanager steuern und die mit den
Effizienzmaßnahmen verbundenen Planwerte im Überblick behalten. Zum anderen muss es die Einhaltung vorher festgelegter
Leitlinien gewährleisten und für die frühzeitige ­Kommunikation
des Programms im Unternehmen sorgen.
Die Leitlinien müssen vor Programmbeginn definiert werden und ein Scope Statement, strategische und operative
Ziele, Grundsätze, die Programmaufbauorganisation sowie
Rollen­beschreibungen enthalten und vom Lenkungsausschuss
­bestätigt werden. Ein Grundsatz könnte beispielsweise sein, dass
Maßnahmen, die lediglich auf die Verrechnung zwischen internen Einheiten wirken, nicht als Effizienzmaßnahmen gelten.
Die Regel würde somit lauten, dass nur Maßnahmen, die eine
Wirkung an der „Außenkante“ zeigen, zu berücksichtigen sind.
57
Detecon Management Report • 1 / 2010
Organization
Zur Sicherung des Programmerfolgs sind darüber hinaus regelmäßige Treffen wichtig, um den Programmfortschritt für alle
Teilprogrammleiter nachvollziehbar zu machen sowie Probleme,
die unter Umständen mehrere Teilprogramme betreffen, zu besprechen und gegebenenfalls Gegenmaßnahmen einzu­leiten.
Die Teilprogrammleiter sollten mit ihren Maßnahmenmanagern ebenso regelmäßige Treffen durchführen, um den Fortschritt des Teilprogramms darstellen sowie Probleme frühzeitig
adressieren zu können.
Dies ist besonders wichtig in großen Unternehmen, die aus einer Vielzahl von juristisch eigenständigen Einheiten bestehen
beziehungsweise über Profitcenter Leistungen verrechnen.
Um die Aktivitäten der Effizienzmanager im Blick zu behalten,
empfiehlt es sich, diese durch externe Ressourcen zu unterstützen. Eine Unterstützung muss die Analyse und Validierung von
Potenzialen, deren Dokumentation in Business Cases, die Identifizierung und Umsetzung von Maßnahmen, die Dokumentation von Maßnahmen und deren Planwerten für ein Reporting
sowie die Prüfung bezüglich der Erfüllung formaler Kriterien
zur Anpassung der Fortschrittsstufe umfassen.
Ein mit Sorgfalt besetzter Lenkungsausschuss ist ein weiterer
kritischer Erfolgsfaktor. Hierbei ist es ratsam, aus allen potenziell betroffenen juristischen Einheiten einen Vertreter zu benennen, um Konflikte effizient beilegen zu können. Dies ist
­insbesondere dann wichtig, wenn bei einzelnen Maßnahmen
der Kostendruck von einer Einheit an eine andere Einheit
­weitergegeben wird.
Zur Wahrung des Überblicks über die Planwerte und Steuerung des Programms ist eine Toolunterstützung unentbehrlich.
Wichtig ist hier, dass das Tool mit einem Dokumentenmanagementsystem kombiniert wird. Dies gewährleistet, dass nur eine
gültige Version der Maßnahmendokumentation existiert. ­Diese
Gewährleistung der Datenkonsistenz ist umso wichtiger, je
mehr Teilprogramme das Programm umfasst.
Nicht zuletzt ist eine ausgeklügelte Reportinglogik von Nöten,
um den Lenkungsausschuss und weitere Unternehmensbereiche
Abbildung: Strategische und operative Aspekte eines Effizienzprogramms
• Programm Manager
• Steering Committee
• Effizienz
Strategie & Setup
Menschen
• Scope
• Ziele
• Prinzipien
• Rollen
Kommunikation
Regeln
• Programm
• T-Systems
• Prinzipien
• Stakeholder
Tools
• Programm Manager
• Steering Committee
• Effizienz
Quelle: Detecon
58
Detecon Management Report • 1 / 2010
Implementierung & Realisierung
Hochsaison
realistisch über den Programmfortschritt informieren zu können. Falsche Erwartungen sollten dabei unbedingt vermieden
werden. Um dies zu erreichen, sind Maßnahmen in den ersten
Fortschrittsphasen durch einen Risikofaktor zu relativieren.
Auf diese Weise kann der Wegfall von Potenzialen mit zunehmendem Härtegrad relativ leicht abgefedert werden. Weiterhin
ist in einem Reporting deutlich darzustellen, dass die Potenziale von Maßnahmen, die die letzte Fortschrittstufe erreicht
­haben, nicht sofort komplett wirksam werden. Dies resultiert in
­Anlaufkurven, die bei einer Planung gegen einen relativ nahen
Termin zu bedenken sind.
Vorgehen mit Plan
Zur korrekten Darstellung des Programmfortschritts ist eine
­differenzierte Betrachtung der Maßnahmen mit deren Planwerten notwendig. Diese Betrachtung muss das Risiko der
Maßnahmen möglichst realitätsgetreu widerspiegeln. So können die Maßnahmen beispielsweise in fünf Fortschrittsphasen,
auch Stages genannt, kategorisiert werden. Diese Kategorisierung wird als Härtegradmethodik bezeichnet.
Die erste Phase dient zur Identifizierung und umfasst die
­Beschreibung der Maßnahme, die Durchführung einer initialen
Analyse und die Bezifferung des Einsparpoten­zials. Als Faktor,
mit dem das Risiko der Maßnahme dargestellt wird, ­empfiehlt
sich der Wert drei. Dieser Wert unterstellt, dass die Wahrscheinlichkeit der erfolgreichen Umsetzung der Maßnahme 33 Prozent beträgt beziehungsweise 33 Prozent des angesetzten Potenzials tatsächlich realisiert werden.
Das Ziel der zweiten Phase ist die Verifizierung der Maßnahme
und die Herbeiführung einer Entscheidung für oder gegen die
Umsetzung. Dazu ist ein Maßnahmenmanager zu benennen,
ein Business Case zu erstellen, der externe und interne Ressourcenbedarf abzuschätzen und schließlich das Einsparpotenzial
durch den Effizienzmanager zu bestätigen. In dieser Phase sollte
der Risikofaktor zwischen 2 und 1,5 festgelegt werden.
In der dritten Phase ist die Maßnahme im Detail zu planen.
Nun muss die Lösung zur Umsetzung der Maßnahme konzipiert werden. Darüber hinaus müssen von der Maßnahme betroffene Stakeholder identifiziert und informiert und das Budget
geplant und beantragt werden. Als Risikofaktor für diese Phase
empfiehlt sich ein Wert zwischen 1,5 und 1,2.
In Phase vier wird die Maßnahme umgesetzt und der Fortschritt
der Umsetzung dokumentiert. Zunächst müssen daher die
­externen und internen Ressourcen beauftragt und ein Umsetzungs-Workshop durchgeführt werden. Gegebenenfalls ist zur
Umsetzung auch eine Anpassung von Prozessen und Verträgen
sowie der Kostenverrechnung notwendig. Abschließend muss in
dieser Phase der Effizienzmanager die Kostenreduktion bestätigen und kommunizieren. Der Risikofaktor dieser Phase sollte
1,1 betragen, da nun die Wahrscheinlichkeit, dass identifizierte
Potenziale nicht realisiert werden, stark gesunken ist.
Ziel von Phase fünf ist der Nachweis der finanziellen Wirksamkeit durch das Controlling. Zur Finalisierung der Maßnahme
muss deshalb ein Nachweis über die Einsparung angefordert
und an das Controlling zur Prüfung und Bestätigung übergeben werden. Maßnahmen, die diese Phase durchlaufen haben,
können schließlich mit vollem Wert im Programm angerechnet
werden.
Viele erfolgreiche Maßnahmen sind schnell umsetzbar
Im Fokus eines Effizienzprogramms liegt in der Regel die dauerhafte Reduktion der IT- und Prozessausgaben vor einmaligen
Maßnahmeneffekten. Über die strategischen IT KPIs für den
Fachbereich wird der Erfolg des Programms gemessen.
Als große Handlungsfelder empfehlen sich unter anderem die
folgenden Bereiche:
1. Applikationsmanagement und -betrieb: Konsolidierung und
Rückbau von Systemen, Effizienzsteigerung im Application
Service Management sowie im Service- und Help-Desk­Bereich.
2. Arbeitsplatzsysteme (APS) und Netzinfrastruktur: Anpassung der Anzahl und Ausstattung der APS und Lizenzen an
den Bedarf, getrennt nach Frontend, Backend und Netzinfrastruktur.
3. Managementkosten: Optimierung der Lieferantenverträge,
beispielsweise für externes Projektpersonal und Flächenoptimierung an den IT-Standorten.
Sicherheit, Verfügbarkeit, Leistung, Skalierbarkeit – all das sind
wichtige Punkte bei der Optimierung des Applikations­betriebs.
59
Detecon Management Report • 1 / 2010
Organization
60
Detecon Management Report • 1 / 2010
Hochsaison
Doch genauso wichtig sind für Unternehmen Kostenreduzierungen. Im Handlungsfeld Applikationsmanagement muss das
Programm zum einen interne Effizienzmaßnahmen wie die
Zusammenführung von IT-Systemen und die Optimierung
der ­Ticket-Prozesse umfassen. Zum anderen empfiehlt es sich,
Dienstleistungen für teure SAP-Service-Requests durch Kooperation mit den Fachbereichen zurückzuverlagern und verstärkt
auf Key User-Konzepte zu setzen. Darüber hinaus ist es ratsam,
mit den Serviceprovidern in Gesprächen und Verhandlungen
die Preise im Leistungskatalog unterjährig anzupassen. Die
­benötigten SLAs und Skillmixes sind hier ebenso zu berücksichtigen wie die Ergebnisse der Analyse der Marktpreisentwicklungen.
Hinsichtlich der Arbeitsplatzsysteme liegt das Ziel in der Schaffung kosteneffizienter und zukunftsorientierter PC-­Arbeitsplätze
im Unternehmen. Mehr als 80 Prozent aller ­Kosten eines ITArbeitsplatzes fallen im Betrieb an. Durch hoch ­standardisierte
Services lassen sich diese Kosten nachhaltig ­senken. Weitere
Optimierungspotenziale im Backend und Clientbereich liegen
im Abbau beziehungsweise der eingeschränkten Bereitstellung
von Softwarelizenzen und Administratorrechten. ­Damit die
­Effizienzwirkung der Standardisierung nicht an Ausnahmelisten
scheitert, sind unbedingt Managemententscheidungen einzuholen und Kommunikationsmaßnahmen einzuleiten.
Die im Handlungsfeld Managementkosten möglichen Einsparpotenziale sind abhängig von der IT-Struktur und der erreichten Fertigungstiefe. Da viele Unternehmen über Outsourcing
sowie Near- und Offshore-Verlagerungen bereits signifikante
Einsparpotenziale realisiert haben, liegen die Schwerpunkte in
der Nachverhandlung bestehender Verträge und der Optimierung der eigenen Ressourcen. Dazu zählen insbesondere die
­Lieferanten, die IT-Services anbieten, um benötigte Projektkapazitäten und spezielles Know-how abzudecken. In Kooperation mit dem Einkauf sollte hier das „Preferred Supplier“Konzept weiterentwickelt werden. Die wichtigsten Lieferanten
sind dazu einem Demand Screening zu unterziehen und nach
entsprechenden positiven Preisverhandlungen auf die Liste der
„Preferred Supplier“ zu übernehmen. Ein Lieferant mit dem
Status eines „Preferred Suppliers“ liegt mit seinen Preisen bei ITServices im Durchschnitt bis zu 20 Prozent unter den Marktpreisen.
Ein weiteres Effizienzpotenzial liegt in der Reduzierung von
Büro- und Projektflächen für die internen und externen Mitarbeiter. Auch hier ist eine Absenkung der Kosten durch Reduktion der Quadratmeter pro Mitarbeiter um bis zu 20 Prozent
erreichbar. Dies kann durch Flächenreduzierung, Standortkonzentration und Nachverhandlungen der Mietverträge erreicht
werden.
Wie anhand von zahlreichen Beispielen gezeigt, sind Kosten­
senkungen mit teils sehr einfachen Maßnahmen möglich – auch
auf kurze Sicht. Nur diejenigen Unternehmen, die ihre Kosten
proaktiv senken und gleichzeitig dafür sorgen, dass Innova­
tionen nicht auf der Strecke bleiben, haben die Chance, aus der
Krise gestärkt hervorzugehen.
Wilfried Kessler ist im Bereich Prozesse & Applikationenen als Management
Consultant tätig. Nach seinem Informatik-Studium an der Fachhochschule
Mannheim war er als IT-Manager in verschiedenen Industrieunternehmen,
auch im Ausland, tätig. Seine Tätigkeitsschwerpunkte und Kompetenzen
­umfassen Beratung im Business Process IT Application Alignment, ­Effizienzund ­Programmmanagement, Standardisierung und Konsolidierung von
ERP-Applikationslandschaften sowie IT-Sourcingstrategien zum Applikation
­Management.
[email protected]
Jörg Hermes ist als Consultant im Bereich Prozesse & Applikationen tätig.
­Seine Kernkompetenzen liegen auf den Gebieten Geschäftsprozessmanagement
Wissensmanagement & Social Media sowie Innovationsmanagement. Zudem
beschäftigt er sich mit den Themen SOA & IT-Architekturen. Vor seinem
­Einstieg bei Detecon war er Diplomand bei der Elektroniksystem- und Logistik
GmbH, wo er sich mit dem Thema Softwareevaluation und RFID-Middleware
auseinandersetzte. Zuvor war er Praktikant bei IBM und in der Systementwicklungsabteilung der Bolivianischen Börse.
[email protected]
61
Detecon Management Report • 1 / 2010
Operations
Interview:
Dr. Stefan Schloter, CIO der T-Systems International GmbH,
sprach mit dem DMR über das Effizienzprogramm, das innerhalb seiner Organisation sehr erfolgreich seit April 2009 durchführt wird.
DMR: Welche IT-Initiativen eignen sich am besten, um IT­Kosten ohne Beeinträchtigung der Qualität und Erbringung
von IT-Services zu senken?
Dr. Stefan Schloter, Jahrgang 1971, studierte Physik an
den Universitäten Würzburg und SUNY at Stony Brook,
New York. Er erwarb einen Master of Arts und promovierte von 1996 bis 1999 an der Universität Bayreuth auf
dem Gebiet optischer Datenspeicher.
Seine berufliche Laufbahn startete Schloter 1999
bei McKinsey & Company. In England, Schweden,
­Niederlanden, Frankreich, USA und Deutschland
­verantwortete er verschiedene Projekte mit dem Schwerpunkt IT-Management. 2004 wechselte Stefan ­Schloter
zur Deutschen Telekom. Zunächst war er als Leiter ITProduktion Computing bei der Telekom-Tochter ­T-Com
in Darmstadt mit dem Schwerpunkt IT-DienstleiterManagement betraut. 2006 wechselt Schloter in die Zentrale der T-Com und optimierte die IT-Landschaft im
Hinblick auf Kosten und Qualität. In dieser Funk­tion als
Bereichsleiter IT-Portfoliomanagement, ­-Planung und
-Qualität übernahm er zusätzlich die kommissarische
Leitung der IT Strategie innerhalb der T-Com.
2007 übernahm Stefan Schloter bei der Telekom-Tochter
T-Home die Aufgabe, die in einem Bereich konsolidierte
IT-Strategie, das Portfolio- und Qualitätsmanagement
auszugestalten und umzusetzen. Seit 1. März 2008 ist
Schloter im Management Board von T-Systems für Prozesse, Qualität und IT verantwortlich.
62
Detecon Management Report • 1 / 2010
S. Schloter: In der derzeitigen wirtschaftlichen Situation ­haben
alle CIOs den Druck, die IT-Kosten zu senken. Erschwerend
kommt hinzu, dass auf der Fachseite die Qualität der IT­Unterstützung der Geschäftsprozesse sichergestellt bleiben
muss. Aus meiner Sicht sollte der Fokus der Maßnahmen auf
den IT-­Kosten für „Run the Business“ liegen. Eine Senkung
dieser Kosten schafft Freiräume für „Change the Business“.
Damit können mehr IT-Veränderungen realisiert werden, die
auf den Unternehmenserfolg und die Prozesseffizienz einzahlen.
In Wachstumsphasen kann dann zudem schneller auf Veränderungen reagiert werden.
DMR: Was ist Ihre Zwischenbilanz bezüglich der gesetzten Ziele
und der gewählten Vorgehensweise im Effizienzprogramm?
S. Schloter: Ich bin ich sehr zufrieden damit, wie das Programm
aufgesetzt wurde. Wichtig ist der ganzheitliche Ansatz, der den
kompletten Kostenblock auf den Prüfstand stellt, angefangen
beim Betrieb über die Infrastruktur bis hin zu den Kosten für
Arbeitsplatzsysteme. Auch die Mechanik zur Steuerung und
Nachverfolgung der Maßnahmen ist hilfreich, insbesondere die
Härtegradmethodik, die dafür sorgt, dass Maßnahmen in den
einzelnen Stufen von der Ideenbildung bis zur harten Umsetzung überwacht werden.
DMR: Was waren die größten Herausforderungen und Erfolgsgeschichten bisher?
S. Schloter: Eine Herausforderung ist es, die richtigen Maßnahmen zu identifizieren. Das ist in der Anfangsphase wichtig,
um schnell Fahrt aufzunehmen. Später muss daran mit hoher
Hochsaison / Interview
Kontinuität weiter gearbeitet werden, um nicht den Schwung
im Programm zu verlieren. Zudem denke ich, dass erfolgreiches bereichsübergreifendes Arbeiten vom Fachbereich bis
zum ­Lieferanten wichtig ist. Nur so können die kompletten
­Potenziale gehoben werden. An dieser Stelle ist vor allem unorthodoxes Denken zur Identifizierung von Maßnahmen wichtig,
um eingetretene Pfade zu verlassen.
Potenziale haben wir erfolgreich bei der Büroinfrastruktur und
in den Netzkosten gehoben, aber auch im Rechenzentrums­
betrieb durch Umstellung auf das Dynamic Services Offering
der T-Systems. Diese Maßnahmen sind natürlich sehr erfreulich, da die Kosteneinsparungen direkt an der Außenkante
­ergebniswirksam werden.
DMR: In welchen Größenordnungen lassen sich die IT-Kosten
beeinflussen und wo liegen die Grenzen?
S. Schloter: Durch ein konsequentes Effizienzprogramm
können IT-Budgets spürbar abgesenkt werden. Das bedeutet,
dass in 12-18 Monaten 15-20 Prozent Einsparung erreichbar
sind. ­Längerfristig lassen sich größere Potenziale dann durch
strukturelle Veränderungen, zum Beispiel Offshoreansätze
oder Transformational Outsourcing, realisieren. Dafür ist jedoch eine grundlegende strategische Entscheidung durch das
­Geschäft ­erforderlich und nicht nur ein Portfolio von Einzelmaßnahmen.
DMR: Wie schätzen Sie das Risiko ein, dass durch Effizienzmaßnahmen der IT die Produktivität von Geschäftsprozessen
sinkt?
S. Schloter: Eine der Rahmenbedingungen des Programms war
es, weder die Qualität noch die Produktivität der Geschäftsprozesse durch die Maßnahmen zu beeinträchtigen. Natürlich
wurden im Arbeitsplatzsystem-Umfeld auch unpopuläre Maßnahmen durchgeführt, wobei ich aber nicht denke, dass diese
Maßnahmen die Geschäftsprozesse nachhaltig negativ beeinflussen.
DMR: Wie kann man IT-Anbieter und Lieferanten effizienter
steuern, um fundierte Entscheidungen zu treffen und die Ausgaben zu senken?
S. Schloter: Aus meiner Sicht ist hier das A und O eine enge
Kooperation zwischen Fachbereich, der internen IT und dem
Einkauf sowie dahinterliegend eine klar definierte SourcingStrategie. Elemente sind hier beispielsweise eine Zwei-VendorStrategie im HW-Umfeld und auf der Softwareseite ein solides
Lizenzmanagement.
DMR: Welche Technologien sollten eingesetzt und welche ITTrends beachtet werden, um die Effizienz voranzutreiben und
den Erfolg zu gewährleisten?
S. Schloter: Es ist wichtig, einen verstärkten Einsatz von Kollaborationstools zu fördern, um den Mitarbeitern die Möglichkeit
zu schaffen, standortübergreifend zu arbeiten und Alternativen
zur klassischen Telefonkonferenz anzubieten. Als Beispiel ist das
Thema Microblogging zu sehen, was wir im Zusammenspiel mit
Wikis testen. Neben dem Corporate Social Network sind auch
geschlossene Wikis sehr wichtig, die derzeit bei uns sehr stark
nachgefragt werden. Wir haben auch sehr gute Erfahrungen mit
der Einführung eines Hochleistungs-Videokonferenzsystems
gemacht. Der große Vorteil von Kollaborationslösungen ist
dabei nicht nur eine Erhöhung der Kommunikationseffizienz,
sondern auch eine Einsparung von Reisekosten und ein Gewinn
an privater Zeit für den Mitarbeiter.
DMR: Was sind Handlungsfelder, die bisher nicht im Fokus
standen und in Zukunft auch angegangen werden sollen?
S. Schloter: Neben den klassischen Effizienzmaßnahmen ­stehen
in Zukunft vor allem strukturelle Maßnahmen wie konsequente
Applikationskonsolidierung im Vordergrund. Dies muss natürlich in partnerschaftlichem Dialog mit dem Fachbereich geschehen. Weiterhin soll die Effizienz im Entwicklungsprozess
gesteigert werden und das Effizienzmanagement auf eine internationale Basis gehoben werden.
DMR: Wir danken Ihnen für das Interview.
Das Interview führten Wilfried Kessler und Jörg Hermes,
­Competence Practice Operations & Performance, Group Processes
& Applications.
63
Detecon Management Report • 1 / 2010
Technology
Interview mit André Feld, Deutsche Post DHL
Stark bedeckt
oder wolkenlos?
Cloud Computing in der IT-Strategie der Deutschen Post
Alter Wein in neuen Schläuchen oder zukunftsweisendes Konzept? Viele Unternehmen rätseln
derzeit über die Bedeutung von Cloud Computing für ihre IT-Landschaft. Aufgrund der
­hohen Komplexität und Abstraktion wird es für
IT-Verantwortliche zunehmend anspruchvoller,
Technologietrends zu bewerten. André Feld
­leitet das Technologiemanagement der Deutschen Post und erläutert im DMR-Interview,
wie der Logistik-Konzern Innovationsfelder
nutzbar macht und welche Relevanz Cloud
Computing-Modelle zukünftig haben werden.
64
Detecon Management Report • 1 / 2010
Interview: Stark bedeckt oder wolkenlos?
DMR: Einerseits hat die Rezession die Budgets der Unternehmen
stark unter Druck gesetzt, auch die Investitionen in Informationstechnologie. Andererseits wird fieberhaft nach einer guten Start­
position für den erhofften Aufschwung gesucht, auch hier kann der
gezielte Technologieeinsatz entscheidend sein. Welchen Stellenwert
hat Informationstechnologie für die Logistikbranche, welchen für
die Deutsche Post AG?
A. Feld: Viele IT-Vorhaben zielen derzeit auf die Steigerung der
Kosteneffizienz, dies ist der wirtschaftlichen Gesamtsituation
geschuldet. Andererseits bestand zukunftsorientierte ­Logistik
schon vor der Rezession aus weit mehr als der Bewegung von
Transportflotten. Dabei stützt sich die Erschließung neuer
­Geschäftsfelder nicht zuletzt auf Informationstechnologie. Mit
dem angekündigten „Online-Brief“* überträgt die Deutsche
Post das Leistungsversprechen des klassischen Briefs – Vertraulichkeit, Zuverlässigkeit und Verbindlichkeit – auf das Internet.
Der Träger dieser Dienste ist zweifelsfrei eine IT-Plattform, insofern fällt der Informationstechnologie eine größere Bedeutung
für die Geschäftsentwicklung des Unternehmens zu.
DMR: Die Innovationsgeschwindigkeit in der IT wird immer ­höher,
die Abstraktionsebenen und Abhängigkeiten immer ­komplexer. Wie
geht die Deutsche Post mit dieser Herausforderung um?
A. Feld: Wir legen Wert darauf, Transparenz über die am Markt
entstehenden Technologien und ihren potenziellen Nutzen
selbst zu schaffen. Technologieinnovationen müssen innerhalb
des Unternehmens erkannt werden, um Wettbewerbsvorteile
zu schaffen und Abhängigkeit von Dritten zu vermeiden. Wir
analysieren Innovationsfelder genau und im Kontext unserer
Geschäftstätigkeit, um den Nutzen von Technologie im Zusammenhang mit dem individuellen Leistungsportfolio der Deutschen Post bewerten zu können.
* Die Bezeichnung „Online-Brief“ ist ein vorläufiger Arbeitstitel.
DMR: Wie gehen Sie in der Identifikation, Bewertung und Einführung neuer Technologien vor?
A. Feld: Wir haben ein standardisiertes Vorgehen für das Technologiemanagement geschaffen, das eine Balance zwischen
nachfragegesteuerter und angebotsgesteuerter Entwicklung des
Technologieportfolios schafft. Für die Berücksichtigung des
„Market Pull“, also der von Kundenseite formulierten Anforderungen, ist eine enge Abstimmung zwischen den Fachbereichen
und dem IT-Bereich geboten. Wir streben dabei eine gemeinsame Planung und Darstellung von markt- und technologiegetriebenen Innovationen an.
An die Identifikation nutzenbringender Technologien schließt
sich ein Bewertungsverfahren an, das funktionale, kommerzielle
und betriebliche Aspekte berücksichtigt. Auf den Ergebnissen
dieser Bewertungsschritte erfolgt dann eine Standardisierung
auf zum Beispiel spezifische Produkte und Prozesse der Bereitstellung.
DMR: Die Umsetzung innovativer Technologiekonzepte findet
häufig nicht auf der grünen Wiese statt. Wie wird ein Technologiewechsel vorbereitet?
A. Feld: Technologieinnovationen können auch für bestehende
IT-Systeme einen großen Nutzen bieten, entweder funktionaler
oder kommerzieller Art. Durch die Schaffung einer detaillierten
Sicht auf den aktuellen Bestand an IT-Komponenten gelingt es
uns, die Standardisierung neuer Technologien auch am Nutzen
für die bestehende Anwendungslandschaft zu orientieren. Die
Einführung und Umsetzung wird zunächst durch eine vertiefte
Betrachtung der Wirtschaftlichkeit und Machbarkeit untermauert und dann im Rahmen eines dedizierten Programms
durchgeführt. Bei einem komplexen, fundamentalen Technologiewechsel werden seitens des IT-Bereichs Anreizsysteme für die
verantwortlichen Fachabteilungen geschaffen, um Migrationszyklen zu verkürzen.
65
Detecon Management Report • 1 / 2010
Technology
DMR: Stichwort „fundamentaler Technologiewechsel“ - die Informationstechnologie ist immer reich an Trendthemen und Zukunftsvisionen. Welche fundamentalen Technologieinnovationen stehen
bei Ihnen derzeit auf dem Prüfstand?
André Feld leitet bei der
Deutsche Post DHL
das Team Identity &
­Technoloy Management.
Einer seiner Schwerpunkte ist es, innovative
Technologien für den
Konzern Deutsche Post
DHL zu bewerten und
in der übergreifenden ITStrategie zu verankern.
André Feld ist Diplom
Informatiker und erwarb
seinen Abschluß an der
Rheinisch-Westfälischen
Technischen Hochschule
Aachen
A. Feld: Wir beschäftigen uns derzeit intensiv mit Nutzungs­
szenarien von Cloud Computing-Diensten, die wir im Rahmen einer Innovationsstudie analysiert haben. Der Begriff
Cloud Computing definiert dabei nicht ein Technologiefeld
im eigentlichen Sinne, sondern ein Geschäftsmodell, bei dem
Kosten­effizienz und Flexibilität im Vordergrund stehen. Entsprechend breit ist das Spektrum an Angeboten, die derzeit am
Markt ­existieren. Schon die etwas rudimentäre Segmentierung
in Infrastruktur-, Plattform- und Anwendungsdienste zeigt, wie
groß und wenig definiert das Cloud Computing-Paradigma
heute ist.
DMR: Welche Anwendungsfälle von Cloud Computing erscheinen
Ihnen aus der Perspektive eines Großkonzerns gegenwärtig realistisch und vor allem von wirtschaftlichem Nutzen?
A. Feld: Wir haben in der Vergangenheit viel Erfahrung in der
Flexibilisierung unserer IT-Infrastruktur gesammelt. Auch der
Aufbau gemeinsam genutzter IT-Plattformen, zum Beispiel im
Bereich von Datenintegration oder Business Intelligence, wird
vorangetrieben. Der derzeitig vollzogene Übergang zu einer
virtualisierten Anwendungslandschaft und einer dynamischen
Verteilung von IT-Betriebsmitteln bringt uns technologisch
dem Szenario einer Enterprise Cloud relativ nahe. Wirtschaftlich lukrativ ist jedoch das im Bereich von Public Clouds vorherrschende Modell einer nutzungsbezogenen Abrechnung. Da
die Dimensionierung von IT-Infrastruktur einer hohen Ungenauigkeit unterliegt, verlagert man mit einem „Pay-as-yougo“-Modell das Leerstandsrisiko für die Infrastruktur auf die
Seite des Betreibers. Das scheint ein attraktives Modell für die
­Zukunft zu sein.
DMR: Die Expertenmeinungen gehen bezüglich eines Einstiegs in
die Nutzung von Cloud Computing-Diensten weit auseinander.
Einige sehen den Zug für Europa schon abgefahren, andere warnen
vor zusätzlichen Risiken. Wie beurteilen Sie den Reifegrad der heutigen Cloud Computing-Angebote und welche Risiken sehen Sie?
66
Detecon Management Report • 1 / 2010
Interview: Stark bedeckt oder wolkenlos?
A. Feld: Spiegelt man die Eigenschaften von Cloud Computing-Diensten an unseren geschäftlichen und IT-Anforderungen, ergibt sich ein uneinheitliches Bild. Während die
Flexibilisierung der Kosten und die Beschleunigung der Bereitstellung eine sichtbare Verbesserung gegenüber konventionellen
IT-Betriebskonzepten bringen, gibt es auch Schwachpunkte.
Viele Softwareanbieter haben für ihre Produkte kein für Cloud
Computing passendes Lizenzmodell entwickelt, das dem Wegfall physikalischer Mengeneinheiten wie Prozessorkernen oder
­Serverinstanzen Rechnung trägt. Darüber hinaus sind für Public
Clouds Anforderungen an Datensicherheit und Datenschutz
nicht ausreichend umgesetzt. Neben Bedenken hinsichtlich der
Sicherheit in gemeinsam genutzten Umgebungen ist auch die
Einhaltung gesetzlicher Rahmenbedingungen in dem gewollt
industrialisierten, anonymen Betreibermodell des Cloud Computing ungelöst. Die Novelle des Bundesdatenschutzgesetzes
verpflichtet beispielsweise jeden Datenherrn dazu, die Wahrung
von Sicherheitsstandards bei den im Auftrag arbeitenden ITBetreibern regelmäßig zu überprüfen. Die Durchführung solcher Revisionen ist in der „Self Service“-Philosophie der Public
Cloud-Anbieter derzeit nicht vorgesehen.
DMR: Angenommen, das Cloud Computing-Konzept entwickelt
sich zum IT-Paradigma der kommenden Jahre. Welche Schritte unternehmen Sie, um für zukünftige Cloud Services vorbereitet zu
sein? Welche Herausforderungen sehen Sie in der Transformation
der heutigen IT-Landschaft?
A. Feld: Zwei grundlegende Voraussetzungen für die Nutzung
von Cloud Services haben wir derzeit im Fokus: Die größtmögliche Standardisierung auf eine begrenzte Zahl genutzter Technologien einerseits und die Entkopplung aller Anwendungen
von der unterliegenden Infrastruktur andererseits. Darüber
­hinaus sammeln wir punktuell praktische Erfahrungen mit Public Clouds. Für Entwicklungs- und Abnahmesysteme, die einer
hohen Schwankung in der Auslastung und einem geringen betrieblichen Risiko unterliegen, ergeben sich vielversprechende
Szenarien, die wir evaluieren wollen.
Der reizvollen Vision, sich zukünftig den Anbieter der ITInfrastruktur ähnlich wie beim Preselection-Konzept für Telefongespräche dynamisch auswählen zu können, stehen einige
Hürden entgegen. Die Begrenzungen des IPv4-Adressraums
und die weit verbreitete Kapselung von Adressräumen im Netz
behindern eine Virtualisierung des Netzwerks. Ein schneller
Umzug von IT-Systemen zwischen verschiedenen Clouds erfordert Eigenschaften der IPv6 Protokollfamilie wie die zustandslose automatische Konfiguration. Nach der Dynamisierung der
­Rechen- und Speichersysteme rückt das Netzwerk künftig in
den Fokus unserer Transformationsbemühungen.
DMR: Nicht nur klassische IT-Hersteller haben Cloud Computing als Geschäftsmodell entdeckt und erweitern mit Diensten aus
der Wolke ihr Portfolio. Ein prominentes Beispiel ist das Handels­
unternehmen Amazon, aber auch Telekommunikations- und
­Medienunternehmen. Ist die Anbieterrolle von Cloud Computing Diensten auch für die Deutsche Post ein erfolgversprechendes
­Szenario?
A. Feld: Im Cloud Computing-Markt in die Anbieterrolle zu
wechseln ist eine Option, die nur im Rahmen einer Stärkung
der existierenden Wertschöpfungskette betrachtet werden kann.
Hier wird der „Technology Push“ der dem Cloud Computing
zugrunde liegenden Technologien wie Virtualisierung, Automatisierung und Breitbandnetzwerke offenbar. Es ist die Aufgabe der IT, im Dialog mit den Fachbereichen das Potenzial der
Technologien zu erläutern und gemeinsam innovative Geschäftmodelle zu entwickeln. Bezogen auf die Deutsche Post halte ich
das SaaS-Segment für geeignet, das aktuelle Leistungsportfolio
durch auf unsere Kunden und Partner zugeschnittene Dienste
zu ergänzen. Der angekündigte „Online-Brief“ Service fällt
bereits in diese Kategorie, auch im Bereich des Kampagnen­
managements gibt es fortgeschrittene Konzepte.
DMR: Vielen Dank für das Interview.
Das Interview führten Martin Jeske und Dirk Pracht
aus dem ­Bereich Strategic Technology, Detecon.
67
Detecon Management Report • 1 / 2010
Technology
Karsten Prey, Marco Chiesa
Grüne Vorreiter
Energieoptimierung im Rechenzentrum mit GreenICT
Klimawandel, nachhaltige Ressourcennutzung und energiesparende
ICT sind in aller Munde. Den CIO eines Unternehmens und seine RZLeiter interessieren aber ebenso die Kostensenkungspotenziale eines
grünen Rechenzentrumsansatzes. Aus dieser Sicht stellen wir Energieeinsparungspotenziale dar, berichten aus umgesetzten Projekten
und zeigen auf, was sich ICT aus der Telekommunikationsbranche
„abschauen“ kann.
68
Detecon Management Report • 1 / 2010
Grüne Vorreiter
uf Rechenzentren der Enterprise- und Carrier-Klasse komA
men seit mehreren Jahren diverse neue Anforderungen zu, die
durch das IT-Management umgesetzt werden müssen: Neben
den klassischen Erweiterungen des Anwendungsbetriebs, getrieben von Geschäftsprozessen oder Prozessoptimierungen
im Sinne des IT Service Managements, spielen insbesondere
­Kostenreduktionen eine große Rolle.
Kostenoptimierungspotenziale und wenig Nachhaltigkeit
­bestimmen die Ausgangslage
Dabei verschieben sich die Handlungsbedürfnisse. Während
in der Vergangenheit Kostenoptimierungen durch Prozess­
standardisierungen und fallende IT-Infrastrukturkosten im Vordergrund standen, rücken nun die Umsetzung von GreenICT
und Energieeinsparungen in den Mittelpunkt vieler Projekte.
Auch hier geht es natürlich primär um die Senkung der ­Kosten,
da die Position Energie in den letzten Jahren mit bis zu 50
Prozent Anteil an den Betriebskosten eines durchschnittlichen
LargeIT-Rechenzentrum deutlich angewachsen ist.
Gleichzeitig ist trotz der Diskussion in der Politik zu konstatieren, dass die Umgebungstemperaturen von Rechenzentren kon-
tinuierlich steigen. Damit nehmen selbst bei gleichbleibender
technischer Ausstattung die Anforderungen an die Außengeräte
der Klimasysteme zu, welche die Wärme an die Umgebung
abgeben. Hinzu kommt, dass genau diese technische Ausstattung nicht konstant bleibt, sondern immer höhere Packungsdichten der IT-Infrastruktur, zum Beispiel durch Blade-Server,
die benötigte Kühlleistung um ein Vielfaches erhöht. Die Projekterfahrung zeigt, dass sich die Klimatisierungsbedürfnisse in
einer ähnlichen Steigerungsrate zu der jeweiligen Steigerung
der Außentemperatur verhalten. Dementsprechend nehmen
die Klimatisierungskosten insgesamt, besonders RLT-Anlagen/
HVAC1, weiter zu.
Die vor fünf bis zehn Jahren prognostizierte Idee von
­schrumpfenden Rechenzentren hat sich rückblickend nicht
bewahrheitet – ganz im Gegenteil zeigt die Beobachtung, dass
weltweit immer größere Rechenzentren höherer Verfügbarkeits­
klassen errichtet werden.
Eine genauere Analyse des Stromverbrauchs untersuchter
­Rechenzentren in mehreren Detecon-Projekten ergab, dass nur
­zirka 30 Prozent der Energie für IT-Infrastruktur (Server, Speicher und Netzwerke) verbraucht wird. Über 55 Prozent werden
1 RLT: RaumLuftTechnik / Klimaanlagen,
HVAC: Heating, Ventilation, Air Conditioning
69
Detecon Management Report • 1 / 2010
Technology
für die Klimatisierung unterschiedlicher Komponenten benötigt. Gerade dieser Faktor lässt sich durch Einsparungsmaßnahmen deutlich um bis zu 45 Prozent reduzieren. Die Maßnahmen sind teilweise einfach in existierenden Umgebungen
anwendbar, einige lassen sich zukünftig und langfristig in neuen
Architekturen umsetzen.
Auch jetzt schon lässt sich viel tun!
Die im Folgenden beschriebenen Maßnahmen beruhen auf
technischen und ingenieurmäßigen Grundfähigkeiten, die
schon lange in der Strom- und Klimatechnik umgesetzt werden,
im Rahmen der Optimierung von Rechenzentren jedoch das
beschrieben hohe Potenzial bieten.
Grundlage aller Veränderungen sind Ergänzungen zum ­„Messen,
Steuern und Regeln im Rechenzentrum“. Hier sind zwar einige
Ergänzungen und Investitionen notwendig, die aber auch sukzessive umgesetzt werden können und damit das Budget nur
eingeschränkt belasten. Ziel dieser Maßnahmen sollte sein, Energieverbrauch und klimatische Kälte- und Luft­strömungen so
detailliert wie möglich zu messen, um eine klare Basis für alle
Entscheidungen zu haben. Es gilt also, alle Stromanbindungen
wie HSHV, NSHV2, Stromschienen, Racks und Bladecenter
sowie einzelne Server mit Messpunkten und (Aus-) Schaltungspunkten zu in einer baumartigen Struktur zu versehen. Dies
lässt sich teilweise kurzfristig und nachträglich für ­kritische
Komponenten realisieren, kann aber situations-anhängig auch
nur im Rahmen eines Neubaus oder der Neukonzipierung des
Rechenzentrums möglich sein.
Weiterhin ist eine Integration mit einem Out-Of-Band
­Management System möglich, zum Beispiel Ein-/Ausschalter,
was die Steuerung der Stromnutzung – neben den generellen
System-Steuerungsfunktionen – stark vereinfacht. Es ist generell
zu empfehlen, hierbei in den folgenden sechs Schritten vorzugehen:
1. Festlegung einer Mess-Strategie: Was soll in welchen
Zeitabständen wie genau gemessen, gesteuert und
geregelt werden?
2. Festlegung von KPIs3 zur Messung der Erfolge in der
Optimierung (siehe auch Kasten).
3. Erarbeitung einer technischen Architektur-Plattform
für die Messungen.
2 HSHV – Hochspannungs-Hauptverteiler
NSHV – Niederspannungs-Hauptverteiler
3 KPI – Key Performance Indicator
70
Detecon Management Report • 1 / 2010
4. Auswahl der geeigneten Messgeräte beziehungsweise
der (des) Hersteller(s).
5. Integration in die gesamten Monitoring Prozeduren des Unternehmens inklusive des
Out-Of-Band-Managements.
6. Implementierung eines Reporting und Berichtswesens.
Eine einfache Aufstellung der Racks und Systeme in einem
Warmluftgang/Kaltluftgang-Konzept sollte eigentlich heutzutage eine Selbstverständlichkeit sein. Historisch gewachsene,
insbesondere kleine Rechenzentren sind aber oftmals noch
nicht nach diesem Prinzip aufgebaut. Auch nachträgliche Veränderungen, welche ursprünglich als reine Provisorien geplant
waren, wirken sich oft störend auf die Raumluftzirklulation
aus. Natürlich ist das Messen der Strömungsverhältnisse und
­Klimabedingungen in einem Raum und die anschließende
3D-Strömungssimulation (CFD-Simulation – Computational
Fluid Dynamics) eine sehr aufwändige Aufgabe, verlangen eine
hohe Einmalinvestition und stellen nur ein Momentabbild dar.
Dementsprechend lohnt dieser Aufwand auch nur nach einer
Vorabanalyse und Rechenzentrumsbegehung (Stichwort: „Seltsames Luftströmungsverhalten in den Gängen“) durch einen
Spezialisten, der kritische Punkte und Fragen aufgeworfen hat.
Übliche Temperaturmessfühler können ebenfalls schon Aufschlüsse für den Bedarf einer solchen sehr teuren Strömungsanalyse ergeben.
Die Frage der direkten Wasserkühlung am Rack beziehungs­
weise System- versus Raum-Luft-Klimatisierung lässt sich im
Moment auf zwei wesentliche Entscheidungskriterien reduzieren:
Ab zirka acht bis zehn kW Kühlbedarf pro Rack werden
­existierende Raum-Luft-Klimatisierungen ineffizient oder gar
überfordert. Als Lösung lassen sich Kaltgangeinhausungen zurüsten, welche die abzuleitenden Wärmelasten auf bis zu 15
kW erhöhen. Darüber hinaus bleibt insbesondere für Systeme
mit sehr hohen Abwärmeleistungen, zum Beispiel Blade- oder
High-Density-Systeme größer 15 kW, nur eine direkte Wasserkühlung am oder im Rack. Die verschiedenen Hersteller von
Rack-Systemen wie Rittal, Knürr, Schroff und Schäfer oder
Emerson-Liebert bieten inzwischen flexible Einbau- und Erweiterungslösungen an, die auch nachträglich und unterbrechungsfrei in einem ­Rechenzentrum integriert werden können.
Grüne Vorreiter
Trotz der Möglichkeit des nachträglichen Zurüstens von
­Direktkühlsystemen ist die Historie eines existierenden
­Rechenzentrums zu beachten. Zusätzliche Wasserkühlungssysteme benötigen unter Umständen Spezialanschlüsse, die
manchmal nicht einfach zu realisieren sind oder Erweiterungen
einer existierenden begrenzten Stromzuführung – inklusive der
Sicherungskomponenten wie USV4 oder Generator. In diesen
Fällen sollte die Integration einer Wasserkühlung, auch unter Sicherheitsaspekten und Überlegungen zu Wasserschäden,
eher bis zu einem Neubau oder Umzug verschoben werden.
Sourcing-Optionen externer Rechzentrum-Dienstleister beziehungsweise strategische Grundüberlegungen zum Rechenzentrum können hierbei natürlich auch eine Rolle spielen. In der
Zwischenzeit kann der Ausbau der existierenden Raum-LuftKlimatisierung auch bei sonstigen negativen Aspekten, zum
Beispiel verschlechterte Luft-Strömungsverhältnisse im Serverraum, verbessert werden.
Weitere herkömmliche Optimierungsmaßnahmen sind sinnvoll.
Nach einer Strömungsanalyse können einfache Ergänzungen
von Strömungsleitblechen oder Dämmmatten in den Racks die
Strömungsverhältnisse so weit optimieren, dass deutliche Einsparungen in der Klimatisierung und damit im Stromverbrauch
messbar werden.
Neue Konzepte und RZ-Strategien ergänzen die kurzfristigen
Maßnahmen
In Zukunft werden Rechenzentren vermehrt energieoptimierende und kostensparende Versorgungslösungen umsetzen.
In Regionen mit hoher oder mittlerer Sonneneinstrahlung können Rechenzentren durch Solarzellen-Anlagen gespeist werden.
In küstennahen Bereichen und anderen windreichen Gegenden
der Welt, zum Beispiel deutsche Nordseeküste, eignen sich
Windkraftanlagen oder ganze Windparks als erneuerbare Energiequelle und Basis einer kostensparenden und nachhaltigen
Stromzulieferung im Rechenzentrum.
Mit Biogas betriebene Brennstoffzellen liefern zusätzliche Energie besonders als Ersatz für USV und Generatoren. Eine Brennstoffzelle ist wie ein elektrisches Sandwich aufgebaut. Sie erzeugt
Strom und Wärme, wenn die elektrische Anode mit Wasserstoff
und die Kathode mit Luftsauerstoff versorgt werden. Dazwischen befindet sich ein Elektrolyt aus Lithium- und Kaliumkarbonat. Wird der Brennstoffzelle Methan und Wasser zugeführt,
so setzt sie Wasserstoff frei. Der Wasserstoff reagiert mit den
Karbonat-Ionen des Elektrolyten zu Wasser und Kohlendioxid,
wobei Elektronen frei werden. Das Kohlendioxid wird zusammen mit Luftsauerstoff der Kathode zugeführt. Beim Verbrauch
der Elektronen bilden sich ständig neue Karbonat-Ionen, wobei wiederum Wärme frei wird. Die Karbonat-Ionen wandern
durch den Elektrolyten zur Anode und schließen somit den
elektrischen Kreislauf.
Neben den etablierten chemischen Speichern (USV-Akkus)
haben die kinetischen Energiespeicher ihre Marktreife erlangt.
Neue Werkstoffe wie Glas- und Kohlefaser- Verbundstoffe und
die kostengünstigere Herstellung von Hochtemperatur-Supraleitern verhelfen den Schwungmasseenergiespeichern zu berührungslosen Lagern und zu neuen Leistungswerten. Damit lassen
sich Energiespeicher mit hoher Kurzzeit-Wirklast als Erstversorgung im Stromausfall realisieren, die gleichzeitig eine Energiesparfunktion – geschätzt 30 Prozent – haben.
Weiterhin können Rechenzentren über direkten Anschluss und
die Einleitung von Grundwasser, Flüssen und Seen Kühlkapazitäten der Natur nutzen, um so den Energieverbrauch weiter zu
minimieren. Server und Racks können direkt mit ihren Kühlungsfunktionen angeschlossen werden. Alternativ kann durch
Einleitung der Flüssigkeit in die Klimageräte eine indirekte Einsparung erfolgen.
Auch weitere passive Kühlfunktionen über sogenannte Wärmetauscher werden möglich, solange Außentemperaturen unter
20° Celsius bleiben. Damit wird eine fast energielose Kühlung
mit einer Reduktion von bis zu 80 Prozent der Energiekosten,
abhängig von der Umgebungstemperatur, möglich. Ergänzende
Geräte für wärmere Jahreszeiten, auf die wir uns einstellen müssen, werden natürlich notwendig.
Die Umwelt spielt eine immer größere Rolle bei der Standortwahl für ein neues Rechenzentrum. Das Rechenzentrum wird
nur bis zu einer gewissen Außentemperatur mit freier Luft gekühlt. Die Kühlung durch eine oberflächennahe ErdwärmeEinleitung wird möglich, da in zehn Meter Tiefe zirka 10°
Celsius Temperatur-Differenz gemessen werden. Diese negative
Energiebilanz der Tiefe kann im Rechenzentrum zur Kühlung
genutzt werden.
Eine Modularisierung des Rechenzentrums sollte heutzutage als
Selbstverständlichkeit gelten: Mehrere kleine Serverräume bie-
4 USV: Unterbrechungsfreie Stromversorgung (meist auf Basis von Akkus)
71
Detecon Management Report • 1 / 2010
Technology
72
Detecon Management Report • 1 / 2010
Grüne Vorreiter
ten neben der Erhöhung der Sicherheit und des Brandschutzes
für jede Anwendungs- und Systemklasse ein eigenes Klima.
Sie lassen sich individuell anpassen und steuern. In diesen
Spezial­räumen können einige Serversysteme sogar mit deutlich
­höheren Temperaturen betrieben und so Klimatisierungskosten
eingespart werden. Mit variablen Raumhöhen, verschiedenen
Temperaturen und Luftfeuchtigkeiten sowie neuen Chips, die
weniger Energie verbrauchen, lässt sich der Energieverbrauch
eines Rechenzentrums weiter reduzieren.
Mit allen diesen Maßnahmen wird das Rechenzentrum gleichzeitig Energieerzeuger und Energieverbraucher. Es ist damit
Teil eines Stromnetzes mit vielen Mitspielern, ein sogenanntes
„Electrical SmartGrid“. Darüber hinaus kann es als Heizung genutzt werden. In einem Detecon-Projekt wurde ein nicht mehr
genutzter Swimming-Pool eines Tagungshotels mit Hilfe eines
eingebauten „Doppelbodens“ und einer Kaltgangeinhausung
„ertüchtigt“ und dient so als partieller Energielieferant für das
Hotel. Eine Wärmeabgabe in die Büros eines Rechenzentrums
ist ebenfalls denkbar.
Das Future Green Enterprise Data Center
Ein zukünftiges, dynamisches und adaptives Green ­Enterprise
Data Center (GEDC) passt sich in allen Bereichen der IT und
besonders auch der Energienutzung an die jeweiligen Bedürfnisse und Gegebenheiten des Geschäftes sowie der Anwendungs- und Systemlandschaft an. Für den Aufbau eines solchen
GEDC gibt es aus unserer Sicht sieben Haupterfolgsfaktoren
und Basistechnologien (siehe Abbildung nächste Seite):
1. Eine weitestgehende Virtualisierung der IT-Infrastruktur, das
heißt aller Server, Speicher- und Netzwerk-Komponenten. Dies
kann insbesondere beim Einsatz hochkompakter Blade-­Systeme
punktuell erhöhtem Energieverbrauch führen, welcher aber potentiell durch die Reduktion von Bestandsgeräten ausgeglichen
wird. Intelligent verwaltete Virtualisierungslandschaften, wie
zum Beispiel vmWare Enterprise Management Konsole oder
IBM’s Tivoli Dynamic Infrastructure Management Environ-
ment, erlauben es den Administratoren so, die Gesamtumgebung so zu optimieren, dass deutliche Einsparungen in Höhe
von 20 Prozent möglich sind.
2. Dies setzt die entsprechenden Werkzeuge für eine Ende-zuEnde Automatisierung voraus, damit von der Anwendungsebene über Middleware, Infrastruktur und Systeme ein sollständiges
Monitoring und automatisierte Steuerung des GEDC möglich
wird. Auch die Strom- und Klimatisierungskomponenten werden in diese Automatisierung miteinbezogen und gesteuert.
3. IT Service-Management Prozesse auf Basis des ITIL-Standards versetzen die Mannschaft des Rechenzentrums dazu in die
Lage, Service-Prozesse so weit zu optimieren, dass auch hiermit
Energieeinsparungen möglich und mit Hilfe automatisierter
Komponenten umgesetzt werden können.
4. Kompakte IT- und Informationsstrukturen bilden einen
weiteren Baustein für das GEDC. Dies beinhaltet sowohl kompakte Server, Speicher- und Netzwerksysteme als auch SoftwareKomponeten für beispielsweise Datenbanken.
5. Umfängliche Sicherheitskomponenten für ein Rechenzentrum, zum Beispiel moderne Verfahren zur Sauerstoff-Reduktion der Raumluft und damit Brandvermeidung oder ganzheitliche Leitstands-Sicherheits-Systeme, ergänzen das GEDC.
6. Außerdem muss das GEDC in eine ganzheitliche Strategie
und Business Continuity eingebunden werden, um so Katastrophen und Notfälle (gemäß BSI 100/4) und Verfügbarkeiten mit
Hilfe von Redundanzen abzudecken. Hierbei spielt nicht nur
das Einzelne eine Rolle, sondern gesamte Rechenzentrums-Verbünde müssen sich auch unter GreenICT-Ansätzen bewähren.
7. Somit wird die Energieeinsparung im Rechenzentrum ganzheitlich in einem GreenICT-Ansatz umgesetzt.
Aus dieser Aufzählung wird aber auch deutlich, dass ein ­Future
Green Enterprise Data Center nicht nur energiesparende ­Seiten
73
Detecon Management Report • 1 / 2010
Technology
hat, sondern auch insgesamt die Zukunft und Trends der
­Rechenzentrumswelt abdeckt.
In der Praxis werden sich die Technologien und Lösungen,
zum Beispiel ganzheitliche Automatisierung, für solch ein
­Rechenzentrum erst im Laufe der nächsten vier bis fünf Jahre
­entwickeln und stabilisieren. Damit können sie auch in einem
konkreten Projekt erst schrittweise umgesetzt werden. Um hierbei einen kontinuierlichen Verbesserungsprozess einzuleiten,
empfiehlt sich die Definition von KPIs für die genannten sieben
Faktoren. Nur so lässt sich über diesen Zeitraum messen, wie
die Verbesserungen umgesetzt werden und sich auswirken.
Rechenzentren entwickeln sich also weiter. Neben der Optimierung der Energieeffizienz, Virtualisierungsmaßnahmen, Verfügbarkeit, ITIL-Prozesse oder Automatisierung spielen Sourcingund Provider-Optionen eine immer größere Rolle. Generelle
Strategien wie das Green Enterprise Data Center mit seinen
­dynamischen und adaptiven Strukturen werden das Aussehen
von Rechenzentren und Serverräumen in den nächsten zehn
Jahren bestimmen. Cloud Computing als neues Strukturierungs-, ­Geschäfts- und Marketing-Element wird ebenfalls eine
große Rolle spielen.
Für GreenICT- und Energieeffizienz-Ansätze werden auf nationaler (VDE/DKE), europäischer (CENELEC Code of Conduct) und internationaler Ebene (BICSI) Standards entwickelt,
die in den nächsten Jahren aktiv werden. Dies führt zur Vereinfachung von Prozessen und zum Angleichen von Technologien
– und erst das macht Einsparungen allgemein umsetzbar.
Was man von der Telekommunikationsbranche
abschauen kann
Eine ganz andere Welt zeigt die Telekommunikationsbranche:
Die klassischen Network Operation Center der Festnetzanbieter
oder die Mobile Switching Center der Mobilfunk-Anbieter sind
wegen ihrer starken Herstellerstandardisierung in sich höchst
effizient und energieoptimal ausgelegt. Vielleicht lässt sich von
den Lösungen der Telekommunikations-Branche eine Scheibe
abschneiden und Ideen und Konzepte übernehmen, um die
GreenICT GEDCs noch weiter zu optimieren.
Die Power & Air Solutions (PASM), eine 100% Tochter der
Deutsche Telekom AG, betreibt zirka 100.000 Anlagen zur
Verfügbarkeitssicherung der ICT-Technik – zirca 40.000 RLTAnlagen und 35.000 GEV-Anlagen. Aufgabe der PASM ist
Abbildung: Die sieben Haupterfolgsfaktoren und Basistechnologien
Virtualisierung
und dynamische
Infrastruktur
Ende-zu-Ende
Automatisierung
und Management
GreenICT im
Rechenzentrum/
Energieeffizienz
Business
Continuity/K-Fall
Vorsorge/Verfügbarkeit
Quelle: Detecon
74
Detecon Management Report • 1 / 2010
ITIL-basiertes
IT Service
Management
Umfängliche
Sicherheit im
Rechenzentrum
Kompakte IT
und InformationsInfrastruktur
Grüne Vorreiter
die Herstellung energiebasierter Produkte für die Telekom mit
Spannung, Verfügbarkeit und Klimatisierung, aber auch die gesamte Strombeschaffung für den Konzern. Dazu kauft PASM
circa 0,6 Prozent des deutschen Gesamtstromverbrauches am
Großhandelmarkt und auch direkt an der EEX (European Energy Exchange) in Leipzig ein. Zur Optimierung des Energiebedarfes in den technischen Standorten wurde ein Projekt zur
Identifizierung von Maßnahmen initiiert.
• automatische Ab- und Zuschaltung von RLT-Geräten
in der freien Kühlung,
Im Projekt ETS 300 wurden acht ausgewählte Technikstandorte
auf folgende Energieoptimierungsmaßnahmen überprüft:
Im Ergebnis wurde eine selbstoptimierende Regelstrategie entworfen, die bei bis zu 18 Grad Celsius Außentemperatur den
Volumenstrom bei konstanter Zulufttemperatur regelt. Im Bereich bis 21 Grad Celsius wird die Freie Kühlung in Verbindung
mit gleitender Zulufttemperatur und variablem Volumenstrom
genutzt. Des Weiteren werden die RLT-Geräte selbsregelnd zuund abgeschaltet.
• automatische und variable Volumenstromregelung in
der freien Kühlung nach Bedarf,
• Reduzierung der elektrischen Leistungsaufnahme durch
Parallelbetrieb von Ventilatoren der Kompaktanlagen,
China als Vorreiter im Green Enterprise Data Center?
In China werden derzeit alle Aktivitäten für neue IT- und TK-Komponenten unter Green ICT-Gesichtspunkten aufgesetzt. Dies wird durch
Vorgaben der Regierung gesteuert, Steigerungen der Produktivität und des
Bruttosozialproduktes immer mit Einsparungen der Energie(kosten) einhergehen zu lassen. Die Vorgaben lauten beispielsweise pro zusätzlichem
Prozent Steigerung im Bruttosozialprodukt drei Prozent Energie einzusparen. China verspricht sich hiervon eine geringere Abhängigkeit von Energieressourcen bei stark wachsender Gesamtproduktivität. Diese Vorgaben
werden natürlich auf die einzelnen Unternehmen heruntergebrochen und
umgesetzt – mit der Konsequenz, dass Energieeinsparungsmaßnahmen
eine hohe Priorität bei allen Unternehmensentscheidungen haben.
In einem Detecon-Projekt bei einem großen Telekommunikations-Provider in China wurden auf der Basis einer GEDC-Strategie und der in
diesem Artikel dargstellten Lösungen und Maßnahmen sowie der sieben
Erfolgsfaktoren insgesamt 47 KPIs definiert. Diese dienen dem Kunden
über die nächsten fünf bis sieben Jahre dazu, den Fortschritt der Entwicklung des GEDC-Ansatzes zu managen und zu steuern. Diese Entwicklung
ist in drei Stufen geplant:
1.Enterprise Rechenzentrumsbetreiber mit Fokus auf
Infrastruktur-Diensten für konzerninternen Kunden
2.Markt-Anbieter für Infrastruktur-Dienste
(IaaS – Infrastructure-as-a-Service)
3.Markt-Anbieter für Applikations-Dienste
(ASP – Application Service Provider) ausgewählter Anwendungen
Gleichzeitig sollen die sieben Haupterfolgsfaktoren – insbesondere
­GreenICT – umgesetzt werden.
• kein Kältebetrieb bei maximaler Luftmenge in freier
Kühlung,
• gleitender Volumenstrom im Kältebetrieb und
gleitende Zulufttemperatur im Kältebetrieb.
Die Energieeinsparung verdeutlicht ein Beispiel: Im optimierten
Betrieb bei einer Raumtemperatur von 33 Grad Celsius und
der Verwendung des optimierten Regelverfahrens konnte der
Jahresenergieverbrauch an einem Standort von 40,5 auf 26,8
MWh/a reduziert werden. Dies entspricht einer Reduktion um
64 Prozent. Bei einem anderen Standort reduzierte sich der Verbrauch von 37 auf 20,7 MWh/a. Das entspricht einer Verringerung um 44 Prozent.
Selbst bei Standorten, die bereits bei der Errichtung nach Gesichtspunkten der Energieeffizienz geplant wurden – hier mit
Verwendung von ausschließlich ETS 300/3.1 konformer Rechnerhardware sowie Auslegung mit freier Kühlung, ist eine Steigerung der Energieeffizienz um 40 bis 64 Prozent technisch
möglich. Zwischenzeitlich wird diese innovative Regelstrategie
bei über 5.000 RLT-Geräten realisiert.
Karsten Prey (M.S.) berät seit mehr als 18 Jahren Kunden im Bankenbereich
in allen Fragen zu IT-Infrastruktur, Applikationen und Prozess-Optimierung.
Seit kurzem leitet er das Team für „LargeIT und Data Center Management“ mit
Schwerpunkt in den Financial Services.
[email protected]
Marco Chiesa ist Senior Consultant im Bereich IT Organisation mit vieljähriger Projekterfahrung in Telekommunikationsunternehmen. Der Schwerpunkt
seiner Tätigkeit liegt in der Verankerung von langfristigen Zielen wie Energie­
effizienz und Nachhaltigkeit bei der Gestaltung von Globalen IT Organisa­
tionen bei Restrukturierungen.
[email protected]
Besonderer Dank gilt Johann Kiendl
von der PASM für die freundliche ­Unterstützung.
75
Detecon Management Report • 1 / 2010
Detecon publiziert !
Detecon publiziert !
Customer Experience Management in der Telekommunikationsbranche
Marktstudie und Handlungsempfehlungen zur optimalen Gestaltung
von Kundenerlebnissen
Die vorliegende Detecon-Studie, die in Zusammenarbeit mit dem Marktforschungsunternehmen
forum! erstellt wurde, zeigt, dass sich Customer Experience Management (CEM) im Kunden­
management vieler Telekommunikationsunternehmen bereits wieder findet und großes Potenzial
hat, aktuelle CRM-Konzepte sinnvoll zu ergänzen. Auf Grundlage der Studienergebnisse geben
die Autoren Handlungsempfehlungen zur optimalen Gestaltung von Kundenerlebnissen.
Honeycomb Management Excellence
Sustainable performance excellence in procurement
Im vorliegenden Opinion Paper beschreiben die Detecon-Autoren detailliert das Detecon
­Honeycomb-Modell. Mit diesem Modell bietet Detecon dem CPO einen Überblick über alle
relevanten Handlungsbereiche. Die Autoren zeigen anhand von Beispielen aus der täglichen
­Beratungspraxis die Herausforderungen für den CPO auf und stellen die häufigsten Probleme bei
der Maßnahmenumsetzung vor.
Business meets Architecture – Mind the Gap
ICT Sales in Times of Recession
Der Nutzen vom Business Process Management (BPM) für Geschäftsprozesse in Unternehmen ist
ebenso unbestritten wie die Vorteile, die Service Oriented Architecture (SOA) für das Setup der
IT bietet – doch wie bekommt man beides unter einen Hut? Noch klafft in der Unternehmens­
praxis eine große Lücke zwischen den Methoden. Hier kann die „logical Business Architecture“
der Detecon eine Brücke zwischen Prozessen und IT bauen.
IKS – Interne Kontrollsysteme nach der 8. EU-Richtlinie
Status Quo und Optimierungsansätze
Interne Kontrollsysteme ermöglichen Firmen, interne und externe Risiken frühzeitig zu identifizieren und zu erfassen. Erst auf dieser Grundlage können schnell effektive Gegenmassnahmen
eingeleitet werden, die weitreichende Schäden für das Unternehmen verhindern. In der Praxis
erfüllen jedoch die wenigsten IKS ihre Funktionen vollständig zufriedenstellend, wie diese Studie
der Detecon (Schweiz) AG in Zusammenarbeit mit der Handelshochschule Leipzig (HHL) und
der Wirtschaftsuniversität Wien zeigt.
Über weitere wichtige Themen aus dem ICT-Umfeld können Sie sich in unseren
­aktuellen Veröffentlichungen informieren. Alle Detecon-Publi­kationen finden Sie
­unter www.detecon.com und www.detecon-dmr.com
76
Detecon Management Report • 1/ 2010
www.detecon-dmr.com
DMR
Das Magazin für Management und Technologie
Effiz
ie
nz
ESSAY:
Detecon Management Report - 1 / 2010
Detecon Management Report - 1 / 2010
Architecture meets ICT
Clever andocken
Was Carrier vom Silicon Valley über Innovation lernen können
Am Puls der Veränderung
Change Management ist kritischer Erfolgsfaktor in Effizienzprojekten
Stark bedeckt oder wolkenlos?
Cloud Computing in der IT-Strategie der Deutschen Post
Detecon
Management
Report
1 / 2010