PDF-Download
Transcription
PDF-Download
www.detecon-dmr.com DMR Das Magazin für Management und Technologie Effiz ie nz ESSAY: Detecon Management Report - 1 / 2010 Detecon Management Report - 1 / 2010 Architecture meets ICT Clever andocken Was Carrier vom Silicon Valley über Innovation lernen können Am Puls der Veränderung Change Management ist kritischer Erfolgsfaktor in Effizienzprojekten Stark bedeckt oder wolkenlos? Cloud Computing in der IT-Strategie der Deutschen Post Detecon Management Report 1 / 2010 Editorial Effizienz Liebe Leserinnen und Leser, innovativ, kraftvoll, visionär, aber in der Substanz fest verankert! Die Meisterwerke der Architektur bilden eine vollendete Synthese aus Form und Funktion. Die Erbauer hatten im Spannungsfeld aus Idee, Ästhetik und Wirtschaftlichkeit den richtigen Weg verfolgt. Gerade weil der Architekt ein komplexes Zusammenspiel aus abstrakten Vorstellungen, konkreten Prozessen und multiplen Anforderungen steuern muss, hat Detecon diese Bildsprache ab sofort für den eigenen Unternehmensauftritt gewählt. Denn in der Baukunst existieren viele Analogien zur ICT, wo anspruchsvolle Projekte ebenfalls einen ganzheitlichen Blick verlangen. Hohe Aufmerksamkeit gebührt dabei auch der Effizienz, dem Leitthema der aktuellen Ausgabe – unbestreitbar ein Kriterium, das jeder Projektleiter, ob beim Bau einer Konzerthalle oder dem Entwurf einer Applikationslandschaft, erfüllen muss. Beispiele hierfür sind intelligent gestaltete Infrastrukturen, optimaler Ressourceneinsatz und Energieverbrauch, aber auch ein reibungsloses Kommunikationsmanagement. Notwendige Richtlinien und Kennzahlen hierfür muss sich jede wirtschaftliche Organisation stets vor Augen halten. Alleine das Vertrauen auf Effizienz darf jedoch kein Diktum sein, das jede Entscheidung vorwegnimmt. Frank Gehry, der weltberühmte Architekt, warnt sogar davor, sich hinter dem vermeintlich Rationalen zu verstecken und eine Objektivität zu suchen, die es gar nicht gibt. Wirksamkeit, Leistungsfähigkeit und Wirtschaftlichkeit – alles somit unabdingbare Voraussetzungen für das Gelingen. Grundsätzliche Strategien und Ziele ersetzen sie jedoch nicht. Daher haben die Autoren auf den folgenden Seiten mit ihren Plädoyers für effiziente Vorgehensweisen stets auch das Übergeordnete im Fokus. Wir wünschen Ihnen eine informative und spannende Lektüre! Dr. Klaus Hofmann CEO, Detecon International 1 Detecon Management Report • 1 / 2010 Effizienz Inhalt Essay Architecture meets ICT – Eine Analogie nicht nur in Bildern Seite 4 Strategy Clever andocken 8 Was Carrier vom Silicon Valley über Innovation lernen können Gutes Klima 14 Die Umwälzungen im Energiebereich bedeuten mehr als nur die Entwicklung eines großvolumigen M2M-Absatzmarktes Was gut ist, geht noch besser 20 Providerwechsel optimiert IT Outsourcing-Leistungen Impressum: Herausgeber: Detecon International GmbH Frankfurter Straße 27 65760 Eschborn Germany www.detecon.com [email protected] 2 Detecon Management Report • 1 / 2010 Aufsichtsrat: Klaus Werner (Vorsitz) Chefredaktion: Ingrid Blessing (V.i.S.d.P.) Design: Ernst Formes Geschäftsführung: Dr. Klaus Hofmann (Vorsitz) Andreas Baumann Local Court Bonn HRB 2093 Registered Office: Bonn Redaktion: Christine Wolters e-Mail: [email protected] Druck: Kristandt GmbH&Co.KG Frankfurt/Main Erscheinungsweise: vierteljährlich ISSN 1867-3147 Inhalt Organization Gut geteilt ist doppelt gewonnen 28 Richtlinien für effizientes Infrastruktur-Sharing Am Puls der Veränderung 34 Change Management ist kritischer Erfolgsfaktor in Effizienzprojekten Den Goldgehalt prüfen 40 Verbesserung der Effektivität von Operationen zur Umsatzsicherung Vom Traum zur Wirklichkeit 50 Effiziente und kundenorientierte Einkaufsfunktionen in globalen Unternehmen Hochsaison 56 Krisenzeiten sind gute Zeiten für IT-Effizienzprojekte Interview mit Dr. Stefan Schloter, CIO der T-Systems International GmbH Technology Interview mit André Feld, Deutsche Post DHL Stark bedeckt oder wolkenlos? 64 Cloud Computing in der IT-Strategie der Deutschen Post Grüne Vorreiter 68 Energieoptimierung im Rechenzentrum mit GreenICT Detecon publiziert ! 76 3 Detecon Management Report • 1 / 2010 Essay Architecture meets ICT – Eine Analogie nicht nur in Bildern E rfolgreiche Architektur setzt Visionen in die Realität um. Sie unterliegt strategischen Vorgaben, um die gesetzten Ziele zu erreichen. Gleichzeitig soll sie ganz einfach ihre Funktion erfüllen und darf knappe Budgets nicht sprengen. Insofern unterliegen Baukunst und Informationstechnologie meist ähnlichen Erwartungen. Darüber hinaus fordern jeweils ein komplexes Zusammenspiel vieler Beteiligter, der ständige Wechsel zwischen Abstraktion und konkreten Technologien sowie die Anforderungen an ein hoch detailliertes Design Prozesse und Kommunikation heraus. Und nicht zuletzt trägt der Architekt vom Entwurf über die Realisierung bis zur Abnahme eines Bauwerks eine sehr hohe Verantwortung. Detecon hat sich für die Architektur als Bildsprache entschieden, weil sich über dieses Sujet hervorragend Analogien zu dem, was wir tun und wie wir es tun, herstellen lassen. So spüren wir gegenüber unserem Kunden ebenfalls hohe Verantwortung, begleiten ihn über alle Projektphasen hinweg und verbinden innovative Technologien mit realistischen Einsatzszenarien. Zudem ist ein Architekt – wie wir – Spezialist. Denn als ICT-Management-Beratung sind wir Spezialisten in einem Markt, in dem oftmals jeder alles tut. Der erfahrene Spezialist macht daher den Unterschied und steht für etwas Besonderes, weil er etwas besser kann als andere. Einen essentiellen Gewinn bietet dabei die Sicht des Architekten, nämlich den Blick aufs Wesentliche: Die IT muss stets ein hohes Maß an Komplexität in den Griff kriegen, wobei die Technologiestrukturen, deren Investitionen manchmal zwei- bis dreistellige Millionenbeträge verschlingen können, oft nur schwer beherrschbar sind. Ein Grund hierfür liegt unbestreitbar in der immer schneller steigenden Flut neuer Markt- und Kundenanforderungen. Bedenkenswert ist aber auch die These, dass Konzeption und Realisierung von IT oft eher nach Denkmustern ingenieurwissenschaftlicher Planung - im Bauwesen entspräche dies der Tätigkeit des Bauingenieurs - erfolgt, als tatsächlich nach Grundprinzipien einer Architektur. Denn die Komplexität heutiger Anforderungswelten lässt sich immer weniger nur auf technisch-funktionale Weise bewältigen, auch wenn die Menge an ICT-Geräten im Alltag der Menschen dies so erscheinen lässt. Frei nach Walter Gropius, Mitbegründer des Bauhausstils und Wegbereiter moderner Architektur, ließe sich daher sagen: „Architektur beginnt da, wo das Ingenieurwesen aufhört.“ Enterprise Architecture Management, ein in der IT immer wichtigerer Lösungsansatz, schlägt daher vor, durch die Einführung architektonischer Planungsprinzipien, einer begrenzten Zahl kombinierbarer, technischer Grundbausteine sowie besonders qualifizierter „ICT-Architekten“ das Dilemma 4 Detecon Management Report • 1 / 2010 Architecture meets ICT aus Anforderungen und Budgets aufzulösen. Etliche Unternehmen haben so bereits beachtenswerte Erfolge im Hinblick auf eine zukunftssichere, flexible IT-Architektur erzielt. Doch machen Aufwand, Dauer und organisatorische Konsequenzen gerade bei umfangreichen ITProjekten den Beteiligten immer stark zu schaffen – wohl auch deshalb, weil die Planer im Streben, es allen recht zu machen, zu sehr auf ein Primat funktionaler Anforderungen vertrauen. Frank Lloyd Wright, Architekturikone der Vereinigten Staaten, verwies darauf, dass alle Maßstäbe der Architektur menschliche Werte sein müssen, da sie ansonsten nicht nachhaltig seien. Sowohl die Geschichte der Architektur als auch der Informationstechnologie war aber immer von Versuchen gekennzeichnet, objektiv messbare Kriterien zu entwickeln, um unangreifbare Prioritäten für funktionale Anforderungen zu schaffen und so „wichtig“ von „unwichtig“ zu trennen. Gerade die veränderlichen, unsicheren und teils unverständlichen Erwartungen der Kunden oder Bauherren wollten die Projektleiter auf diese Weise durch berechenbare Logik ersetzen. Alleine die Menge pseudo-objektiver Entscheidungsmodelle und die stetige Diskussion darüber zeigen, dass eine objektive Priorisierung von Funktionen in letzter Instanz eigentlich gescheitert ist. Große Erfolge wurden immer dann erzielt, wenn der Technologieeinsatz – oder auch eine ICT-Architektur – sich direkt an den wichtigsten, aber leider nur unscharf formulierbaren Trends von Märkten, Kunden und Konsumenten ausrichtete. Innovative Technologien sollten demnach nicht nur Kundenanforderungen funktional umsetzen, sondern können als Inspirationsquelle und Treiber den Kunden vollkommen neue Erfahrungswelten eröffnen. Brunelleschis Dom in Florenz hätte ohne die neue Kuppelbautechnologie nicht entstehen können, ohne die modernen Statik-Simulations-Programme wären Frank Gehrys Bauten nicht denkbar. Und auch die Designer von Apple haben betont, dass ihre wichtigsten Inspirationen unter anderem aus der frühen „Braun“-Designwelt stammten und sie eigentlich nicht Computer, sondern Kultobjekte schaffen wollen – was mit dem iPhone ja bestens gelungen ist. Neben diesen inhaltlichen Parallelen bietet die Architektur letztendlich aber auch durch ihre Symbolik der ICT und gerade Detecon vielfältige Möglichkeiten, entscheidende Werte wie Haltung, Leistung und Stil nachhaltig zu veranschaulichen. Die enormen technischen Innovationen und die visionäre Kraft, die etwa den Werken von Santiago Calatrava und Paul Andreu inne wohnen, schlagen eine wunderbare Brücke zu den Charakteren der Detecon: Outstanding – Committed – Forward Thinking. 5 Detecon Management Report • 1 / 2010 Architecture meets ICT: Detecon mit neuem Markenauftritt Detecon International präsentiert sich in neuem Gewand: Bilderwelten aus visionärer Architektur prägen ab sofort den Internetauftritt und transportieren Werte des weiterentwickelten Markenleitbildes. Beim Markenkern legt Detecon den Fokus künftig noch stärker auf Beratungslösungen, die sich aus dem Einsatz von Informations- und Telekommunikationstechnologie ergeben. Anzeige We make ICT strategies work In einem Markt, in dem jeder alles macht, hebt sich der Experte von der Masse ab. g ultin s Con N D CO E T E Strategy Yasmin Narielvala, Martin Beiten Clever andocken Was Carrier vom Silicon Valley über Innovation lernen können Bill Joy, Mitbegründer von Sun Microsystems, hat es so formuliert: „Egal wer du bist, die meisten Top-Leute arbeiten für jemand anderen“. In einer Branche, die so dynamisch ist und sich so rasant entwickelt wie die Telco-Branche, wird „innovativ“ mit „intelligent sein“ übersetzt: Innovatoren haben intelligente Ideen und die Mittel, diese erfolgreich auf den Markt zu bringen. 8 Detecon Management Report • 1 / 2010 Clever andocken it Blick auf die heutige Technologiebranche sieht es so M aus, als machten sich speziell die Unternehmen im Silicon alley Joys Botschaft zu eigen: Sie halten über die Grenzen ihrer V eigenen Unternehmen hinweg nach neuen Ideen Ausschau. In Kalifornien existiert ein pulsierender „Markt“ für externe Innovationen. Dieser besteht aus einer Fülle an Start-ups und Jungunternehmen, die hervorragende Ideen produzieren und niedrige Eintrittsbarrieren nutzen, um diese Ideen auf den Markt zu bringen. Die Kraft externer Innovation nutzen Es gibt eine Reihe von etablierten großen Playern, die zur Ausweitung ihres Portfolios nach Kooperationspartnern suchen. Oracle und Cisco Systems sind zwei exzellente Beispiele extrem aktiver Unternehmen in diesem Markt. Beide haben bei der Suche nach neuen Ideen blitzschnell reagiert und in den vergangenen fünf Jahren zusammen mehr als 80 Unternehmen übernommen. Allein Cisco unterhält ein aktives Netzwerk aus rund 100 Allianzen mit anderen Firmen. Salesforce.com, führend im Bereich Software-as-a-Service, bietet gegenwärtig mehr als 800 extern entwickelte Anwendungen von 600 Unternehmen auf ihrer ‚force.com‘ Anwendungsplattform an. Dies hat dazu geführt, dass diese Unternehmen durch frühzeitigen Zugang zu neuen, einsatzbereiten Technologien einen effizienten Weg zur Durchsetzung von Innovationen gefunden haben. Auch wenn diese führenden Software und Supply Player den Markt für externes Know-how erfolgreich für sich nutzen konnten, war es bislang nicht jedem Unternehmen in der Technologiebranche möglich von dieser Methode zu profitieren. Telco-Carrier beispielsweise ringen immer noch mit der Frage, wie sie diese neue Ideenquelle erschließen können. Aus einer von Detecon kürzlich durchgeführten Studie über Start-ups und Venture-Unternehmen im Silicon Valley ergibt sich im Hinblick auf Carrier, die auf der Suche nach Kooperationen mit oder Akquisitionen von Start-ups sind, bestenfalls ein gemischtes Bild. Befragte Unternehmer bezeichneten das Management der Carrier als „extrem risikoscheu“ und verwiesen auf deren „langsame Entscheidungsprozesse“. Aus Sicht der Start-ups sind Vertragsabschlüsse von langwierigen und schwerfälligen Prozessen begleitet. Außerdem gaben die meisten Start-ups an, dass die Carrier, mit denen sie geschäftlich verkehrten, über kein formales, gesteuertes Partnermanagement verfügten. Das Ergebnis war, dass einige Venture Capital-Gesellschaften Start-ups generell davon abrieten, mit Carriern zu kooperieren. Aussagen wie diese sollten ein Warnsignal für Carrier sein, die auf der Suche nach neuen Ideen und Geschäftsmodellen sind, aber in einer post-krisengeprägten Umgebung durch komplexe interne Entwicklungsprozesse und Budgetbeschränkungen herausgefordert werden. Doch trotz der offensichtlichen Hindernisse bietet der externe Markt denjenigen unbestreitbare Vorteile, die bestrebt sind, sich nicht nur als „Bitpipes“ zu positionieren. Partnerschaften und Allianzen mit Start-ups können für Carrier, die Innovationen anstreben, ein einfacher, schneller und effizienter Weg sein. Durch Vertragsabschlüsse mit Jungunternehmen haben sie Zugriff auf erfolgversprechende Ideen. Umgekehrt können sie ihre Vertriebs- und Absatzfähigkeiten anbieten und somit Start-ups zur Erlangung der erforderlichen Größe verhelfen. Eine Win-Win-Situation für beide: Das Eingehen einer Allianz erfordert nur geringe Ressourcen, bei Misserfolg kann diese schnell und kostengünstig aufgelöst werden. Enormes Potenzial bietet sie aber auf jeden Fall. Basierend auf Best Practice-Beispielen aus dem Silicon Valley zeigen wir anhand einer Methode auf, wie Carrier auf dem „Markt für externe Innovation“ in zwei Schritten erfolgreich agieren können. Der erste Schritt besteht darin, ein pragmatisches Kooperationsmodell zu finden und eine für Start-ups attraktive Wertaussage zu formulieren. Der zweite Schritt beinhaltet den Aufbau interner Fähigkeiten, um Partnerschaften in Einklang mit einem Lifecycle-Ansatz zu managen. 1. Schritt: Agieren Sie als Plattform! Der erste Schritt für Carrier auf dem Weg zum Erfolg ist ein pragmatisches Kooperationsmodell. Einerseits kann das Ein gehen von Partnerschaften ein problemloser, flexibler und schneller Weg sein, um auf Ideen zuzugreifen. Andererseits beruhen Partnerschaften auf freiwilligen Übereinkommen, die im Gegensatz zur Akquisition nicht einseitig durchgesetzt werden können. Zur Sicherstellung eines erfolgreichen Gelingens besteht daher auf beiden Seiten das Bedürfnis nach Gewähr leistung eines gewissen Mehrwerts. Glücklicherweise verfügen Carrier über hochwertige Assets, die sie mit an den Verhandlungstisch bringen können. Viele Startup-Unternehmen – einschließlich jener, die Bestandteil unserer Studie waren – haben hervorragende Ideen und Visionen, verfügen jedoch nicht über die Fähigkeiten und Ressourcen, ihr Geschäft für den Massenmarkt auszuweiten. Geld ist gewöhnlich knapp und organisches Wachstum kann sich als extrem schwierig erweisen. Auch wenn einige – zum Beispiel Facebook 9 Detecon Management Report • 1 / 2010 Strategy oder YouTube – erfolgreich sind, muss bei den Anwendern immer noch starke Überzeugungsarbeit geleistet werden, wenn es um kostenpflichtige Dienste geht. Im Gegensatz dazu sind die Carrier mit ihrer ausgereiften Technologieintegration sowie Marketing- und Vertriebsmaschinerie im Massenmarkt zu Hause. Umfangreiche Produkteinführungen und die Belieferung des Massenmarktes mit Technologielösungen können sie problemlos meistern. Sie haben die entsprechende Erfahrung in der Gewinnung von Neukunden und der Pflege ihres bestehenden Kundenstamms. Häufig verfügen sie über etablierte Handelsbeziehungen durch Postpaid-Verträge, die für den Absatz weiterer Dienste genutzt werden können. Microsoft verkauft beispielsweise seine Anwendung „Windows Live for Mobile“ an Carrier, die diese dann direkt an ihre Kunden weiter veräußern. Der Preis für die Anwendung erscheint grundsätzlich nicht als Posten auf der Rechnung des Kunden, sondern ist in den monatlichen Vertragsgebühren enthalten. Außerdem betreiben Carrier ein großes und effizientes Vertriebsnetz, um über herkömmliche Ladengeschäfte und bekannte E-Channels Zugang zu ihren Kunden zu haben. Die Chance für Carrier besteht darin, ihre Expertise und Fähigkeiten in diesen Bereichen zu nutzen, um als „Plattformen“ zu agieren, an die Start-ups andocken und ihre Ideen großformatig kommerzialisieren können. Carrier und Start-ups könnten somit Allianzen zur gegenseitigen Nutzung ihrer Ressourcen bilden: Carrier würden Zugriff auf vielversprechende Ideen erlangen, im Gegenzug würden sie Start-ups den Zugriff auf ihren Kundenstamm und ihre Absatz- und Vertriebsfähigkeiten ermöglichen. Abbildung 1 verdeutlicht das Partnerschafts konzept. Auch wenn die praktische Umsetzung dieser Plattformpartnerschaft nicht ganz leicht ist, kann die Verbindung der Stärken von Start-ups und Carriern von erheblichem Vorteil sein. Apple‘s App Store ist ein anschauliches Beispiel für eine solche Plattformpartnerschaft, weil sie innovative Ideen von Jung unternehmern mit dem Kundenstamm und der Vertriebsexpertise von Apple über deren hervorragend integriertes System von Endgeräten und iTunes vereint. Beispiele wie Salesforce.com und Apple integrieren externe Innovationen, die auf einer einzigen Plattform oder einem Endgerät basieren. Die echte Chance für Carrier besteht jedoch darin, ein Konzept anzustreben, das über diese Einzelszenarien hinausgeht: Ein Carrier, der Festnetz-, Mobilkommunikationsund Entertainment-Services über viele verschiedene Netze und ein umfangreiches Endgeräteportfolio anbietet, verfügt über das Potenzial, seinen Kunden eine noch größere, stärker integrierte, innovativere und daher überzeugendere Bandbreite an Produkten und Services anzubieten. 10 Detecon Management Report • 1 / 2010 Dieses „Supermarktmodell“ ist eine sich neu entwickelnde Theorie für Telco 2.0. Könnte der Carrier der Zukunft wie ein Supermarkt agieren und die besten Produkte und Services, die auf der Konnektivität Dritter basieren, an einem für alle Kunden geeigneten Standort vereinen? Könnten Carrier mit Startups und Endanwendern dadurch Mehrwert erzeugen, dass sie sich als primäre Schnittstelle neu positionieren, um den Markt nach Ideen abzusuchen, ein unverwechselbares Service-Erlebnis anzubieten und für künftige Dienste eine hochqualitative Lieferung zu gewährleisten? Für Carrier ist das Partnering-Modell mit Start-ups und innovativen Unternehmen nicht nur eine schnelle und risikoarme Methode zur Markteinführung von neuen Produkten und Services, sondern unterstützt auch das verbesserte Markenimage und die Kundentreue und erzeugt neue Cross- und Up-SellingMöglichkeiten. Start-up-Partner können sofort auf eine größere Kundenbasis zugreifen und profitieren durch die Verbindung mit einem bewährten Supplier von einem deutlich geringeren Marketing- und Vertriebsaufwand sowie von der unmittelbar steigenden Markenpositionierung. Aufgrund des leichteren Zugriffs auf Produkte, der Kostenvorteile durch Skaleneffekte und des Komforts einer einzigen Rechnung gehören – wie im Fall der Supermärkte – auch die Endverbraucher zu den Gewinnern. Die Vorteile eines effizienten Innovationsansatzes, bei dem Start-ups und Carrier ihre Kräfte in Partnerschaften bündeln und Ideen zu Kommerzialisierungszwecken austauschen, sind erheblich. Doch die zentrale Herausforderung, die sich bei allen Partnerschaftsszenarien stellt, bleibt bestehen: Wie können beide Parteien das theoretische Versprechen einer Allianz, das heißt die Maximierung ihres Wertes, für sich nutzen? Was müssen Carrier unternehmen, damit dieses Plattformmodell der Zusammenarbeit funktioniert? 2. Schritt: Verfolgen Sie einen strukturierten Ansatz! Nachdem im ersten Schritt ein Vorschlag zur Plattform getroffen wurde, müssen Carrier in einem strukturierten Ansatz festlegen, mit wem sie eine Partnerschaft unter welchen Voraussetzungen eingehen wollen. Auch wenn Start-up-Partnerschaften in der Lage sind, die Innovationseffizienz voranzutreiben, ermöglichen sie nur bei professioneller Durchführung den gewünschten Nutzen. Unsere Studie ergab, dass Start-ups in der Vergangenheit ziemlich chaotische Beziehungen mit Carriern erlebt hatten, die sich weder durch Zielsetzungen noch durch Fokus auszeichneten. Die Anzahl der Personen, die an Verhandlungen beteiligt waren sowie die lange Zeitspanne, die für das Fällen von Entscheidungen nötig war, wurden häufig als befremdlich empfunden. Clever andocken Am häufigsten verwiesen Start-ups auf eine vorherrschende Kultur, die Ideen ablehnt, da sie „hier nicht ihren Ursprung hatten“ (not-invented-here-Syndrom). Darüber hinaus beklagten sie einen Mangel an Aufgeschlossenheit sowie die Nichtbereitschaft, mit den Partnern in enger Zusammenarbeit gemeinsame Zielsetzungen zu verfolgen. Diese Art von Problemen führen häufig zu Situationen, in denen beide Parteien ihre anfänglichen Zielsetzungen nicht erreichen und das Scheitern der Partnerschaft vorprogrammiert ist. Zur Reduzierung dieser Risiken ist es erforderlich, dass Carrier eine Reihe organisatorischer und prozessbezogener Anforderungen für den gesamten „Lebenszyklus der Partnerschaft“ definieren und umsetzen. Dieser Lebenszyklusansatz für Partnerschaften führt die Carrier durch den Prozess, Start-up-Partner in einer Abfolge von sechs Schritten zu suchen, auszuwählen und effizient und effektiv zu managen. Abbildung 2 auf Seite 12 veranschaulicht den Lebenszyklus. 1. Scannen: Verschaffen Sie sich einen Überblick über den Markt (Long List). Zentraler Erfolgsfaktor: Entdecken Sie anhand einer gut strukturierten Methode neue Ideen und potenzielle Partner. Best Practice: Scanning stellt sicher, dass alle potenziellen neuen Produkte, Service-Chancen und Partnerschaften identifiziert werden. Strukturierung ist dafür die Grundvoraussetzung. Scan-Methoden müssen professionell, gut organisiert und weitreichend sein. 2. Filtern: Identifizieren Sie die High-Potentials aus der Kandidatenliste (Short List). Zentraler Erfolgsfaktor: Formulieren Sie relevante, messbare Kriterien. Best Practice: Um zwischen High-Potential-Möglichkeiten und „Hype“ unterscheiden zu können, müssen die Carrier ihre Long List unter Berücksichtigung wichtiger Kriterien filtern. Die exakten Kriterien hängen von der jeweiligen Strategie ab, sollten aber Dimensionen wie Marktpotenzial, strategische Passgenauigkeit in Bezug auf den Carrier und seine Produktangebote, problemlose kommerzielle und technische Integration sowie Anlaufzeit umfassen. 3. Auswählen: Wählen Sie die passenden Kandidaten aus der Short List. Zentraler Erfolgsfaktor: Partnerschaften sind ein „People Business“. Schauen Sie bei der Wahl des passenden Partners nicht nur auf das wirtschaftliche Potenzial. Best Practice: Die Wahl beinhaltet eine gründliche Bewertung anhand eines formalen Entscheidungsprozesses. Unternehmen, die es auf die Short List schaffen, müssen noch detaillierter bewertet werden, um ein wohlüberlegtes Urteil über ihr Partnerschaftspotenzial zu fällen. Eine wirtschaftliche und technische Due Diligence ist ein valides Instrument, um ein deutliches Bild über die Stärken und Schwächen zu erlangen. Die daraus resultierenden Ergebnisse können dokumentiert und mit den aufgestellten Kriterien verglichen werden, um so den Entscheidungsprozess einzuleiten. Carrier sollten jedoch nicht ausschließlich Abbildung 1: Das Partnerschaftskonzept Start-up Ecosystem 1 Carrier Docking-Plattform & Supermarkt Produkt-/ Service-Idee Produktion Marketing Absatz & Vertrieb 2 Produktion Marketing Absatz & Vertrieb Produktion Marketing Absatz & Vertrieb Produktion Marketing Absatz & Vertrieb Produkt-/ Service-Idee n Produkt-/ Service-Idee Start-ups mit Ideen docken an die Carrier-Plattform an. Carrier-Kunden Informations-, Kommunikations- & UnterhaltungsProdukte & -Services Carrier entwickeln & sammeln die Ideen auf ihrer Plattform. Wie im Supermarkt bündeln und vertreiben sie diese auf dem Massenmarkt. Carrier-Kunden werden in einem One-Stop-Shop bedient. Quelle: Detecon 11 Detecon Management Report • 1 / 2010 Strategy auf die reinen Fakten abstellen. Allianzen werden durch die Beteiligten vorangetrieben und zumeist gilt das auch für ihren Erfolg. Bei der Due Diligence sollte dabei besonders auf die kulturelle Passgenauigkeit beider Parteien geachtet werden. 4. Verpflichten: Errichtung einer produktiven Partnerschaft mit einem ausgewählten Start-up-Unternehmen. Zentrale Erfolgsfaktoren: Identifizieren Sie die Allianz-Sponsoren und stellen Sie sicher, dass Prozesse eine schnelle Aufnahme der Partnerschaft ermöglichen. Best Practice: Nachdem die Entscheidung über das gemeinsame Vorankommen getroffen wurde, müssen sich beide Parteien schnell einigen, damit sie die Zielrichtung nicht aus den Augen verlieren. Wie aus unserer Studie hervorgeht, liegt einer der Hauptgründe für die Frustration der Start-ups darin, dass es Carriern nach Abschluss des Partnerschaftsvertrags an Prozessen für ein effektives Errichten und Managen von Allianzen mangelt. In einem ersten Schritt sollten beide Seiten einen AllianzSponsoren ernennen, der für Entwicklung und Wachstum der Partnerschaft verantwortlich ist. Diese Sponsoren entscheiden über die nächsten Schritte, die die Allianz zum Erfolg führen. Als Richtlinie gilt, dass die folgenden Bereiche angesprochen und abgestimmt werden: Partnerschaftsziele und -meilensteine, Bewertungskriterien (KPIs), Governance-Modell und Entscheidungsgremien, Reporting und Monitoring, Eskalationsprozeduren, Sitzungs- und Besprechungspläne, Rollen und Verantwortlichkeiten, Budgets sowie den Auslöser für den Ausstieg. Abhängig von der Art der einzelnen Beziehungen und den sonstigen Faktoren, zum Beispiel Größe oder geografische Nähe, variieren die Geschäftsführungsstile der Partnerschaften. Ist zum Beispiel ein hohes Ausmaß an gegenseitigem Vertrauen vorhanden, kann man eventuell auf ein starres wöchentliches Status-Reporting einschließlich umfangreicher Dokumentation verzichten. Um die Effizienz während der Anlaufzeit voranzutreiben, sollten Carrier zur Abdeckung der vorgenannten Aspekte einheitliche Prozesse und Dokumente festlegen. Insbesondere der Prozess des Andockens eines Start-up-Unternehmens an die Plattform des Carriers sollte soweit wie möglich vereinheitlicht werden. Carrier sollten zum Beispiel ein einheitliches Vertragsdokument einschließlich wirtschaftlicher Details über das Aufspalten gemeinsamer Kosten und Umsätze entwerfen. Darüber hinaus können sie die zu erfüllenden IT-Anforderungen sowie einheitliche Schnittstellen festlegen, um einen reibungslosen Andockprozess technisch zu ermöglichen. Abbildung 2: Lebenszyklus für Partnerschaften Grad der Partner integration 5 6 4 3 1 Scannen 2 Filtern Quelle: Detecon 12 Detecon Management Report • 1 / 2010 Auswählen Verpflichten Managen Trennen/Übernehmen Zeit Clever andocken 5. Managen: Früchte der Zusammenarbeit ernten. Zentrale Erfolgsfaktoren: Aufrechterhaltung des Vertrauens in die Partnerschaft, Konflikte frühzeitig lösen, Anzeichen für einen Ausstieg erkennen. Best Practice: Sobald die Anlaufphase erfolgreich abgeschlossen ist und die Partnerschaft auf vollen Touren läuft, ist es Zeit, sich auf den Kunden zu konzentrieren und die Früchte der Partnerschaft zu ernten. In dieser Phase hat das Start-up-Unternehmen bereits an die Plattform des Carriers angedockt; das neue Produkt oder der neue Service ist in das Carrier-Portfolio integriert. Beide Partner sollten den Fokus jetzt auf ihre Kernkompetenzen richten: das Start-up-Unternehmen auf die Beibehaltung und Verbesserung seines Produkts oder Services und der Carrier darauf, das Produkt oder den Service seinen Kunden anzubieten und für den Massenmarkt auszuweiten. An diesem Punkt wird die Beziehung von gemeinsam formulierten Partnerschaftszielen und KPIs getragen. Noch einmal wiederholt: KPIs können bei jeder Partnerschaft variieren. Sie sollten jedoch Metriken zur Messung des Wertes der Partnerschaft enthalten. Potenzielle KPIs sind gemeinsamer Umsatz, Gewinnung neuer Kunden und Erhalt bestehender Kunden, strategischer Wert der Partnerschaft oder künftiges gemeinsames Go-to-Market-Potenzial. Außerdem ist es für beide Partner wichtig, korrektive Maßnahmen zu ergreifen oder die Partnerschaft zu beenden, falls die Leistung mangelhaft ist, eine Änderung der Marktsituation eintritt oder die KPIs sowie anfängliche Ziele nicht erreicht werden können. 6. Trennen/Übernehmen: Die Partnerschaft optimal beenden. Zentraler Erfolgsfaktor: Auslöser für den Ausstieg beachten und unproduktive Partnerschaften schnell beenden. Best Practice: Keine Partnerschaft dauert ewig – sie muss es auch nicht. Falls sich die in Schritt 4 festgelegten Auslöser für den Ausstieg ergeben, sollten sich die Parteien ohne zu zögern trennen. Das Festhalten an unproduktiven Beziehungen ruiniert den Effizienzvorteil des Partnerschaftsmodells. Das Zurechtstutzen und Sortieren des Produktportfolios der Partnerschaften ist daher absolut notwendig und erfordert regelmäßige Aufmerksamkeit. Partnerschaften werden jedoch nicht immer aufgrund von Unproduktivität beendet. Im Falle einer erfolgreichen Beziehung können die Parteien gegebenenfalls beschließen, die Betriebe zu verschmelzen, um so ein größeres wirtschaftliches Potenzial nutzen zu können. Die Berücksichtigung dieser Best-Practice-Ansätze entlang des Lebenszyklus kann – von Unternehmen wie Cisco nachgewiesen – auf jeden Fall die Wahrscheinlichkeit erhöhen, dass Part- nerschaften sich erfolgreich entwickeln. Carrier müssen daher sorgfältig abwägen, wie sie diese Ansätze in die Organisation und Abläufe ihres Tageschäfts einbeziehen können. Partnermodelle schaffen ein Fundament für effiziente Innovationen Open Innovation mit offener Plattform, externen Entwicklern und Partnermodellen hat die Fähigkeit der Unternehmen, neue Ideen effizient auf den Markt zu bringen, enorm verbessert. Dies ist nirgendwo offensichtlicher als im Silicon Valley, wo wegbereitende Unternehmen wie Apple, Cisco oder Salesforce.com bewiesen haben, dass das Anzapfen externer TalentPools Unternehmen einen enormen Wettbewerbsvorteil bringen kann. Wie Peter Coffee, Director für Plattformforschung bei Salesforce.com, in einem Interview mit Detecon kürzlich ausführte, „ist es schwierig, ein Geschäftsmodell darüber aufrechtzuerhalten, für immer der Schlauste der Welt zu sein. Aber man kann grundsätzlich versuchen, der Partner erster Wahl für jemanden zu sein, der gegenwärtig der Schlauste der Welt ist.“* Der Markt drängt Carrier, ihre Innovationseffizienz zu steigern und mehr Produkte und Services in immer kürzeren Zeitabständen auf den Markt zu bringen. Daher sind sie gezwungen sich zu überlegen, ob sie von einem Ad-hoc-Partnering-Ansatz zu einem eher strukturierten Ansatz wechseln wollen. Die Definition als Plattform mit standardisierten Methoden, die das Andocken von Partnern ermöglicht, sowie die Entwicklung eines strukturierten Rahmens, der über den gesamten PartnerLebenszyklus implementiert wird, befähigt Carrier, in Zukunft ein solides Fundament für effiziente Innovation zu errichten. * http://www.detecon-dmr.com/en/article/future-of-cloud-i_2009_12_15 Yasmin Narielvala ist als Managing Consultant bei Detecon, Inc. in San Francisco tätig und verantwortlich für die Bewertung führender strategischer Technologien für Telcos und Kunden der digitalen Unterhaltungsindustrie, Scouting sowie die Bewertung neuer Technologien, Services und Produkte. Darüber hinaus unterstützt sie die Entwicklung von Technologie-, Geschäfts- und Produktstrategien. Mit mehr als 12 Jahren Erfahrung in der Telekommunikationsbranche verfügt sie über ein fundiertes Wissen bezüglich internationale Branchen und Technologien. [email protected] Martin Beiten ist als Consultant tätig. Während seiner zweijährigen Betriebszugehörigkeit hat er an Projekten in Deutschland, den USA und Afrika mitgewirkt. Schwerpunkte seiner Tätigkeit sind die strategische Entwicklung von Vertrieb und Distribution sowie Innovationsthemen. [email protected] 13 Detecon Management Report • 1 / 2010 Strategy Martin Pieperhoff-Sauter Gutes Klima Die Umwälzungen im Energiebereich bedeuten mehr als nur die Entwicklung eines großvolumigen M2M-Absatzmarktes Vielfältige energieeffizienzfördernde Produkte und Dienstleistungen adressieren bereits jetzt einen Markt von beachtlicher Größe. Obwohl dieser Sektor oberflächlich betrachtet außerhalb des Fokus von Telekommunikationsunternehmen liegt, bietet er doch attraktive Chancen für neue Mehrwertdienste. 14 Detecon Management Report • 1 / 2010 Gutes Klima urch die weltweite Diskussion zum Klimaschutz sowie D eine zunehmende gesellschaftliche Sensibilität gegenüber Um- weltfragen motiviert ist die Verbesserung der Energieeffizienz derzeit eine der zentralen Forderungen an die Entwickler und Anwender technischer Systeme. Längst hat sich die produzierende Industrie dem Thema gestellt und offeriert erfolgreich energiesparende Geräte. Selbst in der eher auf Wachstum und Leistungssteigerung setzenden ICT-Welt ist das Thema inzwischen angekommen und sogenannte Green-IT-Geräte sind verfügbar. Von Telekommunikationsdienstleistern wird dieser Markt aber kaum adressiert. Die Unternehmen verstehen Energieeffizienz bisher lediglich als Mittel, Kosten im Betrieb von Kommunikationstechnik zu senken. Sehrwohl ergeben sich hier aber weitere Chancen, die Kernkompetenzen der Telekommunikationsunternehmen zu nutzen, um lukrative Mehrwertdienste anzubieten, die den allgemeinen Trend zu einer Erhöhung der Energieeffizienz ansprechen. Telekommunikationsmehrwertdienste in der Energieversorgung Vielversprechende Ansatzpunkte für Mehrwertdienste bietet derzeit der Energieversorgungssektor. Die technischen Strukturen für die Energieerzeugung und Verteilung befinden sich seit einiger Zeit im Umbruch. In der Vergangenheit war die Energieversorgung beherrscht von wenigen Großkraftwerken und streng hierarchisch aufgebauten Energieverteilnetzen. Eine Netzsteuerung und insbesondere die Sicherung einer gleichbleibenden Stromqualität waren überschaubare Aufgaben. Die Förderung regenerativer Energiequellen verlangt heute aber nach anderen Strukturen. Bei Energieerzeugern, die regenerative Quellen nutzen, handelt es sich oftmals um vergleichsweise 15 Detecon Management Report • 1 / 2010 Strategy k leine dezentrale Anlagen wie Wasser- und Windkraftanlagen oder Photovoltaikanlagen. Dies stellt einen großen Unterschied zu den großen traditionellen Kraftwerken dar, die sich auf wenige Standorte verteilen. Erschwert allein schon die Vielzahl und Dezentralität dieser Anlagen eine Netzsteuerung, so wird die Komplexität der Steuerung zusätzlich durch die kaum zu prognostizierende Stromliefermenge dieser Anlagen erhöht. Der Grund besteht in der Abhängigkeit dieser Anlagen von den aktuellen Windverhältnissen oder der Sonneneinstrahlung. Um auch unter diesen erschwerten Randbedingungen die Stromund Netzqualität sicherstellen zu können, sind neue Netz konzepte wie das „Smart-Grid“-Konzept erforderlich. Smart Grid ist ein Netz-Architekturansatz, der die Steuerung, Überwachung, Energieerzeugung und Lastverteilung, aber auch Leistungsverrechnung in komplexen Energienetzen erlaubt. Ein Kernaspekt des Ansatzes besteht in der Kombination von Energieversorgungsnetzen und Datennetzen. Dabei fällt den Datennetzen neben der Übertragung von Steuerungsbefehlen vor allem die Aufgabe der Erfassung und des Transports von Information über die aktuell an unterschiedlichen Punkten im Netz erzeugte und verbrauchte Energie zu. Die Datenübertragung stellt – allgemein bekannt – die Kernkompetenz der Telekommunikationsanbieter dar, so dass diese eine optimale Ausgangsposition haben, der Energiewirtschaft hier unterstützende Dienste anzubieten. Telekommunika tionsanbieter sind in der Regel bereits an den meisten „lokalen“ Energieverbrauchsstellen wie Firmen und Privathaushalten mit Festnetz-Datenleitungen wie DSL oder zumindest mit einer Mobilfunkabdeckung vertreten, so dass die für Smart Grid notwendige, sehr detaillierte Verbrauchserfassung verteilter Elemente bedient werden kann. Zusätzlich zu berücksichtigen ist, dass durch die Verbrauchserfassung auf Haushaltsebene Millionen von Einzelelementen per Datennetz zu verknüpfen sind. Insbesondere diese Massentauglichkeit der Datenübertragungsansätze erfordert Kompetenzen, die die Energieversorger erst noch aufbauen müssen. Die derzeit von den Telekommunikationsanbietern entwickelten „Machine to Machine“(M2M)-Anschlüsse sind dabei ein erster vielversprechender Ansatz hinsichtlich entsprechender Dienste für den Energieversorgungssektor. Bei M2M handelt es sich allerdings um reine Datenübertragungsdienste. 16 Detecon Management Report • 1 / 2010 Smart Grid bietet zusätzlich die Chance, lukrativere Mehrwertdienste für den Energieversorgungssektor zu entwickeln und damit insbesondere das M2M-Geschäft in diesem Bereich abzusichern und auszuweiten. Mit Smart Metering, einem Teil aspekt des Smart Grids, wird im Folgenden ein solcher Mehrwertdienste-Ansatz vorgestellt. Mehrwertdienste-Ansatz Smart Metering Bei Smart Metering handelt es sich um eine intelligente Form der Energieverbrauchserfassung – sei es für Strom, Gas oder Heizungswärme. Der Energieverbrauch wird dabei von modernen elektronischen Zählern erfasst und dann über Daten leitungen den jeweiligen Energieversorgern zur Verfügung gestellt. Mittels entsprechender Kundenportale oder über abgesetzte Anzeigen im Haus kann sich zudem der Verbraucher über seinen aktuellen Energieverbrauch informieren. Smart Metering ist eine der Grundvoraussetzungen für die Verwirklichung des Smart Grid-Konzeptes. Nur die zeitnah an der jeweiligen Verbrauchsstelle erfassten aktuellen Verbrauchsdaten, kombiniert mit einer effizienten Datenbereitstellung, erlaubt es den Energienetzbetreibern überhaupt, intelligente Netzsteuerungen und effiziente Lastverteilungen durchführen zu können. Da außerdem zunehmend mehr Privathaushalte selbst zu Energieerzeugern werden und Strom aus Photovoltaikanlagen oder Blockheizkraftwerken in das Stromnetz einspeisen, sind zudem flexible Abrechnungssysteme, basierend auf einer zeitnahen Verbrauchs- und Einspeiseerfassung, notwendig. Smart Metering ist im Gesamtkanon der Aktionsprogramme der europäischen Regierungen zum Klimaschutz eine wesentliche Maßnahme zur Hebung von Energieeinsparpotenzialen. Smart Metering, geeignet angewendet, liefert gegenüber den bisher üblichen Energieabrechnungsverfahren im Jahresrhythmus dem Verbraucher eine wesentlich höhere Transparenz seines momentanen Energieverbrauchs und der damit verbundenen Kosten. Zielsetzung der oben genannten Smart Metering-Maßnahmen ist es daher, das Energiebewusstsein der Verbraucher zu schärfen und ihr Verbrauchsverhalten in Richtung eines sparsameren und effizienteren Umgangs mit Energie zu beeinflussen. Dementsprechend haben die Europäische Union mit der Richtlinie 2006/32/EG über Endenergieeffizienz und Energiedienstleistungen sowie nachfolgend der deutsche Ge- Gutes Klima setzgeber mit dem Energiewirtschaftsgesetz Maßnahmen beschlossen, die von den Energieversorgern ab 2010 umzusetzen sind. Hierzu gehört die Verpflichtung, ab dem 1. Januar 2010 in Neubauten nur noch elektronische Energiezähler einzusetzen, die den tatsächlichen Energieverbrauch und die tatsächliche Nutzungszeit widerspiegeln. Zudem müssen die Energieversorger auch allen Bestandskunden die Möglichkeit eröffnen, ihren Verbrauch mit elektronischen Zählern entsprechend transparent und genau zu erfassen. Des Weiteren verpflichtet das Gesetz die Energieversorger, ab Ende 2010 Tarife anzubieten, die Anreize zur Einsparung oder Steuerung des Verbrauchs setzen. Explizit im Gesetz genannt sind dabei lastvariable und tageszeitabhängige Tarife, die somit eine wesentlich genauere Erfassung des Verbrauchs als heute üblich erfordern. Insgesamt werden durch diese gesetzlichen Rahmenbedingungen die Energieversorger vor Herausforderungen gestellt, die ohne moderne ICT-Infrastruktur kaum zu meistern sind. Gerade die im Zusammenhang mit dem Smart Metering geforderten Kompetenzen wie zeitnahe Erfassung und Verarbeitung von Verbrauchsdaten in Massenszenarien und Betrieb von Netzen mit Millionen von Endgeräten sind Kernkompetenzen der Telekommunikationsdienstleister. Diese Kernkompetenzen, gepaart mit der vorhandenen Vor-Ort-Präsenz in den entsprechenden Haushalten und moderner ICT-Infrastruktur, sind dabei eine hervorragende Grundlage, um über einfache Datenverbindungen hinaus, beispielsweise als M2M-Ansatz, erfolgreiche Mehrwertdienste im Zusammenhang mit Smart Metering zu entwickeln. Der mit Smart Metering adressierbare Markt hat europaweit* einen beachtlichen Umfang von rund 185 Millionen Haus halten. Die beigefügte Grafik zeigt die Verteilung des Markt potenzials auf die einzelnen EU-Staaten. Da basierend auf der * Europa ohne skandinavische Länder, Schweiz, Liechtenstein, Mazedonien, Polen, Türkei 185,2 Abbildung 1: Smart Metering-Marktpotenzial in West-/Mitteleuropa in Mio. Anzahl Privathaushalten je Staat 39,6 27,2 26,5 24,3 1,7 1,6 1,6 1,4 0,9 0,8 0,5 0,3 0,2 0,1 Kroatien Irland Litauen Lettland Slowenien Estland Zypern Luxemburg Malta 2,9 Bulgarien 3,6 Österreich 3,8 Ungarn 3,9 Portugal 4,2 Griechenland 4,3 Tschechische Republik 4,5 Belgien 7,2 Niederlande Rumänien Spanien Italien Großbritannien Frankreich Deutschland West-/Mitteleuropa 7,4 Slowakei 16,7 Quelle: Eurostat – Stand 2008/Detecon 17 Detecon Management Report • 1 / 2010 Strategy 18 Detecon Management Report • 1 / 2010 Gutes Klima oben erwähnten EU-Richtlinie Smart Metering in der EU generell einzuführen ist und der Energieverbrauch meist haushalts bezogen erfasst wird, ist hier die Anzahl der Haushalte in Europa als Kenngröße des Marktpotenzials anzusehen. Deutsche Telekom positioniert sich mit B2B-Serviceansatz Die Deutsche Telekom AG hat die Chancen dieses sich entwickelnden Marktes wahrgenommen und über den einfachen M2M-Datenservice hinaus Mehrwertdienstleistungen für den Energieversorgungssektor entwickelt, die derzeit sehr erfolgreich im Markt etabliert werden. Auf Grund der Rahmenbedingungen des deutschen Energieversorgungsmarktes positioniert sich die Deutsche Telekom dabei mit einem Business-to-Business (B2B)-Serviceansatz und bietet ihre Dienstleistungen den sogenannten Messstellenbetreibern an. Messstellenbetreiber sind eigenständige Unternehmen mit der Aufgabe, die Verbrauchszähler zu betreiben. Der Messstellenbetrieb war in der Vergangenheit Aufgabe der lokalen Energieverteilnetzbetreiber. Mit der aktuellen Fassung des Energiewirtschaftsgesetzes sind diese Aufgaben nunmehr eigenständigen Unternehmen zu übertragen. Dienste wird so deutlich vereinfacht. Die Aufnahme des Aus leseservices auf Basis dieser Plattform ist im Herbst 2009 erfolgt. Die oben genannten Zusatzdienstleistungen werden Zug um Zug entwickelt und eingeführt. Auf Grund des gewählten SOA-Ansatzes der Plattform kann die Deutsche Telekom dabei flexibel auf die Bedürfnisse des Marktes reagieren. Geplante Zusatzdienstleistungen sind hierbei unter anderem Daten-Hosting und Portalservices, Rating- und Billing-Dienste sowie die Integrationsleistungen in zum Beispiel SAP-IS-U. Um außerdem die Energieversorger in der jetzt anstehenden Umstellungsphase von den bisherigen analogen Zählern hin zu modernen Smart Metering-fähigen Zählern zu unterstützen, bietet die Deutsche Telekom zudem Zählerinstallation und Austausch durch die Telekom-eigenen Servicekräfte an. Die Mitarbeiter der Telekom sind hierfür bereits entsprechend geschult und erste Installationsprojekte werden für namhafte Kunden durchgeführt. Geplant ist die Erweiterung von Smart Metering um den Bereich Home Management, um dann den Zielmarkt nochmals deutlich zu erweitern. Das Dienste-Portfolio der Deutschen Telekom umfasst die drei Bereiche Ausleseservice, Installationsservice und Zusatzdienste. Der Ausleseservice ist als gemanagter Dienst ausgelegt und umfasst die Auslesung der Zählerdaten einschließlich der Bereitstellung in vereinbarten Formaten. Der Service verfolgt einen Ende-zu-Ende-Ansatz und erstreckt sich vom Zählerausgang bis zum Eingang der Datenverarbeitungssysteme der jeweiligen Messstellenbetreiber. Zum Dienst gehören die Bereitstellung und Installation der Endgeräte zur Erfassung der Zählerdaten, die Übertragung der Daten sowie auch die Anpassung der von den Zählern gelieferten Daten an die Energie-Daten-Management (EDM)-Systeme der jeweiligen Messstellenbetreiber oder Energieversorger. Der IT-Anpassungsaufwand der Messstellenbetreiber für die Einführung von Smart Metering wird hierdurch minimal. Zudem übernimmt die Deutsche Telekom mit ihrer Smart Metering-Diensteplattform sämtliche Aufgaben eines Datennetzbetreibers wie Zugriffsschutz, Gewährleistung von Ausfallsicherheit, Sicherung der Datenintegrität, Last- und Verkehrssteuerung, Netzüberwachung und Entstörung, so dass die Energieversorger auf eigene Smart Metering-Netze und Betriebsführungssysteme verzichten können. Martin Pieperhoff-Sauter beschäftigt sich im Bereich Telekommunikationstechnologie mit Fragen zur strategischen Ausrichtung, Konzeption und Implementierung von Mehrwert-Diensteplattformen. Seine Expertise umfasst Festnetz- und Mobilfunk-Diensteplattformen sowie Plattformen für digitale Medien. Unter anderem arbeitet er als Experte für Programm-Management und Plattform-Architektur bezogene Themen im Smart-Metering & Home Management-Projekt der Deutschen Telekom. Die aufgebaute Smart Metering-Diensteplattform basiert entsprechend dem Stand der Technik auf einer serviceorientierten Architektur (SOA). Die Erweiterung der Plattform um weitere 19 Detecon Management Report • 1 / 2010 Strategy Tamara Schönbucher, Sarah Lee, Nico Beyer Was gut ist, geht noch besser! Providerwechsel optimiert IT Outsourcing-Leistungen Was soll ein Unternehmen tun, wenn der erste Outsourcing-Vertrag ausläuft? Die höchste Effizienzsteigerung lässt sich durch eine neue Ausschreibung des Auftrages realisieren. Viele Unternehmen schrecken jedoch vor den möglichen Risiken eines Providerwechsels zurück. Dabei lassen sich diese mit der richtigen Methode beherrschen. 20 Detecon Management Report • 1 / 2010 Was gut ist, geht noch besser! eit den 90er Jahren ist das Outsourcing von IT-Dienst S leistungen in vielen Unternehmen ein häufig verwendetes Instrument zur Steigerung der IT-Effizienz. Inzwischen gibt es kaum ein Unternehmen, welches nicht selbst bereits erste Outsourcing-Erfahrungen gesammelt oder zumindest die Möglichkeit eines Outsourcing geprüft hat. Daher wird der ITOutsourcing-Markt in den nächsten Jahren zunehmend durch Neuausschreibungen der 1st Generation Outsourcing-Verträge charakterisiert sein. Wenn ein bestehendes Outsourcing-Verhältnis verlängert oder neu ausgeschrieben wird, spricht man von 2nd Generation Outsourcing. Aus Sicht des Unternehmens stellen sich im Übergang vom 1st zum 2nd Generation Outsourcing vor allem drei Frage stellungen: • • • Wie sollte das neue Outsourcing-Verhältnis gestaltet werden? Wer wird die IT-Leistungen künftig erbringen? Wie kann der Übergang vom alten zum neuen Outsourcing-Verhältnis optimal gestaltet werden? 2nd Generation Outsourcing Lifecycle bietet grundlegende Vorgehensweise In der Gestaltung eines professionell durchgeführten 2nd Generation Outsourcing werden die Erfahrungen aus dem ersten Outsourcing-Verhältnis berücksichtigt. Die Strukturen des bestehenden Verhältnisses spielen dabei nur bedingt eine Rolle. Es bietet sich vielmehr die Chance, IT-Strukturen und IT-Leistungen auf die geänderten Bedürfnisse und Geschäfts anforderungen des Unternehmens neu auszurichten. Während das Ziel bei der ersten Fremdvergabe vor allem in der Minimierung der Kosten für ein gegebenes Leistungsspektrum lag, konzentrieren sich die Folgeverträge darauf, zusätzlich Wert zu schaffen und die strategischen Ziele des Unternehmens zu unterstützen, indem zum Beispiel völlig neue Prozesse ermöglicht oder Effizienzverbesserungen bei der Erbringung der ITLeistungen erreicht werden. Im 2nd Generation Outsourcing Lifecycle wird eine gesamtheitliche Betrachtung der IT vorgenommen und an den strategischen Unternehmenszielen ausgerichtet (siehe Abbildung). Das zen- Abbildung: 2nd Generation Outsourcing-Lifecycle DD Betrieb und Transformation Sourcing Lifecycle Transition und Parallelbetrieb Quelle: Detecon 21 Detecon Management Report • 1 / 2010 Strategy trale Instrument hierbei ist die individuell auf das Unternehmen und dessen Situation ausgerichtete Sourcing-Strategie. An der Geschäftsstrategie ausgerichtete IT Sourcing-Strategie ist Erfolgsfaktor für 2nd Generation Outsourcing Die IT Sourcing-Strategie leitet sich aus der Geschäftsstrategie ab. Das Unternehmen bindet sich auch im 2nd Generation Outsourcing in der Regel für einen Zeitraum mit Laufzeiten zwischen drei und fünf Jahren. Daher müssen nicht nur die gegenwärtigen, sondern auch die zukünftigen IT-Anforderungen des Geschäfts vom Sourcing-Modell und der IT-Infrastruktur optimal unterstützt werden. Beispiele sind eine geplante Internationalisierungsstrategie oder ein geplantes starkes Wachstum eines bestimmten Geschäftsbereichs. Bei der Entwicklung der IT Sourcing-Strategie sollte ein ganzheitlicher Ansatz gewählt werden, also eine vollständige Betrachtung der IT-Landschaft erfolgen, da eine Beschränkung ausschließlich auf die Bewertung bereits fremd vergebener Services große Potenziale verschenkt. Gerade ein 2nd Generation Outsourcing bietet die Chance, wesentliche Transformationen durchzuführen. Das Unternehmen verfügt auf Grund seiner bereits gesammelten Erfahrungen über ein viel besseres Verständnis darüber, welche Dienstleistungen fremd vergeben werden können und es kann seine Fähigkeit, Provider zu steuern, besser einschätzen. Mittels einer umfassenden strategischen Betrachtung – zusammen mit der Geschäftsstrategie – können neue Formen des Outsourcing in Betracht gezogen werden. Ein Beispiel ist das Business Process Outsourcing (BPO), bei dem ganze, nicht-kritische Geschäftsprozesse ausgelagert werden, beispielsweise die Gehaltsabrechnung. Für jeden einzelnen IT-Service wird eine separate Make-or-BuyEntscheidung getroffen. Diese hängt zum einen vom Potenzial einer Auslagerung oder Wiedervergabe ab, zum anderen von der Machbarkeit des Outsourcing oder dem Potenzial der Wiedereingliederung (Backsourcing oder Insourcing). Ergibt die Analyse, dass der Vorteil der erhöhten Flexibilität und Kontrolle über den Service den Aufwand des Backsourcing überwiegt, sollte der betreffende, bereits fremd vergebene Service besser intern erbracht werden. Dies hängt jedoch auch vom Reifegrad der eigenen internen Organisation ab. 22 Detecon Management Report • 1 / 2010 Durch ein Backsourcing können auch wertvolle Geschäfts prozesskompetenzen zurückgeholt werden. Diese werden häufig in geschäftsorientierten IT Competence Centern, zum Beispiel SCM, CRM, PLM, FI/CO, gebündelt. Die gezielte Umsetzung der Geschäftsanforderungen in der IT optimiert die Kernprozesse der Fachbereiche. Wärend eines 2nd Generation Outsourcing kann so durch die Umstrukturierung der Fertigungstiefe ein verhängnisvoller Kompetenzabfluss gestoppt werden. Ausgehend von der Analyse wird das Sourcing-Modell festgelegt, das heißt die Art und Weise, wie die Services vergeben werden sollen. Eine Möglichkeit ist, verschiedene Bündel von Services, sogenannte Lose, an unterschiedliche Provider zu vergeben. Dieses Multi-Sourcing hat den Vorteil, dass Best-of-Breed-Strategien umgesetzt werden können, bei der die besten Provider für bestimmte Services ausgewählt werden. Meistens empfiehlt sich eine Ausschreibung, um die größten Effekte sowohl in Bezug auf den Preis als auch auf die Servicequalität zu erzielen und gleichzeitig die Chance zu ergreifen, Veränderungen in der ITLandschaft durchzusetzen. Das Unternehmen hat hierbei eine wesentlich bessere Kontrolle über das Ergebnis und eine deutlich gestärkte Verhandlungsposition gegenüber dem Provider. Dies gilt besonders im Vergleich mit einem Benchmarking im Rahmen einer Vertragsverlängerung (siehe Kasten). Durch erneute Ausschreibung lassen sich attraktivere Preise und verbesserte Servicequalität erzielen Der erste Schritt der Ausschreibung ist die Erstellung eines Request for Proposal (RfP). Die Services, zum Beispiel für Service Desk oder Applikationsmanagement, werden mittels Leistungsscheinen beschrieben. Das Unternehmen hat dabei den Vorteil, dass es die Service Level und Art der Serviceerbringung, zum Beispiel unter Nutzung innovativer Technologien, selbst bestimmen kann. Die an der Ausschreibung teilnehmenden Provider müssen sich im Wettbewerb bemühen, diese Anforderungen zu erfüllen. Ohne Ausschreibung wären diese Verbesserungen die Inhalte zäher Verhandlungen mit dem bestehenden Provider. Bei der Erstellung der Leistungsscheine kann das Unternehmen nun auch auf seine Erfahrungen aus dem Outsourcing-Vertrag zurückgreifen. Missverständnisse und Unstimmigkeiten hieraus werden dabei reflektiert und in den neuen Leistungsbeschreibungen behoben. Was gut ist, geht noch besser! Beim 2nd Generation Outsourcing ist es wichtig, dass der RfPProzess auch für potenzielle Neu-Provider ergebnisoffen und gerecht erscheint, da ansonsten nicht der gewünschte Wettbewerb zwischen den Bewerbern eintritt. Daher sollte der bestehende Provider verpflichtet sein, gleichberechtigt an Ausschreibungen Ausschreibung vs. Benchmarking Als Alternative zu einer Ausschreibung wird immer häufiger die Durch führung eines Benchmark gesehen, um die Preise und Service Level des Altvertrags anzupassen, bevor dieser verlängert wird. Dieses Vorgehen bietet gewisse Vorteile, gegenüber einer Ausschreibung jedoch auch einige Nachteile. Bei einem Benchmark wird die Leistung des Providers von einer dritten Firma gemessen und mit marktüblichen Standards und Preisen verglichen. Nach einem vorher festgelegten Verfahren passt der Provider seine Leistungen und Preise nach den Ergebnissen des Benchmarks an. Ein Unternehmen kann so von Preissenkungen und Qualitätsverbesserungen profitieren, ohne den Aufwand einer Ausschreibung tragen zu müssen. Die Nachteile des Benchmarking stellen sich wie folgt dar: Durch die starke Fokussierung auf Preise und die für einen Benchmark notwendige Standardisierung der Services kann man nur in geringem Maße von Innovationen profitieren, die in einer Ausschreibung leicht gefordert und von den Providern gerne angeboten werden. Einem Benchmark inhärent ist auch ein Bias zur Vergangenheit. Entsprechend spezialisierte Firmen stützen sich auf umfangreiche Datenbanken mit meist aktuellen Preisen. Die neuesten Innovationen im Markt, die möglicherweise signifikante Preissenkungen ermöglichen, können jedoch nur nach und nach einkalkuliert werden, da diese erst mit Verzögerung in die Datenbanken aufgenommen werden. Zudem stützen sich Benchmarks auf den Vergleich von Einzelpreisen der verschiedenen Leistungen. Hierbei werden zwar durch die Wahl geeigneter Vergleichsgruppen Skaleneffekte berücksichtigt, der Effekt von Bündelpreisen und Sonderrabatten auf gesamte Auftragsvolumen aber oft nur unzureichend. Diese machen leicht zweistellige Prozentanteile des Auftrages aus. Ein Benchmark empfiehlt sich bei abgegrenzten, weitestgehend standardisierten Leistungen und bietet so eine kostengünstige Alternative, Preise und Service Level auf ein marktübliches Niveau zu heben. Auch deswegen werden beim Outsourcing häufig Benchmark-Klauseln vereinbart, die das Risiko für das Unternehmen reduzieren, während der Laufzeit wesentliche Preistrends im Markt zu verpassen. Bei größeren Leistungsumfängen und komplexen Services mit besonderen Anforderungen können mit einer Ausschreibung größere Preissenkungen erzielt und die Services besser an die Geschäftsanforderungen angepasst werden. Das Unternehmen hat bei der Ausschreibung einen größeren Einfluss auf die Ausgestaltung der Services und den Einsatz innovativer Technologien. mit den anderen externen Bewerbern teilzunehmen. Dabei kann er gegebenenfalls gewisse Sonderrechte erhalten, zum Beispiel das Recht auf einen Last-Bid und damit die Möglichkeit, das letzte Angebot noch einmal zu unterbieten. Eine solche Sonderbehandlung ist jedoch nach Möglichkeit zu vermeiden, da sie dem bestehenden Provider den Anreiz nimmt, selbst neue innovative Lösungen mit attraktiver Preisgestaltung zu entwickeln. Die Herstellung einer fairen Ausgangssituation im RfP erfordert unter Umständen zusätzliche Maßnahmen wie beispielsweise umfassendere Informationsmaßnahmen für externe Bewerber und die Herbeiführung einer entsprechenden Kooperation des bestehenden Providers. Besonders sollte darauf geachtet werden, dass der RfP ausreichend genaue Informationen über die geforderten Service Level und Mengen enthält. Aus den Angeboten, die auf den RfP erfolgen, werden mindestens zwei Provider zur Due Diligence eingeladen. Die verbesserte Verhandlungsposition des Unternehmens durch eine kompetitive Due Diligence rechtfertigt in der Regel den erhöhten Aufwand für die Betreuung mehrerer Bewerber. Ziel der Due Diligence für den Provider ist es, die zu übernehmende IT-Organisation zu bewerten und Risiken aufzudecken. Zudem werden Daten für Lösungskonzepte gesammelt, gegenseitige Annahmen in gemeinsamen Arbeitssitzungen konkretisiert und wesentliche Eckpfeiler des Vertrages herausgearbeitet. Das Unternehmen stellt für die Due Diligence in einem Datenraum Informationen zur Verfügung. Viele dieser Informationen kann natürlich der bestehende Provider bereitstellen. Hier muss im Vorfeld die Kooperation mit dem Provider sichergestellt werden. Im Idealfall sind ein Reporting oder entsprechende Mitwirkungspflichten im bestehenden Outsourcing-Vertrag bereits festgeschrieben, die den bestehenden Provider dazu verpflichten, relevante Informationen zur Verfügung zu stellen. An die Due Diligence schließt sich die Vertragsverhandlung an. Die Neugestaltung eines Vertrages bietet auch die Möglichkeit, das Vertragsverhältnis zu flexibilisieren und die Steuerbarkeit zu verbessern. Eine Möglichkeit, den Vertrag flexibel zu halten, sind Preismodelle mit Korridoren, innerhalb derer die Preise konstant bleiben und außerhalb in bestimmter Weise ansteigen oder abfallen. Vorsicht ist bei Mindestabnahmen geboten, da zu hohe Werte die Flexibilität einschränken. Wurden während des 23 Detecon Management Report • 1 / 2010 Strategy ersten Outsourcing bereits Investitionen in moderne Anlagen getätigt, die übernommen werden, können sowohl die Mindestvertragslaufzeit als auch die Mindestabnahmemengen reduziert werden. Um die Steuerbarkeit der Kosten zu gewährleisten, sind Abrechnungseinheiten zu wählen, die unmittelbar vom Unternehmen beeinflusst werden können. So ist die Anzahl der Benutzer oder der Arbeitsplatzsysteme direkt zu beeinflussen, wohingegen zum Beispiel die Anzahl der Störungsmeldungen am Service Desk nur bedingt beeinflussbar ist und gerade bei Schlechtleistung des Providers stark ansteigt. Auch die Kündigungsrechte einzelner Leistungsscheine erhöhen die Flexibilität. Eine zu lange Vertragslaufzeit verringert ebenfalls die Flexibilität. Drei bis fünf Jahre können als Maßstab genommen werden. Der Befürchtung, der Provider würde bei kürzeren Laufzeiten nur wenig Anreiz zu Investitionen haben, kann mit entsprechenden Innovationsklauseln, die ein Budget für Investitionen vorschreiben, entgegengewirkt werden. Unabhängig davon, auf welchen Provider die Wahl am Ende fällt, kann das Unternehmen durch die Ausschreibung bereits wesentliche Serviceverbesserungen und Preissenkungen durchsetzen – und dies bei flexibleren Preismodellen und besserer Steuerbarkeit der Kosten. Keine Angst vor dem Providerwechsel Viele Unternehmen scheinen vor dem Schritt zum Providerwechsel zurückzuschrecken. Laut einer Studie von Gartner verlagern fünf Prozent der Unternehmen aus der ersten Generation ihre ausgelagerten Leistungen wieder zurück und betreiben diese intern. 85 Prozent bleiben beim erstmalig gewählten Dienstleister, wobei ein Teil der Dienstleistungen parallel auch an andere Anbieter vergeben wird. Lediglich zehn Prozent entscheiden sich für einen Anbieterwechsel. Ein Providerwechsel findet meist dann statt, wenn das Unternehmen mit seinem bisherigen Provider nicht zufrieden ist. Diese Unzufriedenheit resultiert dabei oft aus nicht kalkulierten Mehrkosten, un sicherer Projektlage, einer ungenügenden Flexibilität des Anbieters, nicht klaren Leistungsbeschreibungen oder einfach darin, dass die „Chemie“ zwischen den beiden Parteien nicht stimmt. Ein weiterer Grund für einen Anbieterwechsel liegt dann vor, wenn das Unternehmen der Meinung ist, dass bestimmte Bereiche von anderen Providern fachlich besser erbracht werden können. 24 Detecon Management Report • 1 / 2010 Die geringe Zahl von Providerwechseln liegt auch darin begründet, dass viele Unternehmen vor den Risiken der Übergangs phase, der sogenannten Transition, zurückschrecken. Dabei ist die Beendigung des Outsourcing-Verhältnisses mit anschließendem Providerwechsel ein genauso selbstverständlicher und wesentlicher Bestandteil des Outsourcing Lifecycle wie zum Beispiel die Vertragsabschluss- oder die Betriebsphase. Die meisten Schwierigkeiten beim Wechsel treten in der Transition zwischen dem bestehenden und neuen Provider auf. Das Unternehmen hat keine direkte Kontrolle über die Dienste und ist vielmehr von mindestens einem, wenn nicht von beiden Providern abhängig. Daher ist es wichtig, dass die Kooperation des bestehenden Providers in der Transitionsphase sichergestellt wird, die unter anderem für einen sauberen Know-how-Transfer und die Übergabe von Assets wie Hardware, Software, Daten und gegebenenfalls auch Personal benötigt wird. Aber auch eine ordentliche Planung und Organisation der Transition, des Parallelbetriebes (Shadow-Betrieb) und die Sicherstellung einer Fall-Back-Lösung zurück auf den bestehenden Provider, falls Schwierigkeiten bei der Migration auftreten, gehören zu den nicht geringen Herausforderungen, die gelöst werden müssen. Wie kann sich ein Unternehmen nun diesen Schwierigkeiten und Herausforderungen stellen? Mit einigen frühzeitigen Überlegungen können Risiken minimiert und kontrollierbar gemacht werden. Falls, wie in den meisten Fällen, die Kooperations- und Übergabeleistungen des bestehenden Providers nicht exakt im Vertrag definiert sind, empfiehlt es sich, den bestehenden Provider bereits im Vorfeld über die bevorstehende Ausschreibung zu informieren und mit ihm die notwendigen Kooperationsleistungen fest zu vereinbaren. Vor der Neu-Ausschreibung hat das Unternehmen noch die beste Möglichkeit, hier den bestehenden Provider zu Zugeständnissen zu bewegen, denn wenn sich dieser komplett unkooperativ zeigt, könnte er zum Beispiel von der Neuausschreibung ausgeschlossen werden. Nach der Neuausschreibung, wenn die Entscheidung für einen anderen Provider bereits gefallen ist, hat das Unternehmen dieses Druckmittel gegen den bestehenden Provider nicht mehr in der Hand. Es ist wichtig, dass das Unternehmen für den bestehenden Provider und den neuen Provider die jeweiligen Transitionsverbindlichkeiten in einer klaren Vereinbarung definiert. In dieser Was gut ist, geht noch besser! sollten Haftungsgrenzen und Schadensersatzbestimmungen im Falle von Vertragsverstößen klar beschrieben werden. Oft haben Vertragsverstöße die Auswirkung, dass das Unternehmen die Kosten einer missglückten Transition selber tragen muss. Dienstleistungen müssen vom Unternehmen selbst erbracht werden oder der bestehende Provider wird dafür bezahlt, dass er Leistungen so lange erbringt, bis die Probleme in der Transition behoben wurden. Hilfreich hierbei sind bereits eine vollständige Definition der Unterstützungsleistungen und eine Klausel für den Weiterbetrieb zu definierten Kosten für den Fall, dass die Übernahme durch den neuen Provider nicht funktioniert oder sich verzögert. Fall-Back-Lösungen oder ein Shadow-Betrieb schaffen gegen technische Ausfälle in der Transitionsphase Abhilfe. Prozesse und Methoden, die sich in der Zusammenarbeit mit dem bestehenden Provider als effektiv herausgestellt haben, sollten frühzeitig auch für den neuen Provider im Unternehmen eingeführt werden. Dies stellt schnell eine reibungslose Kommunikation zwischen den Parteien sicher. Es empfiehlt sich, Transitionsgebühren etappenweise zu bezahlen. Dabei hilft die Definition verschiedener Meilensteine, die der neue Provider erfüllen muss. Ein Teil des Transitionspreises wird an eine erfolgreiche Erfüllung der Meilensteine gekoppelt. Dieses Mittel ist nicht neu, stellt jedoch einen effektiven Anreiz dar, um eine Transition zügig umzusetzen. Erst wenn die komplette Transition erfolgreich abgeschlossen wurde, erhält der neue Provider die gesamte Bezahlung des vereinbarten Preises. Das Unternehmen sollte darauf achten, dass es Zugriff auf alle Informationen hat, die vom bestehenden Provider als Teil seiner Leistungserbringung entwickelt worden sind. Diese beinhalten in der Regel das Verbrauchsvolumen verschiedener Services, Netzwerkdiagramme, IT-Standards und entwickelte Softwareversionen mit zugehörigen Rechten und Lizenzen sowie andere nützliche Informationen. Dabei ist es wichtig, dass der Zugriff zu geringen oder gar keinen Kosten möglich ist, um dem neuen Provider alle aktuellen Daten zur Verfügung stellen zu können. Ein Providerwechsel bedeutet nicht, dass alle vom Unternehmen verwendeten Produkte und Tools verändert werden müssen, welche die Infrastruktur unterstützt und Dienste ausführt. Vielmehr sollte das Unternehmen die Möglichkeit haben, Soft- ware und anderes geistiges Eigentum weiter zu verwenden, die vom bestehenden Provider bereitgestellt wurden. Nur so ist der Betrieb während der Transition zu gewährleisten. Durch Providerwechsel effiziente Ergebnisse erzielen Bei der Entscheidung über die Weiterführung beziehungsweise Neuausschreibung des Outsourcing-Vertrages wird angesichts der möglichen Risiken des Providerwechsels oft verdrängt, dass ein Wechsel auch wesentliche Vorteile für das Unternehmen bringen kann. Der erste und meistens vorherrschende Vorteil sind die hieraus resultierenden Kosteneinsparungen. Selbst wenn aus dem existierenden Outsourcing-Verhältnis bereits signifikante Einsparungen realisiert werden konnten, die zum Zeitpunkt des Abschlusses des Erstvertrages durchaus auch das Optimum darstellten, sollte nicht unterschätzt werden, wie groß die zusätzlichen Potenziale durch technologischen Fortschritt und verbesserte Methoden sein können. Zudem ist die Verhandlungsposition des Unternehmens beim 2nd Generation Outsourcing wesentlich stärker als beim vorausgegangenen Outsourcing: Das Unternehmen ist durch die gesammelten Erfahrungen während des ersten Outsourcing-Vertrags wesentlich besser informiert. Zusätzlich stehen die neuen, aber auch der bestehende Provider stärker im Wettbewerb miteinander als beim Outsourcing der ersten Generation. Der bestehende Provider fürchtet, einen Personalüberhang in Kauf zu nehmen, wohingegen die neuen Provider aufgrund der nicht erforderlichen Personalübernahme in der Regel Niedrigpreisen anbieten können. Die Verhandlungsposition des Unternehmens ist dabei zumeist viel stärker als ursprünglich angenommen, denn der bestehende Provider bleibt auf seinen Personalressourcen sitzen, wenn die IT an einen neuen Provider verlagert wird. Sobald der bestehende Provider realisiert, dass das Unternehmen ernsthaft einen Providerwechsel anstrebt, zwingt ihn diese Situation, seine Leistungen gegebenenfalls zu Dumpingpreisen anbieten zu müssen. Die neuen potenziellen Provider können hingegen zu noch günstigeren Preisen anbieten, da sie keine oder nur wenige Mitarbeiter selektiv übernehmen müssen. Daher sind viele Kunden positiv überrascht, dass 25 Detecon Management Report • 1 / 2010 Strategy ein 2nd Generation Outsourcing oft höhere Einsparungen ermöglicht als das 1st Generation Outsourcing. Ein weiterer Vorteil kann in der Leistungsqualität und im Leistungsangebot des neuen Providers bestehen. Gerade bei sich schnell wandelnden Technologien werden oft die innovativsten Lösungen am Markt angeboten, so dass sich ein Providerwechsel lohnen kann. Eine Neuausschreibung des Outsourcing-Vertrages bietet eine gute Chance, die Leistungen und Lösungsansätze des bis herigen Providers mit den Angeboten seiner Wettbewerber zu vergleichen und fundamentale Charakteristika des Verhältnis zu verändern, zum Beispiel einen Wechsel zum Business Process Outsourcing durchzuführen oder zum Multi-Sourcing überzugehen. Auch im Abhängigkeitsmanagement kann ein Providerwechsel positive Nebeneffekte haben. Prinzipiell sollte sich jedes Unternehmen darauf vorbereiteten, seine Provider wechseln zu können, um auf einen möglichen Ausfall eines Providers, zum Beispiel durch dessen Konkurs oder – bei Offshoring – durch politische Ereignisse, vorbereitet zu sein. Falls nun ein Provider im Rahmen des 2nd Generation Outsourcing tatsächlich gewechselt wird, sind die im Rahmen dieses Providerwechsels gesammelten Erfahrungen in den meisten Fällen auf andere Provider übertragbar und somit die Abhängigkeit von anderen externen Providern reduzierbar. Das Unternehmen hat nun bereits mindestens einen größeren Providerwechsel durchgeführt. Zusätzlich kann die Existenz eines durchdachten und vertraglich sauber vereinbarten Ausstiegsplans eine positive Wirkung auf die Motivation und Servicequalität eines Providers haben. Dabei ist zu berücksichtigen, dass dem neuen Provider dennoch Kalkulationssicherheit und eine ausreichende Mindestvertragslaufzeit verbleiben, um ihm genügend Anreize für die notwendigen Investitionen in die Zukunft des Outsourcing-Verhältnisses zu bieten. 26 Detecon Management Report • 1 / 2010 Die Kunst im 2nd Generation Outsourcing liegt darin, die bedeutenden Chancen und Vorteile zu nutzen, die ein Providerwechsel bietet. Viele Risiken, die mit dem Übergang zu einem neuen Outsourcing-Vertrag verbunden sind, lassen sich beherrschen. Als wesentliche Punkte gilt es zu beachten: • • • • Entwicklung einer umfassenden Sourcing-Strategie, Berücksichtigung der Erfahrungen aus dem vorherigen Outsourcing-Verhältnis, Ausnutzen des Gestaltungs- und Verhandlungsspielraums der Ausschreibung, Frühzeitige Sicherung der Kooperation des bestehenden Providers. Ein gut vorbereitetes und strukturiert durchgeführtes 2nd Generation Outsourcing bildet die Grundlage für die kommenden Outsourcing-Generationen. Tamara Schönbucher ist als Senior Consultant im Bereich IT-Management tätig. Zu ihrem Schwerpunkt gehören Entwicklung und Umsetzung von IT-VendorStrategien, die Verhandlung und Umsetzung von IT-Outsourcing-Verträgen sowie die Optimierung der Kundenzufriedenheit in IT-Outsourcing-Projekten. [email protected] Nico Beyer arbeitet als Business Analyst im Bereich IT Service and Operations Management. Sein Schwerpunkt liegt auf der Entwicklung und Umsetzung von IT-Outsourcing-Strategien und der kontinuierlichen Verbesserung im IT Service Management. Nico.Beyer @detecon.com Sarah Lee hat an der Technischen Universität Berlin und der Pohang University of Science and Technology/Korea Wirtschaftsingenieurwesen studiert. Seit 2008 arbeitet sie im Bereich IT Service and Operations Management. Die Entwicklung und Erstellung von Ausschreibungen sowie Optimierung und Umsetzung bestehender IT-Management-Prozesse g ehören zu ihren Schwerpunkten. [email protected] Online! Das DMR-Portal Im DMR-Portal finden Sie neben den Artikeln der aktuellen Printausgabe zahlreiche Fachartikel sowie über komfortable Such- und Archivfunktionen alle Artikel aus früheren DMR-Ausgaben. Dieses Portal bauen wir als führendes Wissensportal für ICT-Themen aus und bieten gleichzeitig eine attraktive Publikationsplattform für A utoren. mfangreiche Funktionalität: U Komfortable Such- und Download möglichkeiten helfen Ihnen, sofort alle Artikel zu dem von Ihnen gewünschten Thema zu finden. Top aktuell: Neben der Printausgabe finden Sie auf der Startseite laufend neue Topartikel zu wichtigen Themen. Vernetztes Wissen: RSS Feeds halten Sie auf Wunsch über neue Veröffentlichungen auf dem L aufenden. www.detecon-dmr.com Organization Rachad Abdallah, Hung Fai Ma, Dirk Münning Gut geteilt ist doppelt gewonnen Richtlinien für effizientes Infrastruktur-Sharing Durch gemeinsame Nutzung der Zugangsnetze können Telco-Betreiber Servicekosten senken und Wettbewerbsvorteile ausbauen. Die Möglichkeiten, einen potenziell geeigneten Partner zu finden, sind allerdings nicht breit gestreut. Optionen, Modelle, Risiken und Interessen der Stakeholder gründlich auszuloten hilft Telco-Betreibern, ihren Betrieb in einem optimal geeigneten Sharing-Modell effzienter zu gestalten. 28 Detecon Management Report • 1 / 2010 Gut geteilt ist doppelt gewonnen ugangsnetze und die damit verbundene Infrastruktur sind Z zentrale Bestandteile des Service-Angebots von Mobil- und Fest- Das WARUM: Wahl der richtigen Aufgabenstellung netzbetreibern mit hoher Asset-Spezifität und Komplexität und unterliegen daher typischerweise einer vertikalen Integration1. Auch wenn international zahlreiche Anstrengungen und sogar Regulierungseingriffe unternommen wurden, um das TelcoGeschäft für Anbieter ohne eigene Zugangsnetze – zum Beispiel MVNOs, nationales Roaming, entbündelte Festnetzzugänge – vollständig zu öffnen, gibt es nur wenige langfristig erfolgreiche Beispiele von großen Anbietern ohne eigenes Zugangsnetz. Letztendlich greifen wesentliche Player zumeist auf ihre eigenen Zugangsinfrastrukturen zurück oder investieren in den Aufbau einer solchen, sobald sie sich zu bedeutenden Marktgrößen entwickelt haben. Um den potenziellen Nutzen eines gemeinsamen Zugangsnetzes bewerten zu können, ist es erforderlich, die zentralen Ziele, die später für die Bewertung der Sharing-Leistung verwendet werden, klar zu definieren. Im Wesentlichen kann es dabei um folgende Ziele gehen: Kosteneinsparungen, schnelleres Timeto-Market – Start-up neuer Betreiber oder Rollout neuer Technologien –, größere oder bessere Netzabdeckung, insbesondere in ländlichen Regionen, höhere Kapazitäten und Qualität – dies insbesondere in städtischen Regionen, in denen die Standortverfügbarkeit sich bei steigender Netzdichte zu einem immer größeren Problem entwickelt – und Einhaltung der Regulierungsauflagen. Gleichwohl gehören die in Zugangsnetze getätigten Investi tionen und die damit einhergehenden Betriebskosten zu den größten Kostentreibern der Netzbetreiber. Folglich ist die effektive gemeinsame Nutzung der Zugangsnetze zu einem der interessantesten Themen für Betreiber geworden, die dann entweder weiterhin eine vertikale Integration beibehalten oder ihre entsprechenden Assets in eine strategische Partnerschaft einfließen lassen können. Erst nach klarer Definition der Ziele sollte ein Betreiber sich nach einem geeigneten Partner umsehen und effiziente Modelle zur Umsetzung seiner Idee prüfen. Dabei hat Network-Sharing nicht nur die Kostensenkung zum Ziel, sondern auch die Beschleunigung des Netzaufbaus, die Erhöhung der Netzabdeckung oder die Erfüllung von Regulierungsauflagen. Voraussetzung ist, dass technische und regulatorische Einschränkungen bewältigt werden können. Die mit der Implementierung verbundenen Herausforderungen und Risiken können ein Network-Sharing-Abkommen jedoch undurchführbar machen und beenden, bevor es überhaupt begonnen hat. Die Festlegung auf ein allgemeines Prinzip mag relativ einfach sein, aber gefordert ist eine Vereinbarung mit detaillierten Abstimmungen zu Management der gemeinsam genutzten Infrastruktur, Planung, Betrieb und Wartung, Governance und kommerziellen Bedingungen. Genau in diesen Punkten scheitern die meisten Vereinbarungen – trotz der offensichtlichen Kostenvorteile für die Stakeholder. Daher ist es unumgänglich, drei zentrale Fragen bei der Erwägung von Network Sharing rational anzugehen: Das WARUM, das WER und das WIE, um so die Risiken einer ineffizienten Sharing-Vereinbarung zu minimieren. 1 Douma, S. und Schreuder, H., „Economic contributions to strategic management“, Economic Approaches to Organization, 3. Auflage, Prentice Hall, 2002, S. 205-207. Das WER: Wahl des geeigneten Partners Im Telekommunikationssektor gibt es in einer geographischen Region üblicherweise nur wenige Betreiber, die über eine eigene Zugangsnetz-Infrastruktur verfügen und als Wettbewerber im jeweiligen Markt auftreten. Vor diesem Hintergrund ist die Sondierung des Marktes nach möglichen Sharing-Partnern offensichtlich der nächste wichtige Schritt. Alle weiteren Überlegungen hinsichtlich der Details potenzieller Sharing-Optionen bleiben ergebnislos, wenn kein geeigneter Partner gefunden werden kann, es sei denn, Sharing ist durch Vorgaben des Regulierers verpflichtend. Offensichtlich ist unter Berücksichtigung der oben genannten Ziele das Kostensenkungspotenzial dort am höchsten, wo unmittelbare Wettbewerber sich die Infrastruktur teilen. Zwar ist es auch möglich und einfacher, ein Abkommen zur Infrastrukturmitbenutzung zwischen Betreibern unterschiedlicher Dienste zu erzielen, beispielsweise zwischen Mobil- und Festnetzdiensten oder zwischen einem Energieversorgungsunternehmen und einem Mobilfunkbetreiber, doch dienen Infrastruktur und Standorte, die von beiden Partnern genutzt werden können, anderen Zielsetzungen und verhindern somit meist eine Maximierung der Synergien. Sharing zwischen direkten Wettbewerbern bedingt eine klare gegenseitige Übereinkunft und Verpflichtung hinsichtlich der von jedem Partner zu leistenden Beiträge, Anteile und Verantwortlichkeiten. Eine gemeinsame Nutzung der Zugangsnetze ist in etwa vergleichbar mit einer strategischen Eheschließung zwischen zwei herrschenden Familien – ehemals ein wichtiger Bestandteil der Diplomatie: Wenn die Partner zusammenpassen, 29 Detecon Management Report • 1 / 2010 Organization können sie einträchtig zum gegenseitigen Nutzen kooperieren und das wirtschaftliche Wachstum beschleunigen. Ist das Gegenteil der Fall, kann das zu erheblichem Verlust des guten Rufs und Wohlstands sowie zur langfristigen Zerrüttung der Beziehung zwischen den Beteiligten führen. Genau wie bei den in der Vergangenheit üblichen Partnerschaften müssen die folgenden Kriterien bei Network-Sharing-Abkommen daher sorgfältig geprüft werden: • Beziehung zwischen den Partnern einschließlich Vorgeschichte ihrer Zusammenarbeit und Verträglichkeit des kulturellen Hintergrunds, • Fähigkeiten der Partner hinsichtlich Ressourcen, Finanzkraft, Risiken bei der Planerfüllung und • Stand der jeweiligen Netz-Assets und deren Tauglichkeit, zu den Zielvorstellungen beizutragen. Das Eingehen einer solchen Partnerschaft erfordert eventuell die Zustimmung Dritter. In der Telekommunikationswelt sorgt der Regulierer dafür, dass es keine wettbewerbswidrigen Abmachungen gibt, die gegebenenfalls Preisfestsetzungen, Einschränkung der Kundenwahl oder Zuteilung der Märkte zur Folge haben. Betreiber, die ein Network Sharing anstreben, müssen daher eventuell belegen, dass durch die Partnerschaft ein verbesserter Ausbau der Infrastruktur bei geringeren Kosten erzielt und somit das Gemeinwohl gefördert wird ohne maßgebliche Beeinträchtigung des Wettbewerbs. Das erste WIE: Wahl des geeigneten technischen Betriebsmodells Die technischen Modelle zur gemeinsamen Nutzung der Zugangsnetze lassen sich in vier Hauptkategorien mit möglichen Kombinationen und Varianten unterteilen: 1.Passives Infrastruktur-Sharing: ausgehend von der gemeinsamen Nutzung unterstützender Infrastruktur auf unterschiedlichen Ebenen – vom Standort oder Stellfläche, zum Beispiel Grundstück, Hausdach, Wegerecht, bis hin zu passiven Assets wie Sendetürme, Container, Schächte und Kanäle, Betriebsräume, Stromversorgung und Installation. 2.Aktives Backhaul-Sharing: die gemeinsame Nutzung von Backhaul-Einrichtungen wie beispielsweise RAN-BackhaulRichtfunkverbindungen oder Glasfaserkabel zur Verbindung von RNC mit Node B - oder Backhaul-Fiber zwischen der Ortsvermittlungsstelle und den Verzweigerkästen für FTTC. 3.Aktives Access Network Sharing: die gemeinsame Nutzung der aktiven Teile der Zugangsnetze einschließlich Antennensystem, auch wenn dieses selbst nicht aktiv ist, der Übertragungssysteme wie Repeater und Transceiver und sonstiges aktives Equipment und 4.Nationales Roaming: die Nutzung des Netzes eines nationalen Wettbewerbers, um eine schnelle Abdeckung nicht selbst ausgebauter Gebiete zu erzielen. Die technischen Modelle weisen unterschiedliche Implika tionen im Hinblick auf Kostensenkungspotenzial, technische Manövrierfähigkeit – Flexibilität in puncto Planung und Betrieb –, Service-Differenzierung und Time-to-Market auf. Zur Erzielung eines maximalen Nutzens können die Betreiber nun die Möglichkeiten, die ihnen aufgrund dieser technischen Arrangements geboten werden, mit ihren Zielen abgleichen. Passive Netzelemente sind die zentralen Kostentreiber bei jedem Netzaus- oder aufbau. Für Betreiber, die lediglich ihre Kosten senken wollen, erscheint das passive Sharing am geeignetsten, da es erhebliche Einsparungen ermöglicht und nur eine geringe Einschränkung der technischen Manövrierfähigkeit bewirkt. Wenn die Betreiber bei den Diensten und nicht in der Abdeckung konkurrieren, ist die Auswirkung auf die Service-Differenzierung gering. Je mehr Elemente die Betreiber in den Sharing-Umfang einbeziehen, desto effektiver ist das Kostensenkungspotenzial, aber desto höher ist auch der Koordinationsaufwand und die gegenseitige Abhängigkeit. Betreiber, die bestrebt sind, CAPEX und OPEX weiter zu senken, sollten zusätzlich zum passiven Sharing das aktive Sharing in Betracht ziehen. Backhaul-Sharing gewinnt mit steigender Breitbandversorgung zunehmend an Bedeutung2. FrequenzSharing sollte ebenfalls in die Überlegungen eingehen, insbesondere bei regulatorischen Einschränkungen. Aktives Access Network Sharing erfordert seitens der Betreiber einen höheren Grad an Koordination und Kompatibilität, wobei jede beteiligte Partei ihr besonderes Augenmerk auf die Kapazitätsanforderungen richten sollte. Doch da viele Dienstemerkmale in erster Linie im Core Network und auf höheren Ebenen bereitgestellt werden, ermöglicht das aktive Sharing den Betreibern die teilweise Beibehaltung der Service-Differenzierung. Nationales Roaming wird normalerweise nicht als langfristige Lösung gewählt. Es ermöglicht Neueinsteigern jedoch die Einhaltung von Regulierungsauflagen, die schnelle Verfügbarkeit der Dienste bei Betriebsbeginn, Streckung von Investitionen und Fokussierung auf Kernbereiche. 2 Graham, P., „OFCOM proposes revised regulatory framework for superfast broadband“, Telecom Updates, Dundas & Wilson, April 2009, S. 12-15. 30 Detecon Management Report • 1 / 2010 Gut geteilt ist doppelt gewonnen Bevor die Betreiber sich für ein technisches Modell entscheiden, müssen sie die folgenden drei Hauptkriterien in Betracht ziehen: Erstens muss das anfänglich gemeinsam erzielbare Zugangsnetz in Bezug auf Standorte, Technologie, Kosten, Kapazität und Last die jeweiligen Unternehmensstrategien stützen. Zweitens muss das Modell die Anforderungen an die zukünftige Technologie- und Service-Roadmap, den geplanten Netzausbau, technologische Erweiterungen und die künftige Servicequalität nachträglich ermöglichen. Drittens sind operative Beschränkungen in Bezug auf Ressourcen, O&M-Anforderungen, bestehende vertragliche und regulatorische Pflichten, Technologie sowie die Tauglichkeit der eingesetzten Herstellerlösungen zu berücksichtigen. Ein gewähltes Modell ist immer ein Kompromiß. Die Wahl des geeigneten technischen Modells ist somit abhängig von den besonderen Gegebenheiten der Betreiber, ihrer Lieferanten und auch von den Standorten innerhalb eines Landes. Das zweite WIE: Wahl des geeigneten Geschäftsmodells Ein geeignetes Geschäftsmodell zur gemeinsamen Netznutzung muss die Geschäftsziele der Betreiber widerspiegeln. Doch aus der gemeinsamen Nutzung ergeben sich nicht nur Vorteile, es entstehen ebenfalls zusätzliche Kosten für Vertragserstellung und Vertragsmanagement, technische Neuplanung, Organisations- und Prozessänderungen. Nachstehend folgt eine Auflistung typischer Geschäftsmodelle: 1.Bilaterales Leasing: Betreiber vermieten Standortfläche und ausgewählte Infrastruktur untereinander, behalten aber ihre ei- genen täglichen Betriebsabläufe und ihr für das Netz zuständige O&M-Personal bei. 2.Transfer und Leaseback: Betreiber B überträgt seine Assets an Betreiber A, der den Betrieb sämtlicher Assets übernimmt. Betreiber B mietet von ihm im Leaseback-Verfahren die erforderlichen Kapazitäten. 3.Joint Venture: Gemeinsam wird ein separates Unternehmen zur Übernahme der Netzkapazität – bestehend oder neu – und des Netzbetriebs gegründet. Zudem können bestimmte Aufgaben an Dritte vergeben werden – zum Beispiel einem Managed Service Provider. Je nach Modell sind der potenzielle Nutzen und die hierfür erforderliche Komplexität der vertraglichen und operativen Gestaltung zu betrachten. Beim Vergleich der Modelle lässt sich feststellen, dass bilaterales Leasing in der Umsetzung weniger kompliziert ist, da jeder Betreiber seine eigenen Assets und Betriebsabläufe beibehalten kann – jedoch ist der Nutzen häufig auch geringer als bei Netzzusammenlegung mit Transfer und Leaseback oder Gründung eines Joint Ventures, weil die letztgenannten Modelle durch die Konsolidierung von Infrastruktur und Netzbetrieb bessere Synergien ermöglichen. In Bezug auf die technische Flexibilität liegt das bilaterale Leasing im mittleren Bereich, da jeder Betreiber die vollständige Kontrolle über sein eigenes Netz mit Einschränkungen durch Gebundenheit an Standorte des Partners und Partnerinstalla tionen am eigenen Standort ausübt. Dagegen ist die technische Flexibilität für den Betreiber, der unter Transfer und Leaseback sämtliche Assets erhält, sehr hoch, für seinen Partner trifft je- Abbildung 1: Typische technische Modelle für Access Network Sharing und deren Implikationen Passives Infrastruktur-Sharing Aktives Backhaul-Sharing Aktives Access Network Sharing Nationales Roaming Einsparungspotenzial 5 3* 3 3* Grad der Kontrolle und Service-Differenzierung 4 4 3 2 Time-to-Market 3 3 2 5 Regulatorische Einschränkung 2 2 4 3 Legende: 5 = Hoch 1 = Niedrig * = Einsparpotenzial ist vertragsabhängig und schwankt dementsprechend 31 Quelle: Detecon Detecon Management Report • 1 / 2010 Organization doch das Gegenteil zu. Ein Joint Venture sollte es beiden Partnern ermöglichen, über die Governance des Joint Venture und die abzuschließenden Service Level Agreements eine hinreichende Kontrolle auf Asset Management, Planung und Betrieb zu erzielen. Die Wahl des bestgeeigneten Geschäftsmodells ist daher keine einfache Aufgabe. Intern ist es erforderlich, dass Asset-Besitz, Nutzen- und Kostenverteilung, Investitionsbedarf und Governance der Partner einheitlich ausgerichtet sind. Extern wirken sich Regulierungsauflagen – zum Beispiel die Öffnung des Zugangs für andere Wettbewerber und die damit verbundene Einschränkung der Preisgestaltung sowie bestehende Vertragsverpflichtungen gegenüber Lieferanten – auf den Business Case aus. Auf die Herausforderungen in diesen Bereichen muss während der Verhandlungsphase eingegangen werden. Die Ausge glichenheit zwischen Komplexität, Kontrolle und geschäftlichem Nutzen sollte zur Zufriedenheit der Partner erzielt werden. Aspekte, die leicht übersehen werden Ein Antizipieren aller möglichen Risiken bei Sharing-Abkommen könnte anfänglich aufgrund der zugrunde liegenden Komplexität kontraproduktiv sein. Es ist sinnvoll, sich zunächst auf einige wesentliche Aspekte zu konzentrieren. Drei Punkte, die zu Anfang leicht unterschätzt werden, sind aber besonders zu berücksichtigen. Stakeholder Management: Stakeholder haben unterschiedliche Erwartungen, Bedenken und Interessen. Es ist unerlässlich, die Bedenken zu benennen und zu adressieren und die Vorteile für jeden einzelnen Stakeholder – zu denen in erster Linie Betreiber, deren Mitarbeiter, Investoren, Regulierer und Zulieferer gehören – darzustellen. Bei den Betreibern bilden Kosteneinsparungen und Beeinflussung von Umsatz und Wachstum die wichtigsten Aspekte. Der aus dem Sharing resultierende Nutzen erfordert eine Quantifizierung. Zur Vorbeugung von falschen Annahmen ist es wichtig, auf die erwartete Einsparung in CAPEX und OPEX sowie auf die voraussichtlichen Netzausbaugewinne – schnelleres Rollout, Zugang zu neuen Bereichen – für die beteiligten Betreiber zu beziffern. Die künftige Netzentwicklung und Service-Roadmap muß vereinbart werden, um eine Verträglichkeit des Agreements mit der Strategie der beteiligten Betreiber zu sichern. Ebenso wichtig ist die Handhabung von Kürzungen der Ressourcen oder Freisetzung von Arbeitskräften als Folge eines SharingAbkommens – insbesondere für die Mitarbeiter der beteiligten Betreiber. In Bezug auf das Management und die Mitarbeiter ist es erforderlich, die absehbaren Änderungen in ihrem bisherigen Beschäftigungsverhältnis und die damit verbundenen Chancen und Anforderungen zu adressieren. Ausschlaggebend für Investoren sind eine stabile und vorhersagbare Investitionsrentabilität sowie künftige Wachstumschancen und weitere Investitionsmöglichkeiten. Für Regulierer liegt der Fokus auf einer verbesserten Effizienz der eingesetzten Ressourcen und auf dem Nutzen für die Kunden einschließlich eines schnellereren Zugangs zu den Diensten sowie auf einer größeren Netzabdeckung. Behinderungen des Abbildung 2: Typische Geschäftsmodelle zur gemeinsamen Netznutzung und deren Implikationen Komplexität und potenzieller Nutzen Funktion intelligenter Formulare Hoch 3 Transfer und Leaseback • „Komplexität“ beinhaltet geschäftliche, vertragliche und operative Gestaltung. Transfer und Leaseback 2a Niedrig 2b 1 Bilaterales Leasing Niedrig Quelle: Detecon 32 JV Detecon Management Report • 1 / 2010 Hoch • „Potenzieller Nutzen“ bezieht sich auf positive Geschäftsauswirkungen, zum Beispiel Kosteneinsparung und Timeto-Market. • „Grad der Kontrolle“ beinhaltet Flexibilität in Bezug auf Kapazitätenplanung, Anpassung und Asset Management. • „2a“ bezieht sich auf das Transfer- und LeasebackSzenario in Bezug auf Betreiber A, der die Assets erhält. „2b bezieht sich auf dasselbe Szenario in Bezug auf Betreiber B, der die Assets abgibt. Grad der Kontrolle seitens des Betreibers Gut geteilt ist doppelt gewonnen Wettbewerbs gilt es auf jeden Fall zu vermeiden. Die Senkung der Betriebskosten findet ihren Ausdruck in niedrigeren Preisen für neuere Dienste. Zunehmend wichtig sind die umweltfreundlichen Auswirkungen, die aus den Sharing-Abkommen resultieren, beispielsweise weniger Funkmasten oder geringerer Energieverbrauch. Für Zulieferer sind mögliche Folge-Agreements, zum Beispiel Managed Services, und erweiterte Möglichkeiten durch einen Zugang zu allen beteiligten Betreibern hervorzuheben. Stakeholder-Management muß zum frühestmöglichen Zeitpunkt vor der Implementierung des Sharing-Agreements einsetzen. Kulturelles Change Management: Transition und Transformation im Hinblick auf das angestrebte Sharing Agreement können kostspielig und störend sein, wenn sie nicht professionell durchgeführt werden. Parallel zur Umsetzung des Network-Sharing sind die Betreiber gefordert, den damit einhergehenden kulturellen Wechsel von innen heraus zu planen und abzustimmen, um einen effizienten Betrieb zu ermöglichen. Kulturelles Change Management erstreckt sich auf Personal, Prozesse und Systeme. Die Umsetzung muß mit vollständiger Unterstützung des Top-Managements erfolgen und einer systematischen Methodik folgen mit Einschätzung der Ist-Situation, Entwicklung einer klaren Change-Strategie und eines Projektplans, guter Mitarbeiterkommunikation, professioneller Ausführung, kontinuierlicher Überprüfung und Verbesserung. Mit der zwischen den Sharing-Parteien stattfindenden neuen Kooperation ergeben sich aufgrund der Unterschiede in der Organisationsstruktur, HR-Richtlinien, Führungsstile, Arbeitsprozesse, Arbeitskultur und Qualitätsstandards neue Herausforderungen – insbesondere wenn Mitarbeiter zu neuen Teams oder gemeinsamen Einheiten verschmolzen werden. Gemeinsame Prozesse und Richtlinien müssen erarbeitet und auf Vertrauen basierende Arbeitsbeziehungen gefördert werden. Abhängig vom Ausmaß der operativen Änderungen und Interaktionen kann der Zeitraum von der Planung bis zur Durchführung der Änderung drei bis sechs Monate betragen. Es können weitere drei bis neun Monate verstreichen, bis sich eine allgemeine Akzeptanz durchgesetzt und eine gemeinsame positive Arbeitsatmosphäre etabliert hat. Ausstiegsstrategie: Betreiber, die ein Sharing-Abkommen abschließen, müssen Aufwand in die Planung der Ausstiegsoptionen investieren, die einen wichtigen Bestandteil des Abkom- mens selbst bilden. Trennungen sind schmerzhaft und es gibt keine Garantie dafür, dass eine Sharing-Partnerschaft erfolgreich sein wird oder lange bestehen bleibt. Es ist daher erforderlich, Ausstiegsmechanismen zu definieren, die die Verantwortlichkeiten der Betreiber während der Übergangsphase als auch die Übertragung gemeinsamer Assets und deren Bewertung einschließen. Zieht man die zwischen den Sharing-Partnern bestehende gegenseitige Abhängigkeit und das Eingehen einer langfristigen Zusammenarbeit in Betracht, muss ein möglicher Vertragsausstieg bei Nichterfüllung sowohl auf dem Papier als auch in der Realität eine glaubhafte Bedrohung darstellen, insbesondere für den eine Auflösung verursachenden Partner. Eine Ausstiegsoption sollte den Betreibern eine Umstellung auf individuelle Netze ermöglichen, wenn die Beweggründe für das Sharing nicht länger existieren. Rachad Abdallah ist Senior Consultant in der Gruppe „Program Management and Engineering“. Er hat sein Studium an der Technischen Universität München mit einem MSc in Telekommunikationswissenschaften abgeschlossen und mehr als fünf Jahre für führende Equipment-Zulieferer im Bereich Einsatz von Funknetzprodukten und Erstellung von Managed-Service-Lösungen gearbeitet. Seit 2006 ist er für Detecon tätig und berät Kunden auf technischen, betrieblichen und strategischen Ebenen. Er verfügt über fundierte Kenntnisse und Erfahrungen in der Netzentwicklung, Operations, Netzprüfungen, technische Due Diligence und Programm-Management mit weltweit führenden Mobilfunkbetreibern und Zulieferern. [email protected] Hung Fai Ma ist Senior Consultant in der Gruppe „Program Management and Engineering“. Nach Abschluss seines Studiums mit einem MSc in Telekommunikationswissenschaften war er zunächst mehr als zehn Jahre für einen führenden Betreiber in Hongkong tätig und für die Bereiche Festnetzqualitäts sicherung, Einführung eines regulatorischen „Code of Practice“, Interconnection-Offering und Vertragsverhandlungen zuständig. Bevor er 2007 zu Detecon kam, studierte er an der HEC und Telecom Paris mit einem Master-Abschluss in Management. Gegenwärtig liegt der Schwerpunkt seiner Tätigkeit auf Programm-Management, Managed Services und Network Sharing. Er ist ein zertifizierter Project Management Professional (PMP®). [email protected] Dirk Münning ist Managing Partner und Leiter der Gruppe „Program Management and Engineering“. Nach dem Studium der Nachrichtentechnik an der Fachhochschule Frankfurt am Main arbeitete er als Systemingenieur für Satellitenkommunikation bei ANT Bosch Telecom in Backnang. 1992 kam er zu Detecon und war zunächst als Projektleiter für Mobilfunksysteme tätig und bei ETSI in Sophia Antipolis als Mitglied der Expertengruppe PT-SMG, wo er zu maßgeblichen Weiterentwicklungen des GSM-Standards beitrug. Seit 1997 übernahm er die Verantwortung als Projekt und Programm Manager in zahlreichen Start-up- und Privatisierungsvorhaben sowie InterimsmanagementProjekten in der weltweiten Telekommunikationsindustrie. Er ist zertifizierter Project Management Professional (PMP®). [email protected] 33 Detecon Management Report • 1 / 2010 Organization Claudia Skrobol Am Puls der Veränderung Change Management ist kritischer Erfolgsfaktor in Effizienzprojekten Obwohl Manager heute wissen, wie wichtig der professionelle und faire Umgang mit Mitarbeiterinteressen in Kostensenkungs- und Restrukturierungsprojekten ist, sieht die Realität oft anders aus. Dabei sind es gerade zu Beginn die weichen Faktoren, mit denen man am Ende harte Projektziele erreicht. 34 Detecon Management Report • 1 / 2010 Am Puls der Veränderung ie gegenwärtige Wirtschaftssituation lässt vermuten, dass D professionelles Veränderungsmanagement eher wenig Konjunk- tur hat. Für manche Unternehmen geht es derzeit im Krisen management um die reine Existenz. In anderen Unternehmen, in der ein Effizienzsteigerungsprogramm die nächste Kosten senkungsmaßnahme jagt, fragt sich so manche Führungskraft nicht nur hinter vorgehaltener Hand, ob man die Ressourcen für das Managen der vermeintlich „weichen“ Faktoren nicht woanders einsetzen müsste. Wenn die „harten“ Fakten den Takt angeben und das Budget ohnehin knapp ist, scheint die Versuchung groß zu sein, der rein funktionellen Seite von Effizienzprojekten Vorfahrt zu geben. Gleichzeitig wissen Management und Projektmanager um die Notwendigkeit eines professionellen und fairen Umgangs mit den Mitarbeiterinteressen in Kostensenkungs- und Reengineringprojekten. Ohne die Mitarbeiter in den Veränderungs prozess mit einzubeziehen gelingt kein Rationalisierungs- und Restrukturierungsprojekt. Was sind also die Erfolgsfaktoren für ein Effizienz-getriebenes Veränderungsprojekt? Und worauf kommt es insbesondere zu Beginn eines solchen Vorhabens an? jektphase prägend für den gesamten Projektverlauf und damit elementar für den Erfolg des Veränderungsvorhabens sind: • • • • Weiche Themen im harten Projekt: Change Management in der Projektorganisation Dimensionen der Veränderung: Change Impact Analyse erzeugt Transparenz Zeitnaher Dialog statt brodelnder Gerüchteküche: Change Kommunikation Veränderung aktiv führen: die Rolle der Führungskräfte in Effizienzprojekten. Mit Oliver Wagner und Florian Lutter lernen Sie zudem zwei fiktive Manager kennen, deren Dialoge so oder ähnlich heute in jedem Unternehmen stattfinden könnten. Alle Ähnlichkeiten mit lebenden Personen und realen Handlungen sind rein zufällig und nicht beabsichtigt. Weiche Themen im harten Projekt: Change Management in der Projektorganisation Dennoch sieht die Realität oft anders aus: Zwischen brodelnder Gerüchteküche, einer „Jetzt aber warm anziehen“-Einstellung und der Haltung nach dem Motto „Nichts wird so heiß gegessen wie es gekocht wird“ liegt mit einem auf operative Themen fokussierten Projektbeginn bereits eine breite Varianz an Einstellungen vor. Abhängig von Anzahl, Intensität und erlebten Konsequenzen bereits durchlebter Optimierungsprojekte schwankt in der Belegschaft die Stimmung zwischen Angst und Abwarten. Florian Lutter war noch im Meeting, als die SMS von seinem Jogging-Partner Oliver Wagner eintraf: Ob sie heute eine Stunde später laufen könnten? „Mein Chef hat kurzfristig das heutige Jour Fixe und alle Meetings für die nächsten zwei Wochen abgesagt und stattdessen mich direkt zu sich geholt.“ meinte Wagner, als sie sich am Lauftreff begegneten. „Ich werde im neuen Effizienzprojekt, das gerade aufgesetzt wird, die Projektkoordination leiten – natürlich add on zu meinem jetzt schon 12 Stunden-Linien-Job.“ knurrte er. „Glückwunsch! Dann sitzt Du ja an der Quelle aller Informa tionen!“ feixte Lutter. „Und dann ist bei mir auch noch das Change Management und Projektmarketing angesiedelt – Neuland für mich!“ Lutter grinste ihn im Laufen an: „Na, das erledigen doch bestimmt ein paar nette junge Kolleginnen aus der Kommunikationsabteilung gerne für Dich!“ „Ganz ehrlich, das hat Prio drei bei mir. In drei Wochen soll die komplette Projektorganisation, -struktur und alle Gremien stehen. Wenn ich die Deadline hinter mir habe, dann mache ich mir mal langsam Gedanken, wen ich für das Veränderungsmanagement brauche.“ Wir stellen die wichtigsten Aspekte eines die Ziele von Kostensenkungs- und Reengineringprojekten unterstützenden Veränderungsmanagements vor. Im Blickpunkt stehen dabei solche Erfolgsfaktoren, die für den Projektstart und in der ersten Pro- Die Art und Weise des Projektstarts prägt den Projektverlauf und zu weiten Teilen das Projektergebnis. Diese Projektmanagement-Weisheit trifft für jedes und insbesondere für EffizienzProjekte zu. Wer den Anspruch verfolgt, in mit harten und Projektleiter von Veränderungsprojekten benennen inzwischen die Änderung von Einstellungen und Haltungen, die Unternehmenskultur und eine unterschätzte Komplexität als die drei größten Herausforderungen von Change-Projekten. Diese „weichen“ Themen werden heute deutlich vor operativen Hürden wie Ressourcenknappheit, Prozess- und IT-Änderungen genannt.1 1 IBM Corporation, „Making Change Work“, Oktober 2008, S. 12 35 Detecon Management Report • 1 / 2010 Organization unbequemen Zielen versehenen Projekten bei den Mitarbeitern auf allen Ebenen Verständnis, zumindest Akzeptanz oder gar Unterstützung für die bevorstehenden Schritte zu erzeugen und damit Projektergebnisse nachhaltig abzusichern, nimmt sich viel vor. Er tut gut daran, bereits in der strategischen Planungsphase den Faktor „Mensch“ in die Planung und Dramaturgie des Projektstarts mit einzubeziehen. Anstatt die auf Change und Kommunikation fokussierten Teilprojekte als letztes und nicht selten personell halbherzig zu besetzen, gilt es, umgehend Veränderungsmanagement-Kompetenz in das Projekt zu holen. Ziel ist, von Beginn an die funktionalen Teilprojekten mit dem Veränderungsmanagement zu verzahnen und damit beide Seiten des Veränderungsprozesses adäquat zu bearbeiten. Welche Anforderungen muss ein professioneller Change Manager erfüllen, um den kompletten Veränderungsprozess zu gestalten und zu steuern? Welches Ideal-Profil hat ein Manager von Veränderungen, um als Sparringspartner auf Augenhöhe von Projektauftraggeber, Lenkungskreis und Projektleitung agieren zu können? Profil eines Change Managers: • Erfahrung aus dem operativen Business, um Projektziele, Vorgehensplanung und -geschwindigkeit mit realistischem Blick unter Change Management-Aspekten zu bewerten • Fähigkeit, die Auswirkungen von strategischen und operativen Veränderungen auf soziale Systeme zu erfassen und dem Management und Projektbeteiligten anschaulich zu vermitteln • Intensive Projekterfahrung aus Prozessoptimierungsprogrammen, Reorganisationen, Kostensenkungsprogrammen, Personalabbau, Outsourcing, Near-/Offshoring • Fähigkeit, ein Netzwerk zu sehr unterschiedlichen Stakeholdergruppen zu bilden • Ausgeprägte Kommunikationsfähigkeiten und Erfahrung in der Vermittlung von „unangenehmen Wahrheiten“ • Erfahrung im Konfliktmanagement und Krisenmanagement in Projekten • Erfahrung im Umgang mit Sozialpartnern bei Veränderungsprojekten Damit wird klar, dass die Anforderungen an einen Change Manager, der ein Effizienzprogramm mit steuern wird, vom Profil eines Veränderungsmanagers abweichen, der in einem Post Merger-Integrationsprogramm oder Kulturveränderungsprojekt eingesetzt wird. Ob einer internen Besetzung Vorrang vor einer externen Besetzung zu geben ist, hängt wesentlich davon ab, ob und in wel- 36 Detecon Management Report • 1 / 2010 chem Umfang interne Change Manager mit dem beschriebenen Profil existieren. Im Idealfall können unternehmensinterne Kompetenzen mit externen Professionellen gekoppelt werden. Die Innensicht, die Kenntnis des Unternehmens und das existierende Netzwerk eines internen Veränderungsmanagers kombiniert mit der Projekterfahrung und dem Methoden-Set eines externen Change-Beraters wird sich über den Projektverlauf hin auszahlen. Der Change Manager hat, um wirklich erfolgreich wirken zu können, seinen Platz in der Programmkoordination oder im Projekt Management Office. Nicht selten wird ein eigenes Teilprojekt für Change Management und Projektmarketing aufgesetzt und mit Experten aus beiden Lagern besetzt. Nur hier, an der Schaltstelle der Projektgeschehnisse, in unmittelbarer Nähe zur Projektleitung und in enger Zusammenarbeit mit den Teilprojekten, wird das Management des Change mit dazu beitragen, den Business Case über den Projektverlauf „grün“ werden zu lassen. Dimensionen der Veränderung: Change Impact Analyse erzeugt Transparenz Wagners Wagen bog um die Ecke. Er war noch in Anzug und Krawatte. „Das Projekt-Kickoff-Meeting dauerte länger als geplant.“ meinte er entschuldigend zu Lutter und schlüpfte in seine Laufhose. Wagner war mit seinen Gedanken noch im Meeting: „Es gab mehr Fragen als Antworten. Zwar sind die vom Vorstand gesetzten Projektziele und die Projektorganisation fixiert, aber welche Auswirkungen die Kostensenkungen in den einzelnen Bereichen haben werden, konnte der Projektleiter heute noch nicht transparent darstellen. Der Business Case ist das eine. Was sich bei den Prozessen, Organisationsstruktur und IT tatsächlich ändern wird, scheint noch recht nebulös. Und was das konkret für unsere ManagementEbenen und die Mitarbeiter heißt, erst recht.“ „Na ja, irgendwas zwischen ein paar Spänen, die fallen und einem Teil-Kahlschlag wird´s werden. Das kennt ihr doch schon – ist doch nicht euer erstes Effizienzprojekt“. Sie liefen los. Lutter hatte gut reden. In vier Wochen sollte das erste Kommunikationspaket für die Mitarbeiter stehen. Und er hatte zum jetzigen Zeitpunkt noch keinen Überblick, was sich wo in welchem Ausmaß ändern würde. Nur soviel war ihm klar: In einigen Bereichen würde kein Stein auf dem anderen bleiben. Professionelle Change Manager werden in einem frühen Stadium des Projektstarts, in dem sich gewöhnlich alles um den Aufbau der Projektstruktur und funktionale Themen dreht, zusam- Am Puls der Veränderung men mit den Projektverantwortlichen die zu diesem Zeitpunkt erkennbaren Auswirkungen der Projektziele auf die Mitarbeiter erfassen. Eine erste, noch grobe Change Impact Analyse skizziert in einer Matrix das Ausmaß der geplanten Veränderungen in quantitativer und qualitativer Hinsicht entlang Businessbezogener Dimensionen. Inhalte der Change Impact Analyse: • Analyse der Veränderungen in quantitativer Hinsicht: - Welche Bereiche und welche Teams sind von den Projektzielen betroffen? - Welche Hierarchieebenen tangiert das Projekt besonders? - Wie viele Mitarbeiter betrifft das Projekt direkt und wie viele indirekt? • Analyse der Veränderungen in qualitativer Hinsicht: - Was konkret ändert sich für welche der aufgeführten Bereiche und Teams bezogen auf die Dimensionen Prozesse, IT, Aufgaben, Organisation, Rollen, Status, Zusammenarbeit, Führung, Kultur? - Wie stark wird die Veränderung auf einer Skala von 1-3 sein? - Wie veränderungserfahren sind diese Bereiche? Mit wieviel Widerstand ist zu rechnen? Über eine systematische Erst-Analyse, basierend auf Interviews mit Projektbeteiligten, werden die Auswirkungen und Veränderungen differenziert nach zuvor festgelegten Dimensionen dargestellt. Gerade zum Zeitpunkt des Projektstarts, zu dem die funktionale Projektplanung gemeinhin im Vordergrund steht, beleuchten die aus der Change Impact Analyse hervorgehenden Erkenntnisse Umfang und Auswirkungen der anstehenden Veränderungsprozesse: Führen Prozessänderungen zu Änderungen oder gar dem Wegfall von Arbeitsinhalten? Sind Zusammenlegungen von Teams und Bereichen geplant und werden damit Zusammenarbeits- und Führungsstrukturen stark betroffen sein mit Auswirkungen auf Rollen und Status von Key Playern und Mitarbeitern? Die Ergebnisse der Change Impact Analyse – und seien es auch nur allererste Einschätzungen – liefern dem Projektteam zu diesem frühen Zeitpunkt bereits Input für die Gestaltung der initialen Projektkommunikation. Zudem zeigen sie systematisch auf, welche Stakeholder-Gruppen besonders stark vom Projekt betroffen sind und wo die Prioritäten für das zu entwickelnde Change-Konzept liegen sollten. Mit fortschreitendem Projektverlauf wird die Change Impact Analyse schrittweise detailliert. Gemeinsam mit Ergebnissen aus Fokus Interviews bilden die Erkenntnisse der Impact Analyse die Basis für das Design zielgruppenspezifischer Change-Maßnahmen und die Entwicklung von Kommunikationskonzepten. Zeitnaher Dialog statt brodelnder Gerüchteküche: Change-Kommunikation Sie liefen die längere Runde am See entlang. Lutter, der parallel für einen Marathon trainierte, dominierte inzwischen das Lauftempo. „Was macht Deine Projektkoordination? Alle Ampeln auf grün?“ fragte er. Wagner hatte projektbedingt in den letzten zwei Wochen keine Zeit zum Laufen gehabt und musste zusehen, dass Lutter ihn nicht abhängte. „Na ja....“. Wagner zögerte. „Heute war Steering Meeting, in dem ich das Kommunikationskonzept für den Projektstart vorgestellt habe. Mit vielem hatte ich gerechnet, aber nicht mit einer solch hitzigen Diskussion zu diesem Thema! Zwei der Steering Mitglieder fanden es zu früh, jetzt schon „kommunikativ on air“ zu gehen, wie einer sich ausdrückte. Am liebsten würde er zu diesem Zeitpunkt nur verkünden, dass ein Projekt zur Effizienzsteigerung aufgesetzt wurde, die grobe Zielsetzung bekanntmachen und auf folgende Informationen verweisen. Du kannst Dir ja vorstellen, was das in der Mannschaft auslöst!“ Lutter, dessen Unternehmen gerade einen Merger hinter sich hatte, wusste Wagners Befürchtung zu übersetzen: „Bei den Führungskräften sind plötzlich die Bürotüren auffallend oft geschlossen und die fensterlose Kaffeeküche entwickelt sich über Nacht zum hot spot der Mitarbeiter!“ Wenn unbequeme Wahrheiten auszusprechen sind, harte Ziele verkündet werden müssen und ein damit verbundener steiniger Weg vor dem Unternehmen liegt, neigen Management und Projektverantwortliche dazu, mit der Kommunikation zu warten. Man möchte im Unternehmen keine Unruhe verbreiten und über „ungelegte Eier“ sprechen, bevor Eckpunkte anstehender Kostensenkungen und Prozessoptimierungen vereinbart sind. So verständlich und ehrbar diese Einstellung ist – sie hat die entgegengesetzte Wirkung. Das Schweigen des Managements und jede Nicht-Kommunikation deuten Mitarbeiter als die Ruhe vor dem Sturm. Jede Mail, jeder Intranet-Artikel und jedes Interview mit dem Management wird auf das genaueste auf mögliche Anzeichen für das Kommende hin untersucht. Alles Nicht-Gesagte bietet Anlass für neuerliche Spekulationen, man hört sprichwörtlich das Gras wachsen. Und selbst in Unternehmen mit zahlreichen durchlebten Veränderungsprozessen breitet sich der Flurfunk jedes Mal auf´s Neue in ungeahnter Geschwindigkeit aus. Dem sich bereits entwickelten Misstrauen in dieser Phase mit einer für die Projektziele und das geplante Vorgehen werbenden Kommunikationskampagne begegnen zu wollen, gleicht einer Herkulesaufgabe. Dramaturgische Fehler in der Startphase des Projektes und in der Kommunikation sind nicht oder nur mit immensem Aufwand langwierig wieder zu bereinigen. 37 Detecon Management Report • 1 / 2010 Organization Aus der Erfahrung von Kostensenkungs- und Reengineringprojekten mit heiklen Zielen empfiehlt es sich, sehr früh mit einer offenen und ehrlichen Kommunikation zu starten und so – möglicherweise – unbegründeten Ängsten und überbordenden Spekulationen den Nährboden zu entziehen. Dabei muss das Management und das Projektteam die Ambivalenz aushalten, die sich aus noch nicht fixierten Problemen und bereits bekannten, möglicherweise noch nicht kommunizierbaren Randbedingungen ergibt. Die Erwartung der Mitarbeiter nach dem Informationsgehalt der initialen Kommunikation wird immer um ein Vielfaches größer sein als das, was zu diesem Zeitpunkt gesagt werden kann. Basis für die „Story“ der ersten Kommunikation sind Ausgangslage und Handlungsdruck als Grund für das aufgesetzte Projekt. Hier gilt es, offen und ehrlich die aktuelle Lage darzustellen. Dazu gehört auch der Mut, mögliche Fehlentwicklungen, Entscheidungen aus vorangegangenen Programmen und Fehleinschätzungen auszusprechen und nicht einfach unter den Teppich zu kehren. Die Glaubwürdigkeit der Projektziele ist symbiotisch mit dem authentischen und offenen Kommunikationsauftritt des Managements verbunden. An dieser Stelle sei auf die Mitbestimmungsrechte des Sozialpartners in Veränderungsprojekten verwiesen. Generell sollten sich Management und Projektleitung über die gesetzlichen Regelungen hinaus ihre projektspezifische Strategie der Zusammenarbeit und möglicherweise frühzeitigen Einbindung des Betriebsrats zurechtlegen. Dies gilt insbesondere für die geplante Erst-Kommunikation, die als Weichenstellung für eine mögliche Kooperation betrachtet werden kann. Eckpunkte der „Story“ einer Erst-Kommunikation: • Ausgangslage, aktuelle Situation und „Pain Points“ • Handlungsdruck: Warum müssen wir etwas verändern? Was würde geschehen, wenn wir nichts ändern? • Projektziele: Welche strategischen Ziele verfolgen wir mit der Veränderung? Wie wird der Zielzustand aussehen? • Projektplanung und -organisation: Wie wollen wir es erreichen? Wer sind die Projektbeteiligten? • Projektstatus: Wo stehen wir heute? Was ist klar, was noch nicht entschieden? Wie geht es im Projekt weiter? Sich von vornherein dem Dialog mit der Belegschaft zu stellen, schafft Glaubwürdigkeit und stützt so den Veränderungsprozess. Auch wenn viele Fragen der Mitarbeiter in diesem Stadium noch unbeantwortet bleiben werden und es sich für beide Seiten möglicherweise unbefriedigend anfühlt – der Anfang ist gemacht, ein Informationsvakuum ist gar nicht erst entstanden und die Belegschaft spürt trotz vieler offener Themen, dass sie mit ihrem Wunsch nach zeitnaher Information ernst genommen wird. Veränderung aktiv führen: Die Rolle der Führungskräfte in Effizienzprojekten Auf ihrer Sonntagsrunde erzählte Lutter begeistert von seinem Leadership-Training, von dem er am Vorabend zurückgekehrt war. „Anspruchsvoll, interaktiv, spannend gemacht und die Teilnehmer kamen aus allen Branchen. Tat mal wieder gut, sich über den Firmen-Tellerrand hinaus mit anderen intensiv auszutauschen“. Wagner, der seine Frau und Kinder seit Wochen fast nur schlafend gesehen hatte, spürte ein wenig Neid in sich hochsteigen. Im Projekt wuchs der Druck, die Timeline war kaum zu halten und gestern hatte sich auch noch sein Teamleiter, der ihm momentan viele seiner Linienaufgaben abnahm, für die kommende Woche krank gemeldet. Die Stimmung in der Linie war ohnehin seit Wochen angespannt. Die zynischen Bemerkungen seiner Bereichsleiter-Kollegen, die er jetzt nur noch im wöchentlichen Jour Fixe traf, nahmen auffallend zu. Und hinter der langen Diskussionsdauer für eigentlich klare Themen vermutete er den Beginn von Positionierungskämpfen. Erst am Freitag hatte er ein längeres Meeting mit dem Change Manager, der ihn seit kurzem unterstützte. Wie er, Wagner, die Veränderungskompetenz der Führungskräfte einschätze, wollte dieser von ihm wissen. Wagner war im Verlauf des Gespräches bewusst geworden, was sie verstärkt angehen mussten. Inzwischen hat sich die Erkenntnis durchgesetzt: Commitment und Glaubwürdigkeit des Managements und die realistische, klare Vision und Zielsetzung sowie ihre offene und klare Kommunikation zählen zu den wichtigsten Erfolgsfaktoren für Veränderungsprozesse.2 Wenn die Unternehmensspitze in der Start- und Mobilisierungsphase die Ziele eines Effizienzprogramms vorgibt, als Bündnispartner die Stakeholder gewinnt, alle Energien für das Projekt bündelt und offen und authentisch kommuniziert, sind wesentliche Grundsteine für den Projekterfolg gelegt. Das Top Management führt den Veränderungsprozess und ist der „Motor“ dessen. Die Führungskräfte des mittleren und operativen Managements sind es, die als „Keilriemen“ die Umsetzung der Veränderungsziele im Unternehmen verantworten. An ihnen ist es, Akzeptanz bei den Mitarbeitern zu erzeugen, eine kritische Masse für die Ziele zu gewinnen und die Projektziele mit ihren Mitarbeitern 2 Capgemini Consulting, “Change Management Studie 2008”, S. 40 38 Detecon Management Report • 1 / 2010 Am Puls der Veränderung zu realisieren. Auf ihnen lastet die permanente Verantwortung, im Tagesgeschäft auf breiter Ebene die neuen Prozesse umzusetzen, die Kosten weiter zu senken und Personal um- oder abzubauen. Von ihrem Engagement und dem sichtbaren Vorbildverhalten hängt in einem hohen Maß das Projektergebnis ab. Als Bindeglied zwischen Management und Mitarbeitern nimmt das mittlere Management eine Sandwich-Position ein: Ambitionierte Ziele, hoher Erwartungs- und Erfolgsdruck, straffer Projekt- und Zeitplan von „oben“ – Unsicherheit, Widerstand und Unverständnis von „unten“ in einer Situation, wo möglicherweise die letzte Reorganisation oder Prozessoptimierung auf operativer Ebene nicht mal abgeschlossen ist und das neue Projekt das noch laufende rechts überholt. Sie sind oftmals nicht nur Beteiligte, sondern ebenso Betroffene des aktuellen Projektes und müssen Orientierung geben bei gleichzeitig eigener Unsicherheit. Umso wichtiger ist es, der Zielgruppe des mittleren und operativen Managements in der Change-Konzeption besonderes Augenmerk zu schenken. Ausgeprägte Frustrations- und Ambiguitätstoleranz3, Erfahrung im Konfliktmanagement und die Fähigkeit, immer wieder Distanz zur eigenen Situation und Betroffenheit halten zu können, sind die Grund voraussetzungen, um in Zeiten starker Veränderungen über lange Zeiträume Mitarbeiter – und sich selbst – adäquat führen zu können. Ein speziell auf die Zielgruppe des mittleren und operativen Management zugeschnittenes Change-Konzept stärkt die Veränderungskompetenz und das Führungsverhalten in Effizienz-getriebenen Projekten (siehe Kasten). Führungskräfte, die sich in der Umsetzung eines Veränderungsprojektes befinden, benötigen eine kontinuierliche Begleitung. Insoweit sind die dargestellten Empfehlungen als mögliche Interventionen zu verstehen, die je nach Prozessverlauf ausgewählt, überdacht, neu konzipiert oder gar verworfen werden müssen. Auch wenn sich der ein oder andere Manager aus Kostengründen ein plan- und kalkulierbares Change-Konzept „out-of-the-box“ wünscht: Im Hinblick auf die Zeitdauer der Umsetzungsphase stellt ein prozessorientiertes Vorgehen mit der Fragestellung „Was ist jetzt wichtig? Was ist gerade nun notwendig?“ situationsgerechte Veränderungsmaßnahmen sicher. Und setzt die Ressourcen zum richtigen Zeitpunkt und an der richtigen Stelle ein – effektives Change Management im Effizienzprojekt. Schwerpunkte eines Change-Konzeptes für Führungskräfte (Beispiel): • Mitgestaltung Key Player in die Projektplanung und in Steuerungsgruppen einbinden und damit den direkten Bezug zur operativen Ebene sicherstellen. • Commitment - Erwartung an die Rolle und das Führungsverhalten des mittleren Management im Effizienzprojekt klar kommunizieren - Buy in“ der Führungskräfte über Intensiv-Workshops zu Ausgangslage, Zielen und Vorgehen des Effizienzprojektes verstärken - Führungskräfte als Change Agents gewinnen • Kommunikation - Kommunikationskonzept für die Zielgruppe des mittleren und operativen Managements aufsetzen und durchführen - Info-Package mit Methodenkoffer, Workshop-Designs, Präsentationen erstellen zur Verwendung von Führungskräften für die Zielgruppe „Mitarbeiter“ • Veränderungskompetenz - Praxisbezogenes Training „Führen in Veränderung“ mit Schwerpunkt-Themen und Herausforderungen des aktuellen Veränderungsprojektes durchführen - Change Coaching auf 1:1-Basis bedarfsorientiert anbieten • Vernetzung Eigeninitiative der Führungskräfte zur Vernetzung stärken über Methodenvermittlung wie kollegiale Beratung oder Bildung von Peer Groups • Best Practice und Nachhaltigkeit Reviews und Lessons Learnt-Workshops mit Führungskräften durchführen: Was läuft im Veränderungsprozess erfolgreich, welche Methoden sind hilfreich und welche weniger? Claudia Skrobol arbeitet seit 2007 als Senior Consultant im Bereich Transformation Management mit den Themenschwerpunkten Business Transformation, Change Management und Programm- und Projektmanagement. Sie verfügt über langjährige Erfahrung im Telekommunikationssektor – davon zehn Jahre als Führungskraft und Projektleiterin für Reorganisations-, Post Merger Integration- und Kulturentwicklungsprojekte. In der Beratung verbindet sie ihre Praxis-Expertise mit der Detecon Transformation Management Methodik und dem Ansatz der systemischen Beratung. [email protected] 3 Ambiguitätstoleranz: Das Ertragen von Mehrdeutigkeiten, Widersprüchlich keiten, ungewissen und unstrukturierten Situationen oder unterschiedlichen Erwartungen und Rollen, die an die eigene Person gerichtet sind. 39 Detecon Management Report • 1 / 2010 Organization Dr. Olivier Coutand, Jawahar Sajjad, Dr. Andreas Amann Den Goldgehalt prüfen Verbesserung der Effektivität von Operationen zur Umsatzsicherung Weltweit sind Telco-Betreiber damit beschäftigt, organisatorische Effizienz durch Revenue Assurance zu steigern. Womit sie sich jedoch nicht befassen, ist die Notwendigkeit zur Steigerung der Effizienz, mit der Revenue Assurance selbst durchgeführt wird. Betreiber sollten davon absehen, Schwachstellen über das aufwändige Verfahren der Simulation jeder einzelnen Datentransaktion zu kontrollieren – und vielmehr alle vorhandenen Hebel ziehen, um die nächst höhere Stufe ansteuern. 40 Detecon Management Report • 1 / 2010 Den Goldgehalt prüfen m Gewinnmargen aufrechtzuerhalten und zu steigern, gibt U es zwei populäre Methoden: die Umsätze über ein neues Pro- duktangebot oder einen aggressiven Vertrieb hochtreiben oder die Kosten über technologische Fortschritte und gesteigerte Effizienz senken. Noch vor Beginn der aktuellen Finanzkrise hat die Telco-Branche aufgrund des Bedarfs für neue, attraktivere und mehrwerthaltige Produkte massive Erneuerungen durchgeführt, um sinkende ARPUs abzufangen. Zur Stützung einer komplexeren und gleichzeitig flexiblen Produktstruktur haben Betreiber Investitionen in NGNs, IP-basierte Produkte und in NG-Billing vorgenommen. Die Kombination aus Marktsättigung, sinkendem Umsatz der Sprachprodukte und instabiler finanzieller Lage lässt der Branche nur noch wenige Optionen. Der Fokus liegt jetzt deutlich auf der Verbesserung der betrieblichen Effizienz. Die größten Investitionen, die in diesem Zeitraum getätigt werden, gelten der Optimierung des Produktionsbetriebs. Trotz dieser Anstrengungen fangen die erzielten Kostensenkungen die dramatischen Umsatzeinbußen der vergangenen Jahre bislang nicht auf. Die Notwendigkeit zur Revenue Assurance An dieser Stelle setzt Revenue Assurance an. Eine von Analysys Research UK in 2007 durchgeführte Studie, die zirka 100 welt weit operierende Telco-Betreiber einbezog, gibt Aufschluss über die Misere der gesamten Branche. Der gesamte Umsatz der Branche wird für 2007 weltweit auf etwa 1,6 Billionen US-Dollar geschätzt. Von diesem Umsatz wurden zirka 218 Milliarden US-Dollar nicht realisiert. Der Trend der vorangegangenen Jahre ist sogar noch alarmierender: Die Umsatzeinbußen sind von 11,6 Prozent in 2005 auf 13,6 Prozent in 2007 gestiegen. Splittet man diese Verluste nach geografischen Regionen auf, können sie in einigen Fällen, zum Beispiel in Unternehmen im Mitt leren Osten und in Afrika, sogar bis zu 20 Prozent b etragen. Durch den Einsatz effizienter Strategien und Methoden zur Realisierung von Revenue Assurance in ihren Unternehmen können Telcos sicherstellen, dass Umsatzeinbußen korrigiert und verhindert werden und dass sich ihre Verluste somit erheblich verringern. Mit der Zunahme an Popularität während des vergangenen Jahrzehnts hat sich Revenue Assurance zu einem Überbegriff für eine Bandbreite an Konzepten entwickelt, die darauf abzielen, den Telcos gesundes Wachstum zu bescheren. Genauer gesagt, bezieht sich Revenue Assurance auf die Datenqualität und Prozessverbesserungsmethoden, die Gewinne, Umsätze und Cash Flows ohne Auswirkung auf die Nachfrage steigern.1 Ziel dieser Methoden ist die Minimierung der Umsatzeinbußen, die auf den unterschiedlichen Stufen des Billing-Prozesses des Unternehmens eintreten. Eines der Hauptziele von Revenue Assurance besteht somit darin, die Konsistenz und Validität der in den Billing-Prozess einbezogenen Daten zu gewährleisten. Um die mit Revenue Assurance verknüpften Erwartungen nachvollziehen zu können, ist es unumgänglich, sich zunächst mit dem Problem zu befassen, das mittels Revenue Assurance in Angriff genommen werden soll. Der Billing-Prozess wird häufig als die Hauptschlagader eines Telco-Unternehmens betrachtet, da er die Bits und Bytes der digitalen Informationen innerhalb eines Netzes für den Service Provider in Geld umwandelt. Wenn ein Kunde im Rahmen des Postpaid-Business Anrufe tätigt, bewirken die über das Netz vermittelten Verbindungen, beispielsweise Schaltungen, das Aufzeichnen ihrer Aktivitäten. Diese Aufzeichnungen beinhalten die Identifikation des Kunden und sonstige wichtige Informationen, die an das Billing-System weitergegeben werden. Das Billing-System erhält ebenfalls Aufzeichnungen von anderen Carriern, zum Beispiel von nationalen Service Providern oder Roaming-Partnern. 1 TR131, Revenue Assurance Overview, Release 2.0, verfügbar unter http://www.tmforum.org/DocumentsRevenue/TR131RevenueAssurance/ 35902/article.html 41 Detecon Management Report • 1 / 2010 Organization Das Billing-System übernimmt das Guiding dieser „Call Detail Records“ (CDRs) zu den richtigen Kunden und aktualisiert die Rating-Information. Alle Informationen über den Kunden werden erfasst, zum Beispiel Tarife, die aktualisierten BillingAufzeichnungen werden in einem Billing-Pool platziert, so dass sie gegebenenfalls zu einer einzigen Rechnung, die dem Kunden übermittelt wird, zusammengefasst werden. Der Kunde leistet daraufhin seine Zahlung an den Telco-Dienstleister. Zahlungen werden im Billing-System erfasst und die History-Dateien anschließend für die Zwecke der Kundendienstberater (CSRs) und Auditing Manager aktualisiert. Umsatzeinbußen im Postpaid- und Prepaid-Business Im Postpaid-Business können Umsatzeinbußen sich an jeder Stelle des Billing-Prozesses ergeben. Folgende unterschiedliche Arten von Fehlern und Problemen verursachen die Einbußen: • Fehler bei der Erhebung und Vermittlung resultieren zum Beispiel aus der großen Vielzahl der verwendeten Datenerfassungsgeräte, den zahlreichen Datenformaten, die verwendet werden, und dem Umgang mit fehlenden, unvollständigen oder redundanten Daten in der Billing-Kette. • Billing-Probleme resultieren aus der Nichteinhaltung vertraglich vereinbarter Tarife, technologischer Komplexität aufgrund unterschiedlicher Systeme für unterschiedliche Geschäftsmodelle, postpaid, prepaid und andere, ungeprüften Rechnungen, Rechnungen, bei denen zu viel (over billing) oder zu wenig (under billing) berechnet wurde. • Fehler bei der Verwendung von Datenerfassungsgeräten resultieren aus unvollständigen Nutzungsdaten, fehlerhaften Geräten und System-Setup, unterschiedlichen Zeitstempeln und Inkompatibilität der Geräte. • Fehler beim Kunden-Provisioning und bei den Aufträgen resultieren beispielsweise aus falschen Kunden- und Vertragsdaten, mangelhaften Sicherheitsmechanismen, Verzögerung in Bezug auf Service-Aktivierung und Statusänderung, ServiceBestellvorgang versus Statusänderung oder inkonsistem ServiceStatus. 42 Detecon Management Report • 1 / 2010 • Fehler in den Finanz- und Accounting-Systemen resultieren vor allem aus fehlerhaften Interaktionen (Datenaustausch) mit anderen Systemen, uneinheitlichen Informationen, Folgehandlungen wie Mahnungen oder Bugs in Software-Updates und Fehlerbehebungen. Doch Umsatzeinbußen sind nicht auf das Postpaid-Business beschränkt. Prepaid ist ebenfalls ein Thema, wenn es um Umsatzverluste geht, und das gilt auch für das Roaming- und InterOperator-Business. Wenn es darum geht, keine Umsatzeinbußen zu erleiden, gleichen die Herausforderungen im Prepaid-Business denen des Postpaid-Business. Fehlerhafte Wahl der Gebührenpläne, Fehler in Netz-Routen oder in sonstigen Referenzangaben führen letztendlich dazu, dass Kunden falsche Beträge in Rechnung gestellt werden. Umsatzeinbußen bei Prepaid-Services können ebenfalls die Folge einer fehlerhaften Konfiguration sein. Bei der Konfiguration von Prepaid- und Postpaid-Services müssen „Switch-Fähnchen“ gesetzt werden, damit für jeden einzelnen Kunden der Status Prepaid- oder Postpaid-Kunde festgelegt werden kann, so dass die Call Records der entsprechenden Billing-Plattform zugeordnet werden können. Wenn diese falsch gesetzt wurden, werden die Prepaid-Records an die PostpaidBilling-Plattform weitergeleitet, wo sie im Schwebezustand verharren und eventuell für einige Zeit unentdeckt oder ungelöst bleiben. Bis das Problem gelöst ist, können die Prepaid-Kunden in der Zwischenzeit kostenlos telefonieren. Spezielle Umsatzverluste im Prepaid-Business sollten auch in Verbindung mit dem Überziehen von Kreditlinien beachtet werden. In nicht-onlinebasierten Prepaid-Architekturen würde zwischen dem auf Null zulaufenden Prepaid-Kontostand der Nutzer und dem an das HLR gesendeten Sperrbefehl eine Verzögerung eintreten – dieses Zeitfenster ermöglicht es immer noch, Anrufe zu tätigen. Um die finanzielle Leistungsfähigkeit eines Unternehmens zu verbessern und die Quellen für Umsatzeinbußen einzudämmen, sind dedizierte Prozeduren für Systeme entlang des Billing-Prozesses erforderlich, um zum Beispiel Account-Aktivierung und Tracking, Wahl des Service-Merkmals, Wahl der Billing-Gebühren für spezielle Anrufe, Rechnungserstellung, Erfassung der Zahlung und Kommunikationsabläufe mit den Kunden zu ermöglichen. Das Problem besteht jedoch darin, dass Umsatzein- Den Goldgehalt prüfen bußen an vielen unterschiedlichen Stellen des Billing-Prozesses und bei allen Geschäftsarten – Prepaid, Postpaid, Roaming und Inter-Operator – entstehen und es daher wenig hilfreich ist, eine Reihe unkoordinierter Ad-hoc-Maßnahmen zu ergreifen. Zur Realisierung von Revenue Assurance müssen diese Maßnahmen vielmehr Bestandteil eines umfassenden Ansatzes sein. Weltweit führende Betreiber haben dieses Erfordernis erkannt und halten an ihrer eigenen Methode zu Revenue Assurance fest. Gegenwärtige Realisierung von Revenue Assurance greift noch zu kurz Konfrontiert mit der Notwendigkeit, sinkende ARPUs in Zeiten starker wirtschaftlicher Schwankungen abzufangen und stets attraktivere und gleichzeitig komplexere Mehrwertprodukte auf den Markt zu bringen, sowie ermutigt durch Untersuchungen und Berichte, die einen kontinuierlichen Anstieg der Umsatzverluste konstatieren, haben Solution Provider Revenue Assurance als eine unumgängliche Maßnahme für ihr Unternehmen akzeptiert. Die weltweite Diskussion in Telco-RA-Foren2 hat sich damit vom „Warum“ auf das „Wie“ verlagert. Die herkömmliche Methode zu Revenue Assurance besteht darin, dass die Betreiber Umsatzverluste aufspüren, indem sie nach Problemen in zentralen Billing-Systemen suchen und Schwachstellen im gesamten Unternehmen identifizieren. Diese Do-ityourself-Strategie zielt darauf ab, dass Betreiber alle relevanten Transaktionen und Anwendungen überwachen. Entdeckte Schwachstellen werden dann mithilfe einer bestimmten Maßnahme korrigiert und die Suche nach der nächsten Schwachstelle wird fortgesetzt. Das Erkennen der Schwachstellen führt dazu, dass der Provider jetzt mit der Verarbeitung einer ungeheuren Datenmenge konfrontiert wird. Um herauszufinden, wo das Geld hingegangen ist, müssen CDRs normalerweise über den gesamten Billing-Prozess hinweg kontrolliert und geprüft werden. Da die Betreiber außerdem von der Notwendigkeit der Revenue Assurance überzeugt sind, haben sich die meisten für unabhängige Vendor-Lösungen entschieden, die die technischen Aspekte 2 Für Umsatzsicherung wird der Einfachheit halber an einigen Stellen die englische Abkürzung RA verwendet. beleuchten und dabei helfen, das Problem der Datenkomplexität anzugehen. Die Lösungen ermöglichen es, viele Stellen innerhalb des Netzes und des Back Office zu prüfen. Vendor-Portfolios richten sich an die unterschiedlichen Bedürfnisse entlang des Billing-Prozesses über Data-Warehousing-Lösungen, Ratingund Billing-Prüfungssysteme oder Nutzenabgleichsysteme. Die Betreiber haben sich daher bislang auf eine umsetzungsorientierte Methode zur Realisierung von Revenue Assurance gestützt: Oft haben sie Best-in-Class-Software zur Identifizierung von Schwachstellen erworben und anschließend – zur Bedienung der Systeme – ein Team von IT-Spezialisten engagiert, die den Billing-Prozess gründlich überprüfen und das Nutzungsverhalten betrügerischer Kunden überwachen können. Doch trotz ihrer Anstrengungen fangen die erzielten Kostensenkungen die dramatischen Umsatzeinbußen der vergangenen Jahre nicht auf. Nach dieser herkömmlichen Methode wird Revenue Assurance als ein separater und relativ autonomer Geschäftsbereich innerhalb des Unternehmens aufgefasst. RA-Spezialisten werden – wie jeder andere Marketingspezialist oder Produktentwickler – mit bestimmten Aufgaben, nämlich der Feststellung und Korrektur von Umsatzeinbußen, betraut. Zur Lösung dieser Aufgabe werden ihnen optimale IT-Systeme zur Verfügung gestellt. Auch wenn der Einsatz von Tools beim Aufspüren von Schwachstellen sicherlich hilfreich ist, verfahren Spezialisten bei ihrer Arbeit oft so, dass sie ihr Augenmerk auf die unmittelbaren und sichtbaren Konsequenzen der Umsatzeinbußen lenken, um möglichst schnell Ergebnisse erzielen zu können. Stützt man sich zu sehr auf Vendor-Lösungen und konzentriert sich zu stark auf technische Aspekte, verstellt das die Optik auf die speziellen Unternehmensschwachstellen innerhalb des Revenue Management-Prozesses. Auch wenn die Überwachung sämtlicher Transaktionen hinsichtlich der Behebung der Umsatzeinbußen von Nutzen sein kann, ist dieser Vorgang sowohl redundant als auch kostspielig. Um bessere Ergebnisse zu erhalten und um Revenue Assurance als strategische Funktion innerhalb der Unternehmen zu verankern, ist ein umfassenderer Ansatz in Bezug auf diese Thematik erforderlich. Kurzum, ein solcher Ansatz sollte schnellere und 43 Detecon Management Report • 1 / 2010 Organization nachvollziehbare Ergebnisse liefern und nachhaltigere Auswirkungen haben, während gleichzeitig die Abhängigkeit von ITTools reduziert und die Zusammenarbeit über sämtliche Geschäftsfunktionen hinweg verbessert werden sollte. Der Multi-Level-Ansatz zur Umsatzsteigerung Die Minimierung der Umsatzverluste und die damit verbundene Steigerung der finanziellen Leistungsfähigkeit eines Unternehmens wird unterstützt durch das aktive Erkennen der Schwachstellen, die gegenwärtig zu einschneidenden Umsatzverlusten führen, als auch durch das Verfolgen der Schwachstellen, deren Auswirkungen einem Unternehmen langfristig Schaden zufügen, zum Beispiel das negative Image eines Betreibers, das er seinen Kunden (Kundenerhalt) oder potenziellen Neukunden (Kundenakquise) vermittelt. Eine effiziente Methode zu Revenue Assurance muss jedoch gewährleisten, dass Schwachstellen proaktiv verfolgt und behoben werden. Um die Umsatzeinbußen niedrig zu halten, muss das Entstehen neuer Schwachstellen verhindert beziehungsweise müssen diese so früh wie möglich entdeckt werden. Um all diese Aspekte effizient angehen und die technologische Komplexität beherrschen zu können, darf eine angemessene Methode zu Revenue Assurance nicht darauf reduziert sein, tagtäglich Umsatzeinbußen festzustellen und zu kontrollieren. Daher ist ein Multi-Level-Ansatz erforderlich, der den strategischen Rahmen für die Festlegung der Aktivitäten zu Revenue Assurance des Unternehmens vorgibt und die betrieblichen Abläufe zur Minimierung der Umsatzverluste regelt. Es gibt keine Wunderwaffe für eine Methode zu Revenue Assurance. Jedes Unternehmen stützt sich auf sein eigenes Organisationsmodell und IT-Umfeld, legt bestimmte Ziele und Pläne fest und entwickelt und vermarktet seine eigenen Produkte. Revenue Assurance muss auf diese unternehmenseigenen Spezifitäten zugeschnitten sein. Die Eigenschaften eines leistungsstarken Multi-Level-Ansatzes zur Umsatzsteigerung können wie folgt skizziert werden: Strategieorientiert: Für eine erfolgreiche Realisierung von Revenue Assurance ist die Einbindung der Top-Führungskräfte von zentraler Bedeutung, denn sie transportieren die Botschaft, 44 Detecon Management Report • 1 / 2010 dass die Umsatzströme effektiv gemanagt werden müssen, wenn die Ergebnisse beibehalten oder verbessert werden sollen, und etablieren Revenue Assurance unternehmensweit. Strategische Aspekte werden häufig übersehen, wenn wichtige Entscheidungen getroffen werden, und dies gilt auch für Revenue Assurance. Die Investitionsrentabilität wird in Verbindung mit Revenue Assurance häufig als die wichtigste Kennzahl betrachtet. Doch was mittels dieser Messgröße nicht erfasst werden kann, sind Langlebigkeit und nicht-monetärer Nutzen, der aus einer Investition resultiert. Managed: Eine wichtige Voraussetzung zur effizienten Umsetzung von Revenue Assurance ist, dass die Verantwortung für diese Aufgabe einer dedizierten Geschäftsfunktion übertragen werden muss. Dem RA-Team des Unternehmens obliegt die Wegbereitung zur Realisierung von Revenue Assurance, Berichterstattung gegenüber und Abstimmung der Aktivitäten mit dem Management, Entwicklung der Tools und Festigung der RA-Practices des Unternehmens. Übergreifend: Als funktionsübergreifende Thematik bietet Revenue Assurance nicht nur anderen Geschäftseinheiten Vorteile, sondern ist ebenfalls auf deren Unterstützung angewiesen. Angefangen bei den kaufmännischen Geschäftsbereichen bis hin zum Personalwesen, zur Qualitätssicherung oder zu den internen Prüfern – Revenue Assurance ist für alle wichtig und relevant zugleich. Für das RA-Team gilt, seinen Einfluss dadurch unternehmensweit geltend zu machen, dass es Geschäftsfunk tionen dazu bringt, ihre betrieblichen Abläufe kontinuierlich aus der Perspektive von Revenue Assurance zu überprüfen. Für eine derart breit angelegte Thematik ist die Festlegung einer schlüssigen Strategie von zentraler Bedeutung, damit die Erwartungen der Geschäftsführung effektiv in betriebliche Abläufe umgesetzt werden können. Standardisiert: Auch wenn eine Methode immer speziell auf ein Unternehmen zugeschnitten ist, wäre es kontraproduktiv und zeitaufwändig, nicht von Standards zu profitieren und auf Praxisbeispiele zurückzugreifen, die sich für andere als erfolgreich erwiesen haben. Revenue Assurance ist nach wie vor ein neues Thema, doch einige Industrienormen gibt es bereits. Bei der Entwicklung von Betriebsmodellen für die Geschäftseinheit ist es äußerst hilfreich, auf bestehende Grundlagen üblicher Den Goldgehalt prüfen Industrienormen zurückzugreifen. Diese Normen beinhalten üblicherweise den New Generation Operating Systems und Software (NGOSS) Framework des TMForums sowie sonstige Normen, zum Beispiel spezielle Zertifizierungen wie Grapa. Best Practices von ITIL (IT-Infrastrukturbibliothek) liefern ebenfalls nützliche und effiziente Maßnahmen zur Vermeidung üblicher Stolpersteine. Adaptiv: Die Wahl eines für das Unternehmen geeigneten Ansatzes ist definitiv ein wichtiger Schritt zur Realisierung von Revenue Assurance. Doch den RA-Experten innerhalb eines Unternehmens sollte stets bewusst sein, dass ein geeigneter Ansatz in Einklang mit der Entwicklung eines Unternehmens sein muss, da es sich im Laufe der Entwicklung sowohl an externe – Marktdruck, technologische Entwicklung – als auch an interne Änderungen – strategische Restrukturierung – anpasst. Betriebsabläufe, die sich zu einem bestimmten Zeitpunkt als erfolgreich erwiesen haben, können einige Monate später eventuell überholt sein. Daher sollte sich das RA-Team, auch wenn es erfolgreich ist, nicht auf seinen Lorbeeren ausruhen, sondern die technischen Entwicklungen verfolgen und die eingesetzten Tools und Methoden prüfen, während es, beispielsweise in der RA-Community, nach neuen Practices Ausschau hält. Produktzentriert: Auf jeden Fall ist es wichtig, im Auge zu behalten, dass Revenue Assurance in erster Linie darauf abzielt, die finanzielle Leistungsfähigkeit eines Unternehmens zu verbessern. Die wichtigsten Akteure, die die Finanzlage eines Unternehmens steuern, sind zweifelsohne die Produkte oder Leistungen, die ein Unternehmen verkauft. Die Entwicklung einer produktzentrierten Methode zu Revenue Assurance beinhaltet, dass kein Produkt ohne die Zustimmung des RA-Teams auf den Markt eingeführt werden darf, weil nur so sichergestellt werden kann, dass das neue Produkt in Einklang mit den in dem Unternehmen bestehenden RA-Richtlinien ist. Dies erfordert allerdings die Entwicklung einer Top-down-Methode zu Revenue Assurance, die RA-Richtlinien ab dem Zeitpunkt, an dem die Produktentwicklung abgeschlossen ist, bis zu dem Zeitpunkt, an dem es auf den Markt eingeführt wird, beinhaltet. Eine solche Methode steht im Gegensatz zu einer umsetzungsbasierten Methode, die gegenwärtig von der Mehrheit der Betreiber eingesetzt wird. Regeln für eine effiziente Organisation von Revenue Assurance Sowie die Methode etabliert und der Handlungsrahmen festgelegt ist, bestehen die nächsten Schritte zur Umsetzung von Revenue Assurance darin, diese zu aktivieren und die tagtägliche Vorgehensweise für das Aufspüren und Minimieren der Umsatzverluste festzulegen. Wie bereits zuvor erwähnt muss jede Vorgehensweise auf die Besonderheiten eines Unternehmens zugeschnitten sein. Trotzdem ist es möglich, von zurückliegenden Erfahrungen, die im Rahmen von Revenue Assurance gemacht wurden, zu profitieren und Regeln für diese Betriebsabläufe zu entwickeln. Regel Nr. 1: Betrachten Sie Revenue Assurance nicht nur als technisches „Fixing Tool“! Das für die Identifizierung von Schwachstellen verwendete IT-Tool wird im Rahmen der Revenue Assurance-Abläufe typischerweise als zentrale Säule betrachtet. Ein IT-basiertes Revenue Assurance Tool kann jedoch nur Unterstützung als Teil eines Gesamtprozesses bieten. Schwachstellen ändern sich dynamisch, der Identifizierungsprozess muss sich schnell entsprechend anpassen. Bei einer erfolgreichen Methode zur Realisierung von Revenue Assurance ist es daher von zentraler Bedeutung, Techniken und Aktivitäten in Betracht zu ziehen, die in puncto Revenue Assurance ein Optimum erzielen. Prozessverbesserungen, Qualitätssicherung sowie eine offene Kommunikation gelten für solche Techniken als gute Beispiele. Schwachstellen können zum Beispiel direkt aus Inkonsistenzen und Unzulänglichkeiten umsatzbezogener Prozesse resultieren. Eine Analyse des aktuellen Prozessrahmens eines Unternehmens hat sich als äußerst nützliches Tool zur Aufdeckung von zu Umsatzeinbußen führenden Schwachstellen erwiesen. Weiterhin lassen sich diese Schwachstellen durch Maßnahmen zur Prozessverbesserung beheben. Interessanterweise erweist sich diese Methode als effektiver als eine rein IT-basierte Methode, da sie nicht nur das Ergebnis hervorhebt, sondern auch die Schwachstelle selbst und – noch wichtiger – deren Ursache, was dazu führt, dass sich Abhilfemaßnahmen noch leichter ableiten lassen. Die Benefits, die sie erlangen, beinhalten nicht 45 Detecon Management Report • 1 / 2010 Strategy nur die Minimierung der Schwachstellen, sondern reduzieren die Kundenabwanderung, erhöhen die Kundenzufriedenheit, verringern die Kosten und erhöhen die Produktivität. Regel Nr. 2: Kehren Sie von der Do-it-yourself-Methode ab! Traditionell betrachtet besteht die Durchführung von Revenue Assurance darin, alle Transaktionen zwischen relevanten Anwendungen zu überwachen und zu kontrollieren. Diese betrieblichen Abläufe überträgt das Unternehmen zumeist ausgesuchten Spezialisten: den Experten in Revenue Assurance, die im Unternehmen allein für die Durchführung sämtlicher Aufgaben, die sich auf Revenue Assurance beziehen, verantwortlich sind. Zugespitzt formuliert sind diese Experten die einzigen Mitarbeiter im Unternehmen, die mit den Aktivitäten zu Revenue Assurance vertraut sind. Die unmittelbare Folge daraus ist, dass diesen Experten sehr schnell eine überbordende Fülle an Aufgaben und einzurichtenden Kontroll- und Überwachungsaktivitäten zugewiesen wird, sie dadurch überfordert sind und den übergreifenden und unternehmensweiten Aspekt bei Revenue Assurance aus den Augen verlieren. Hinzu kommt, dass sie Anpassungen oft nicht in Einklang mit den sich im Unternehmen ständig entwickelnden Geschäftsfunktionen vornehmen. Revenue Assurance lässt sich in Unternehmen dann optimal durchführen, wenn eine Abkehr von der Do-it-yourself-Strategie vorgenommen wird. Zur Umsetzung einer effizienten Strategie zu Revenue Assurance sollten Unternehmen sich darauf konzentrieren, Kontrollen innerhalb der Geschäftsfunktionen zu delegieren und das Expertenteam mit der Überwachung und Kumulierung ihrer Ergebnisse zu betrauen, um ein Gesamtbild der Situation zu erlangen. Die Suche nach Schwachstellen ist nicht allein die Aufgabe des RA-Teams, sondern sollte gemeinsam mit den Experten des Geschäftsbereichs, die ihr eigenes Spezialwissen einbringen, durchgeführt werden. Das hilft dem Team insofern, als dass es herausfinden und prognostizieren kann, welche Geschäftsbereiche am ehesten von Umsatzeinbußen betroffen sind. Dies hat sich auch als äußerst hilfreich zur Behebung von Schwachstellen erwiesen, da der Definitionsprozess vom Input und der Erfahrung der Experten der Geschäftsbereiche profitiert. Es wird somit leichter, Schwachstellen zu reduzieren, die Anzahl der Prozessüberprüfungen zu erhöhen, um das künftige Auftreten ähnlicher Risiken bestimmen zu können, und solche Risiken, die sich nicht verringern lassen, mittels spezieller Monitoring-Praktiken innerhalb eines akzeptablen Rahmens zu kontrollieren. 46 Detecon Management Report • 1 / 2010 Regel Nr. 3: Definieren Sie Verantwortlichkeiten klar und übertragen Sie diese den Mitarbeitern in Schlüsselpositionen! Als unternehmensübergreifende Thematik ist eine klare Definition der Verantwortlichkeiten – wer macht was und wann – eine unerlässliche Voraussetzung, um die Zusammenarbeit aller beteiligten Geschäftsfunktionen zu fördern. Die in puncto Revenue Assurance zu erzielenden Leistungen müssen Bestandteil der für die Führungskräfte geltenden jährlichen Zielsetzungen sein. Die Realisierung von Revenue Assurance unterliegt nicht der alleinigen Verantwortung des RA-Teams; da alle Geschäftsbereiche potenzielle Quellen für Umsatzeinbußen sind, muss es ein unternehmensweites Anliegen sein. Daher ist das Team kein Funktionsteam, das für die „Reparatur der Schwachstellen“ verantwortlich ist, sondern es ermöglicht den beteiligten Geschäftsfunktionen, ihre jeweiligen Umsatzmanagementprobleme in Angriff zu nehmen. Die Übertragung der Verantwortlichkeiten an die Geschäftsfunktionen ermöglicht es dem RATeam, die Projekte parallel laufen zu lassen und den Umfang der Thematik auszuweiten. Daraus folgt, dass das RA-Team nicht aus reinen RA-Spezialisten besteht, sondern aus gut ausgebildeten Experten mit einem umfassenden Know-how der sich ständig entwickelnden Geschäftsfunktionen innerhalb eines Unternehmens. Der durch Anreize für kontinuierliche Verbesserung gestützte Delegationsansatz wird der einzige Ansatz sein, den es künftig zu verfolgen gilt. Doch die Mitarbeiter, die das RA-Team unterstützen und verantwortlich beim Beheben der in ihren Geschäftsbereichen entdeckten Schwachstellen agieren, müssen die Verantwortung für diese Handlungen übernehmen. Dies ist die einzig mögliche Lösung, um die Anforderung des RA-Teams von einem „Gefallen“ in eine „Verpflichtung“ zu verwandeln und somit zu gewährleisten, dass diese Anforderung so gründlich und schnell wie möglich umgesetzt wird. Um Führungskräfte in sämtlichen Geschäftsfunktionen zu verpflichten, muss Revenue Assurance zum Bestandteil ihrer jährlichen Zielsetzungen werden. Das ist auf jeden Fall eine Entscheidung, die von der Geschäftsführung des Unternehmens gestützt werden muss und bei der die Einbindung der Top-Führungskräfte in diese Thematik eine zentrale Rolle spielt. Den Goldgehalt prüfen Regel Nr. 4: Sparen Sie Ressourcen durch Entwicklung interner Synergien und Wissensaustausch! Wenn Unternehmen die Geschäftsfunktion Revenue Assurance einrichten, tendieren sie zu der Auffassung, dass diese neue Infrastruktur erhebliche Investitionen voraussetzt. Tatsächlich hat die Erfahrung gezeigt, dass dem Unternehmen die meisten Ressourcen zur Durchführung des Revenue Assurance-Prozesses durch die Entwicklung interner Synergien und durch die Beteiligung am Wissensaustausch ohne großen Aufwand verfügbar gemacht werden können. Die meisten nicht personellen Ressourcen für Revenue Assurance – zum Beispiel Workflow-Managementsystem – sind bereits in anderen Geschäftsfunktionen verfügbar und können für den Schwachstellen-Eskalationsprozess genutzt werden. Datenabgleiche können in Zusammenarbeit mit dem IT-Team durchgeführt werden. Weitere ähnliche Initiativen können dazu beitragen, die Overhead-Kosten zu senken und die für Revenue Assurance erforderliche Investition zu verringern. Das Aufspüren und Beheben von Schwachstellen erfordert ein hohes Maß an Know-how. Es ist sinnlos, nach Schwachstellen zu suchen, wenn man nicht weiß, in welchen Bereichen man vorrangig suchen muss. Zeit und Aufwand können gespart werden, wenn die angewandten Korrekturmaßnahmen sich zuvor als erfolgreich erwiesen haben. Zur Optimierung der Aktivitäten zu Revenue Assurance kann ein Unternehmen erheblichen Nutzen aus einer Wissensdatenbank ziehen, in der spezielle RA-bezogene Szenarien – detailliert aufgeführte Fälle in Bezug auf Schwachstellen – und damit verbundene implementierte Kontroll- und Behebungsmaßnahmen erfasst werden. Da die Szenarien für unterschiedliche Unternehmen mit großer Wahrscheinlichkeit relativ gleich sind, vergrößert sich die Datenbank durch einen aktiven, regelmäßigen Wissensaustausch mit externen Parteien. Auch die Beteiligung am Branchen-Benchmarking liefert nicht nur relevante Kennzahlen der RA-Leistung des Unternehmens im Vergleich zu seinen Peers, sondern ebenfalls Updates der aktuellen Kontrollen und KPIs, die in der Branche zur Überwachung der Betriebsabläufe verwendet werden. Darüber hinaus erweist sich das Mitwirken an der Etablierung von Industrienormen für Unternehmen häufig als vorteilhaft, da es eine Plattform zur Diskussion über Praktiken mit anderen Unternehmen liefert, die häufig mit denselben Problemen konfrontiert sind und die es ihnen ermöglicht, die neuesten Entwicklungen innerhalb der RA-Community zeitnah zu verfolgen. Regel Nr. 5: Geld sparen darf nicht die Antriebskraft sein! Da Schwachstellen in jedem Unternehmen in Bezug auf ihre Ursache, Auswirkungen und potenziellen Lösungen stark variieren, ist es wichtig herauszufinden, welche man zuerst in Angriff nehmen sollte. Entgegen der allgemeinen Auffassung, sich zuerst den „tief hängenden Früchten“ zuzuwenden, weil diese einen kurzfristigen Gewinn suggerieren, ist es ratsam, sich auf die Behebung der Schwachstellen zu konzentrieren, die das größte Risiko darstellen. Schwachstellen nach der Vorrangigkeit ihrer Auswirkungen und der Auswirkungen der vorgeschlagenen Lösungen zu beheben, ist von zentraler Bedeutung. Ganz wichtig in diesem Kontext ist, dass man sich von der gängigen Auffassung, nämlich dass Revenue Assurance eindimensional ist und nur die Finanzperspektive betrifft, verabschieden muss. Andere Perspektiven mit geringeren messbaren finanziellen Auswirkungen sind für ein Unternehmen mindestens genauso wichtig. Dazu zählt auf jeden Fall der Erhalt des Kundenstamms. Kundenabwanderung kann unterschiedliche Ursachen haben, beispielsweise der beschädigte Ruf eines Unternehmens oder die Ausstellung überhöhter Rechnungen, die durch Praktiken von Revenue Assurance ebenfalls abgefangen beziehungsweise reduziert werden kann. Sobald die Aktivitäten zu Revenue Assurance in einem Unternehmen etabliert sind, ist es wichtig, außer der Finanzperspektive andere Perspektiven in den Fokus zu rücken, weil erst dann gewährleistet werden kann, dass sich Revenue Assurance nachhaltig auswirkt. In der Tat verhält es sich so, dass es nach Monaten oder Jahren in einem Unternehmen ständig schwieriger wird, Schwachstellen aufzudecken und eindrucksvolle Zahlen über gerettete Umsätze zu produzieren. Die Ursache ist klar: Während des ersten Monats des Betriebes von Revenue Assurance wurden Schwachstellen mit dem größten finanziellen Risiko bereits aufgedeckt und behoben. Praktiken wurden ebenfalls implementiert, um das Auftreten neuer großer Schwachstellen zu verhindern. Somit wird es immer schwieriger, die Auswirkungen des in einem Unternehmen etablierten Revenue Assurance-Prozesses aus finanzieller Sicht zu quantifizieren. Die 47 Detecon Management Report • 1 / 2010 Strategy 48 Detecon Management Report • 1 / 2010 Den Goldgehalt prüfen Bewertung des aus Revenue Assurance resultierenden Nutzens erfolgt dann langfristig über andere Perspektiven wie Qualitätssicherung und Erhalt des Kundenstamms. Da insbesondere in Zeiten starker wirtschaftlicher Schwankungen Telco-Unternehmen einem immer stärkeren Wettbewerbsdruck ausgesetzt sind, wird Revenue Assurance jetzt als eine unumgängliche Maßnahme akzeptiert. Der herkömmliche Ansatz zu Revenue Assurance besteht bei den meisten Betreibern immer noch aus der Überwachung der Transaktionen und entsprechenden Anwendungen, die auf die Aufdeckung der Umsatzeinbußen abzielt. Wie sich gezeigt hat, greift dieser Ansatz zu kurz, da die Betreiber laut Studien nach wie vor einen erheblichen Anteil des Umsatzes einbüßen. Um diesem Trend entgegenzuwirken und um zu gewährleisten, dass Betreiber Revenue Assurance effizient umsetzen, ist ein anderer Ansatz erforderlich, und zwar einer, der nicht nur auf die Vendor-Lösungen und im Übermaß auf technische Aspekte abstellt. Daher ist ein Multi-Level-Ansatz erforderlich, der den strategischen Rahmen für die Festlegung der Aktivitäten zu Revenue Assurance des Unternehmens vorgibt und die betrieblichen Abläufe zur Minimierung der Umsatzverluste regelt. Bei der praktischen Umsetzung dieses Ansatzes kann sich der Rückgriff auf Branchenerfahrungen durchaus als nutzbringend erweisen. Vorstehend haben wir eine Reihe an Regeln aufgestellt, von denen wir glauben, dass sie die Durchführung von Revenue Assurance-Abläufen in Unternehmen erleichtern. Alle Autoren sind Gründungsmitglieder des Detecon „Revenue Assurance and Billing“ Teams: Dr. Olivier Coutand hat auf dem Gebiet der Informations- und Kommunikationstechnologie promoviert. Er ist Experte für Prozessmanagement und Prozess-Design. Seit seinem Eintritt bei Detecon hat Dr. Coutand an zahlreichen Projekten mitgewirkt, die sich auf Revenue Management bezogen. Er hat einen aktiven Beitrag zur Entwicklung des Themas Revenue Assurance geleistet, als Referent an internationalen RA-Foren teilgenommen und neue RA-Funktionen implementiert. [email protected] Jawahar Sajjad verfügt über eine fünfjährige Erfahrung in der Implementierung und im Management zahlreicher RA-Funktionen bei Telco-Providern. Herr Sajjad ist Experte für Revenue Assurance, Fraud Management und Profiling, Credit Management- und Scoring-Systeme, Inkasso, Mahnverfahren und CRM/Billing Audits und verfügt über ein umfassendes Wissen über Geschäftsprozesse und deren Reifegrade. [email protected] Dr. Andreas Amann verfügt über zehn Jahre Berufserfahrung in der Leitung internationaler Projekte bei Telco-Providern und hat seit seinem Eintritt bei Detecon umfassende Erfahrungen in der Implementierung von Revenue Assurance in Zusammenhang mit NG-Services für einen führenden internationalen Carrier gesammelt. Zusätzlich zu seinem Schwerpunkt Revenue Management ist Dr. Amann Experte für CRM, Projektmanagement, Prozess-Design und -Analyse, Total Quality Management und Software-Entwicklung. [email protected] Aktuell steckt Revenue Assurance immer noch in den Kinderschuhen. Es ist noch einiges erforderlich, um die Neuheiten zu meistern, die sich durch die technologische Verlagerung auf NGN und durch ständig komplexere Produkte ergeben haben – insbesondere aus der Billing-Perspektive –, und Revenue Assurance in Unternehmen zu optimieren. Doch angesichts der bereits verzeichneten Erfolge wendet sich die Community bereits neuen Themen wie der Minimierung der Kundenabwanderung, Herabsetzung der Servicekosten durch Outsourcing oder Reduzierung der Auftragsausführungszeiten zu, um höhere Umsätze zu generieren und den Umfang des Revenue Assurance für alle mit dem Umsatzmanagement verknüpften Aktivitäten zu erweitern. 49 Detecon Management Report • 1 / 2010 Organization Mate Balthazar, Stephan Herrel Vom Traum zur Wirklichkeit Effiziente und kundenorientierte Einkaufsfunktionen in globalen Unternehmen Die eigene Wertschöpfungstiefe sinkt, der zugekaufte Anteil steigt an. Die Verantwortung des Einkaufs für die Erreichung der strategischen Unternehmensziele nimmt daher kontinuierlich zu, gleichzeitig ist Kostensenkung gefordert. Auf der Agenda der Einkaufsleiter steht, mit weniger Ressourceneinsatz erfolgreicher zu arbeiten. 50 Detecon Management Report • 1 / 2010 Vom Traum zur Wirklichkeit scharfen Wettbewerbs können Effizienzgewinne Inichtn Zeiten durch eingeschränkten Service erkauft werden. Kunden orientierung wird heute auch für interne Servicefunktionen wie den Einkauf groß geschrieben. Global führende Einkaufsorganisationen nutzen gezielt Maßnahmen zur Effizienzsteigerung, um auch ihre Kundenorientierung zu erhöhen und so die Bedeutung des Einkaufs insgesamt für das eigene Unternehmen zu steigern. Wie lässt sich diese Strategie mit effizienten Organisationsformen und durch exzellente Systemunterstützung umsetzen? Heute investieren, um morgen zu gewinnen! „Wir müssen unsere Einkaufstätigkeiten effizienter gestalten, um unsere internen Kosten zu senken!“. Derartige Empfehlungen hört man heutzutage häufig. Falsch sind sie nicht. Doch sie erfassen nicht das gesamte Bild. Im Gegensatz zu vielen Behauptungen hat eine hohe Einkaufseffizienz bedeutendere Vorteile, als nur interne Kosten zu sparen. Natürlich ist der Kostenfaktor ein Aspekt, auf den gerade in der heutigen Zeit der ökonomischen Flaute mit Argusaugen geachtet wird. Aber Einkaufseffizienz bietet mehr. Hier einige Beispiele: Effizient aufgestellte Einkaufsaktivitäten verringern die Durchlaufzeiten in der Beschaffung. Dies stellt eine höhere Flexibilität sicher und erlaubt schnellere Reaktionen auf externe Nachfrageänderungen oder interne Umsteuerung. Agiert das Unternehmen auf Absatzmärkten mit hoher Wettbewerbsintensität, ist dies entscheidend für den Erfolg. Die optimierte Abwicklung der Einkaufs- und zugehörigen Zahlungsaktivitäten (Procure-to-Pay) ermöglicht eine Free Cash Flow-Optimierung. Eine wichtige Kennzahl, die Grundlage für Analystenbewertungen ist und über Schicksal des Unternehmens entscheiden kann, wird damit direkt vom Einkauf beeinflussbar. Einkaufseffizienz ist in der Regel begleitet von Prozessautomatisierung und sichert so eine hohe Qualität von Transaktionssowie Stammdaten und stellt eine hohe Transparenz sicher. Dies ist für strategische Entscheidungen von höchster Wichtigkeit. Die Transparenz erhöht zudem die Planungssicherheit bei den Lieferanten. Insgesamt sinken dadurch die Kosten entlang der gesamten Supply Chain, beispielsweise für Lagerhaltung, so dass vorteilhafte Konditionen wie geringere Einstandspreise und verlängerte Gewährleistungspflichten ausgehandelt werden können. Schließlich wird die Motivation in der Beschaffung stark von der Effizienz beeinflusst. Ist der Einkaufsprozess langsam, mit Fehlern behaftet und sehr ressourcenaufwendig, so sinkt die Zufriedenheit der Fachabteilungen. Ihre Beschwerden und Kritik resultieren in einer stetigen Verringerung der Motivation der Einkäufer. Die sich daraus ergebenden Effizienzeinbußen führen zu einem Teufelskreis, aus dem der Ausbruch nur sehr schwer gelingen kann. Einkaufseffizienz bedeutet also mehr als Kosten zu sparen. Sie ist eine Kernfähigkeit, die dem Unternehmen zu strategischen Wettbewerbsvorteilen verhilft. Heute ist der Satz „Make more with less!“ wohl häufiger zu hören denn je, und eine wirkungsvolle Vorgehensweise zur Realisierung von Effizienzsteigerungen wird besonders wichtig. Dabei sind in den meisten Einkaufsorganisationen die „low hanging fruits“ bereits geerntet. Somit lässt sich die Effizienz nur durch strategisch angelegte, mittelund langfristige Maßnahmen signifikant heben. Ein „Shared Service Center“ als Alleskönner und Allheilmittel? Beim Schlagwort „Shared Service Center“ (SSC) läuten häufig immer noch die Alarmglocken. Erinnerungen an – oftmals gescheiterte – Outsourcing-Projekte und Fragestellungen rund um „Make-or-buy“ werden wach. Allerdings gibt es zwischen SSC und Outsourcing einen entscheidenden Unterschied: Die Schnittstelle zwischen den agierenden Personen verbleibt beim SSC im eigenen Hause. Dies hat massive – positive – Auswirkungen auf die Implementierbarkeit. Anforderungen an die Reife der Organisation und die Prozesse sind beileibe nicht so hoch wie bei einem kompletten Outsourcing. Obwohl die Gründung eines SSCs nicht automatisch die meisten internen Probleme löst, kann sie mittels guter Vorarbeit durchaus zu einem wirkungsvollen Alleskönner und Allheilmittel gegen Ineffizienzen im Unternehmen werden. 51 Detecon Management Report • 1 / 2010 Organization Shared Service Center (SSC) – was ist das? Typischerweise lassen sich weitgehend standardisierte Dienstleistungen, auf die eine Vielzahl von Mitarbeitern des gesamten Unternehmens zugreift, gut zusammenfassen. Ebenso eignen sich SSCs zur Bündelung von dezentralen Standorten, an denen zentrale Leistungen erbracht werden. Detecon versteht unter dem Begriff „Shared Service Center“ die konsequente Bündelung innerhalb der eigenen Unternehmensstrukturen zu einer Zentraleinheit mit Services für das ganze Unternehmen. Die Überführung der Dienstleistungen in ein SSC wird in aller Regel von effizienzsteigernden Maßnahmen wie Prozessharmonisierung und Automatisierung begleitet. Typische Beispiele für SSCs sind: Zentraler Einkauf, Zentrale Buchhaltung, HR-Abteilung, Reporting. Grundsätzlich stellt sich die Frage: „Was soll das SSC leisten und was nicht?“ Der Umfang der Services muss klar definiert werden als eine der wesentlichen Grundlagen für nachhaltige Akzeptanz und Erfolg der neuen Einheit. Nach unseren Projekterfahrungen ist die Gründung eines SSCs im Einkauf für den operativen Bereich am erfolgversprechendsten. Der operative Bereich ist – im Vergleich zum strategischen Sourcing – stark durch repetitive Tätigkeiten und gut systemunterstützbare Aufgaben gekennzeichnet. Ebenso zeigt sich, dass die Bündelung der vielfach dezentral ausgeübten Tätigkeiten einen deutlichen Schub hinsichtlich Effizienz durch Harmonisierung bringt. In einem aktuellen Projekt haben wir festgestellt, dass identische Prozesse häufig standortspezifisch ausgeprägt sind, obwohl es eigentlich keinen Grund dafür gibt. Beispielhaft sei hier der operative Bau- leistungseinkauf bei einem Global Player genannt. Am Standort A wurden die Aufträge immer als „Turnkey-Projekt“ mit einem Generalunternehmer und am Standort B immer an ein Konsortium mit mehreren Vertragspartnern vergeben, obwohl in beiden Fällen die zentralen Vorgaben gleich waren. Konkret eignen sich die operativen Bestellabwicklungsprozesse (Procure-to-Pay), die operative Betreuung der Schnittstelle zum Lieferanten oder das Stammdatenmanagement besonders gut für Kernleistungen eines SSCs „operativer Einkauf“. Bei der Konzeption sollte vor allem auf diese Kernleistungen ein besonderes Augenmerk gerichtet werden, denn an diesen Services wird der Erfolg der Transformation und somit der Projektverantwortliche hinterher gemessen werden. Der rote Faden zu guten Kernleistungen lässt sich einfach strukturieren: Analyse der gesamten Prozesse, die potentiell im SSC abgewickelt werden könnten, Selektion der Leistungen in- und out of Scope, Prozessredesign hin zu Best-in-Class-Prozessen für die Kernservices, Definition von Schnittstellen und ServiceLeveln, Dienstleistungsbeschreibungen, Festlegung von Kennzahlen (KPI-Set), Anpassung der IT-Systeme, Planung und Neuausrichtung der Organisation, Schulung der Kernservices, Change Management, kontinuierlicher Verbesserungsprozess. Zusammengefasst lässt sich festhalten, dass die Gründung eines SSC für den operativen Einkauf als eine zentrale, mittelfristige Maßnahme zur Erhöhung der Einkaufseffizienz prädestiniert ist. Sie eignet sich besonders für mittlere bis große, eher dezentral Abbildung 1: Beispielhafter Leistungskatalog eines „SCC operativer Einkauf“ Weitere Leistungen (optional) • Sonderausgaben • Beratung bei eAuctions • Beratung bei der Katalogerstellung Kernleistungen • Operativer Bestellabwicklungsprozess (Purchase-to-Pay – P2P) • Operatives Supply (Chain) Management • Stammdatenmanagement • Zentraler User- und- Lieferanten-Helpdesk • Reporting • Erstellung von Sonderreports Quelle: Detecon 52 Detecon Management Report • 1 / 2010 • Operatives Category Management • Ausarbeitung von strategischen Vorgehensmodellen • Führen von strategischen Verhandlungen zur Abfederung von Arbeitsspitzen Vom Traum zur Wirklichkeit aufgestellte Unternehmen beziehungsweise für Organisationen, die durch Zukäufe gewachsen sind. Neben der Bündelung (Skaleneffekte) greift hier besonders der Effizienz-Hebel „Harmonisierung der Prozesslandschaft“. Bei gewissenhafter Vorbereitung kann das Projekt in gut einem Jahr umgesetzt werden und dabei Effizienzen bis zu 30 Prozent heben. Effizienz oder Kundenorientierung? Global Leader schaffen beides! Kaum ist das SSC erfolgreich implementiert, wird häufig Kritik laut: „Super Effizienz-Kennzahlen, aber trotzdem war früher alles besser“. Solche Aussagen sind im Rahmen von Veränderungsprozessen verständlich, im Fall der Gründung von SSCs „Operativer Einkauf“ sind diese in aller Regel auf unzureichende Kundenorientierung bezogen. Aus dem Projektalltag kennen wir interne Aussagen von Kunden des Einkaufs, wie zum Beispiel: „Früher konnte ich immer Herrn Müller anrufen, wenn es um meine BANF* ging – heute ist es jedes Mal eine andere Person, die mich berät“. Allzu schnell ist die Diskussion auf die plakative Ebene „Effizienz oder Kundenorientierung – beides kann ja nicht gehen“ abgeglitten. Global Leader stellen diese Widersprüche vom Kopf auf die Füße und nutzen die Stärken der neuen Organisationsform sowohl zur Steigerung der Effizienz als auch zur Erhöhung der Kundenorientierung. Wie man dies erfolgreich tut, zeigen die folgenden ausgewählten Projektbeispiele: Self-Service Procurement und räumliche Trennung von Bedarfsträger und operativem Einkauf senken die Qualität in der Beschaffung Auf den ersten Blick erscheint dies logisch: Der Bedarfsträger hat eine neue, unbekannte Schnittstelle – meist ein IT-Tool –, um seinen Bedarfswunsch zu artikulieren. Hier treten typische Phänomene wie Kommunikationsdifferenzen, fehlendes IT Knowhow oder aber auch schlicht Veränderungsresistenz auf. Oftmals liegt der Schlüssel zur Kundenorientierung in der Verbesserung mangelhafter Ergonomie der Nutzer-Schnittstellen. Als oberste Maxime kann „Die Eingabemaske ist erst gut, wenn sie jeder auf Anhieb benutzen kann!“ ausgesprochen werden. Zusammen mit den Entwicklern, der Fachseite und ausgewählten Bedarfsträgern sollte hierzu im Vorfeld bereits eine Arbeitsgruppe gebildet werden. Besonders hilfreich haben sich interaktive Elemente erwiesen, die den Bedarfsträger Schritt für Schritt zum Ziel seiner Bestellung führen. Es muss betont werden, dass der Anforderer beispielsweise nicht für die korrekte Auswahl einer Warengruppe verantwortlich gemacht werden kann, wenn ihm das System nicht eine ausreichende Unterstützung dazu liefert. Clever eingesetzte Mini-Applikationen leisten hier wahre Wunder und wirken enorm distanzverkürzend. Und nebenbei hat der Einkauf die Qualität der BANFen weiter gesteigert, ohne dass die Hotline oder der Einkäufer kontaktiert werden musste. Am Rande sei angemerkt, dass es in aller Regel hier immer Anfangsschwierigkeiten gibt, die sich aber nach den ersten paar Bestellungen aufgelöst haben, da beide Seiten wissen, was zu tun ist (Lernkurveneffekte). Im Optimum treten diese gar nicht auf, da die IT selbsterklärend gestaltet ist. Die Einkaufs-Hotline – wieder ein Call-Center wie jedes andere? Mitnichten sollte die Einkaufshotline ein Call-Center wie jedes andere sein – oder wünschen wir uns verärgerte Kunden und steigende Einkaufsumgehungsraten? Beim Rückzug aus der Fläche muss die physische Distanz kompensiert werden. Neben den beschriebenen Ansätzen zur Verbesserung der Schnittstelle muss es allerdings auch für den Fall der Fälle kompetente Hilfe beziehungsweise Unterstützung geben. Die Probleme sind vielfältig und thematisch breit gefächert. Mal ist es nur eine Frage, ein Hinweis, der wichtig ist, aber nicht „Prio A“ hat. Oder es handelt sich eben um ein akutes Problem in einer Bestellung mit hoher Dringlichkeit für den „internen Kunden“. Kann in diesem Fall nicht schnell und zielgerichtet geholfen werden, wird die Reputation des operativen Einkaufs durch die – vermeintlich schlechte – Hotline nachhaltig beschädigt. Auf Grund dieser breiten Fächerung empfiehlt sich der hierarchische Aufbau der Hotline. Es sollte ein First-Level-Support mit hoher Lösungsrate durch eine gute Knowledge-Datenbank und einem Ticketsystem vorhanden sein, bei dem der Anrufer wirklich ein Feedback bekommt, unterstützt durch eine Art Helpline, bei der sich bei Bedarf der Agent direkt auf den Rechner des Anrufers aufschalten kann. Unsere Projekterfahrung zeigt, dass viele der „Prio A Probleme“ rein bedientechnischer Natur sind und – viel wichtiger – nicht warten können, da es Probleme sind, die den Nutzer an der weiteren Arbeit hindern. Hier sei angemerkt, dass solch eine Hot- und Helpline zwar zunächst Kosten verursacht, aber trotz räumlicher Distanz deutlich mehr Kundenorientierung bieten kann als der oft angeführte Klassiker: „Ich hätte besser mal den Einkäuferkollegen um die Ecke gefragt, der hätte mir bestimmt geholfen“. Dieser ist im Gegensatz zum Telefon nicht immer greifbar – die Hot- und Helpline hingegen sollte arbeitstäglich besetzt sein. * BANF = Bedarfsanforderung (papierbasierte oder elektrische Beschreibung des Beschaffungsbedarfes) 53 Detecon Management Report • 1 / 2010 Organization Kostengünstige und effiziente Kundenorientierung ist auch Kommunikation: Tue Gutes und sprich darüber! Effizienz und effizientes Handeln sind oftmals durch viele kleine Verbesserungen an unterschiedlichen Stellen im gesamten Prozess geprägt. Bei einer zentralen Organisation wie einem SSC und dezentralen Kunden, den Bedarfsträgern, passiert es all zu leicht, dass Gutes getan, aber nicht kommuniziert wird. Die „internen Kunden“ in der Fläche freuen sich bestimmt über die (beispielhaft) erdachte Verbesserung im IT-System – in aller Regel möchten sie aber trotzdem vorher wissen, was die Zentrale zu ändern gedenkt. Die Distanz sollte auch hier immer wieder reflektiert werden. Bedarfsträger sollten von Anfang an mit ins Boot, gute Erfahrungen lassen sich auf Einkaufs-Systemtagen, Sekretariatsforen, Anwendertagen und Hausmessen sammeln. Darüber hinaus sollte regelmäßig und zielgruppenspezifisch per Newsletter, Blog oder Systemnachricht kommuniziert werden, um Aktivität, Präsenz und Kundenorientierung zu zeigen. Denn Effizienz beginnt an dieser Stelle schon lange bevor die Maßnahme aktiviert wird und mündet in Kundenorientierung, wenn der Anwender von der Maßnahme weiss, bevor er sie erfährt oder erlebt. Die dargestellten Praxisbeispiele zeigen, wie die Kombination von Effizienz und Kundenorientierung gelebt werden kann. Der nachfolgende Absatz widmet sich einer ganz anderen Methode, um die beiden Faktoren in Einklang zu bringen – dem „katalogbasierten Einkaufen“. Einkaufseffizienz mit Kundenorientierung – Katalogbasiertes Einkaufen als Schlüssel zum Erfolg! Kundenorientierung und Effizienz sind nicht zwingend gegenläufige Ziele. Sie lassen sich mit geschickten Mitteln durchaus beide realisieren. Ein Beispiel aus dem operativen Einkauf liefert hierfür der optimale Einsatz von elektronischen Lieferantenka- talogen. Diese sind systemunterstützte Darstellungen von Lieferantenprodukten, ähnlich wie in einem gewöhnlichen Shop im Internet. Während gemeldete Bedarfe an nicht-katalogisierten Produkten in der Regel zu unspezifisch sind und folglich Nachfragen durch den Einkäufer bei dem Bedarfsträger erforderlich werden, muss der Bedarfsträger in einem Katalogsystem genau angeben, was er wann und von welchem Vertragspartner benötigt. Durch die Nutzung von Lieferantenkatalogen wird also die operative Tätigkeit der Bedarfsspezifizierung, wie Beschreibung oder Zuordnung zum bestehenden Rahmenvertrag, genau dorthin verlagert, wo das für ihre Durchführung notwendige Wissen tatsächlich vorliegt, nämlich weg von dem Einkauf zu dem Bedarfsträger. Nachfragen erübrigen sich, das damit einhergehende Fehlerrisiko wird beseitigt. Gleichzeitig verringern sich die Durchlaufzeiten, und die Zufriedenheit des internen Kunden steigt. Die Vorteile des Katalogmanagements sind mittlerweile wohl keinem Einkäufer mehr unbekannt. Umso interessanter ist, dass lediglich einige Einkaufsorganisationen einen ausreichend hohen Reifegrad in diesem Umfeld erreicht haben. Nur wenige Global Leader haben es bis dato geschafft, in mindestens 90 Prozent ihrer Materialgruppen, inklusive komplexer technischer Produkte und Dienstleistungen, Kataloge einzuführen und dadurch bis zu 70 Prozent aller manuellen Tätigkeiten zu eliminieren. Global Leader haben im Gegensatz zu durchschnittlichen Organisationen eine hohe Abdeckung der bestellbaren Lieferantenprodukte durch Kataloge erreicht, indem sie auf ausgewählte Erfolgsfaktoren fokussieren: Sie verfolgen stringent das Ziel, alle Materialien, deren Bestell anzahl einen festgelegten Wert überschreitet, zu katalogisieren – und zwar ohne Ausnahmen. Bei Produkten, bei denen Abbildung 2: Funktion von intelligenten Formularen im Katalogmanagement Ausgangssituation Funktion intelligenter Formulare • Bedarfsträger können dem gemeldeten Bedarf alle einkaufsrelevanten Informationen beifügen. Ich habe meinen Bedarf gemeldet. Prozessoptimierung mit intelligenten Formularen Ja, aber ich brauche noch folgende Angaben… Ich habe meinen Bedarf gemeldet. …habe das Material konfiguriert… • Das benötigte Material kann flexibel konfiguriert werden. • Es sind keine Rückfragen durch den Einkäufer notwendig. Bedarfsträger Quelle: Detecon 54 Detecon Management Report • 1 / 2010 Einkäuferin Bedarfsträger …und habe es ohne lästige Nachfragen bekommen! Vom Traum zur Wirklichkeit dies aufgrund der Komplexität zunächst unmöglich erscheint, setzen sie konsequent intelligente Formulare ein. Das sind „Dialog-Menüs“, die den Bedarfsträger bei der Auswahl seines Materials unterstützen und strukturiert alle bestellrelevanten Informationen bezüglich der gewünschten Konfiguration abfragen. Diese Angaben werden in die Bestellung automatisch übernommen und an den Lieferanten übermittelt, ohne dass ein Einkäufer mitwirken muss. Dadurch können zum Beispiel auch Visitenkarten mit hoher Qualität und geringer Fehlerquote einfach aus Katalogen bestellt werden. Die intelligenten Formulare helfen hier, Unternehmensangaben und Layout nach CI/CDVorgaben umzusetzen, ein Ansichtmodus ermöglicht dem Bedarfsträger ein Preview seiner Visitenkarte vor der Bestellung, um gegebenenfalls noch Änderungen rechtzeitig vornehmen zu können. Prüfschritte im Einkauf können somit entfallen. Global Leader setzen zudem auf die Nutzerfreundlichkeit der Katalogapplikationen. Nur auf diese Weise werden die Bedarfsträger die Kataloge im Sinne von „Self Service Procurement“ tatsächlich nutzen und nicht direkt Kontakt zum Einkäufer aufnehmen. Dabei stellen sie sicher, dass ein gut funktionierender und lernfähiger Suchalgorithmus eingesetzt wird. Zudem achten sie darauf, dass alle Bearbeitungsmasken stets nach derselben Logik aufgebaut sind und eine intuitive Nutzerführung ermöglichen. Global Leader gewährleisten die Aktualität und Validität ihrer Katalogdaten, indem sie beim Aufbereiten ihrer Katalogdaten die meisten Arbeitsschritte mittels spezieller Software-Lösungen automatisieren. Prozessschritte, die nur manuell durchzuführen sind, werden an die jeweils zuständige Stelle delegiert. Mittels elektronischer Abläufe (Workflows) stellt der Lieferant relevante Produktinformationen in das System ein und die Finanzbuchhaltung reichert die Artikel mit den zugehörigen Sachkonten an. Im Vergleich zu durchschnittlichen Organisationen verwirk lichen Global Leader durch den Einsatz eines derartig aufgebauten Katalogsystems einen Effizienzvorteil von zirka 30 Prozent und erreichen eine um 45 Prozent höhere Kundenzufriedenheit. Der richtige Mix macht’s: Shared Service Center-Gründung mit kurzfristigen Effizienzmaßnahmen kombinieren Erfahrungen in mehreren Optimierungsprojekten haben gezeigt, dass die meisten Unternehmen, die ihre Einkaufseffizienz ausschließlich mittels einer SSC-Gründung heben wollten, in der Umsetzung mit zahlreichen Problemen konfrontiert wurden. Zwar sind bei einem gut strukturierten Projekt sowie bei Beachtung der Erfolgsfaktoren erhebliche Potenziale realisierbar, jedoch sind Projekte zur Einführung und Aufstellung eines SSC in der Regel langwieriger als die vorgegebene Umsetzungszeit durch die Unternehmensleitung. Dagegen sind Planung und Umsetzung kleinerer, wirksamer Automatisierungsmaßnahmen schneller, bewirken jedoch am Ende des Tages nicht den gewünschten Gesamteffekt. Wie können Einkaufsleiter die Effizienz im Einkauf dann aber signifikant und nachhaltig steigern? Die Antwort ist die Kombination der beiden Maßnahmenfelder: die Gründung einer SSC verknüpft mit einzelnen, kurzfristigen Effizienzmaßnahmen wie Katalogisierung von Lieferantensortimenten und Automatisierung der Lieferantenkommunikation. Auf diese Weise können bereits nach wenigen Wochen erste Erfolge gefeiert werden. In regelmäßigen Abständen können weitere Erfolge bis zum Ende des Gesamtprogramms aufgezeigt werden, was Motivation sowie Commitment des Managements aufrecht erhält. Die Investition von Ressourcen in die Maßnahmenumsetzung lohnt sich, und die Einkaufseffizienz wird wesentlich erhöht. Mate Balthazar studierte Betriebswirtschaftslehre in Deutschland und Irland. Er ist seit 2005 bei Detecon tätig und verfügt über umfassende Expertise in der End-to-End Optimierung von Prozessen im operativen und strategischen Einkauf. Besondere Schwerpunkte seiner Arbeit bilden die Entwicklung und Umsetzung von Konzepten zur Integration von Prozess- und Applikationsstrategien in der Beschaffung. [email protected] Stephan Herrel befasst sich seit 2005 intensiv mit dem Thema Effizienz und Strategie im Einkauf. Als Senior Consultant in der Gruppe Supply Management liegen seine Schwerpunkte auf der Optimierung von Prozessen, der richtigen Einkaufsstrategie und dem Organisationsaufbau. Er ist Diplom-Wirtschafts ingenieur und hat vor seinem Wechsel zu Detecon unter anderem im Einkauf in der Telekommunikationsindustrie gearbeitet. [email protected] 55 Detecon Management Report • 1 / 2010 Organization Wilfried Kessler, Jörg Hermes Interview mit Dr. Stefan Schloter, CIO der T-Systems International GmbH Hochsaison Krisenzeiten sind gute Zeiten für IT-Effizienzprogramme Die Wirtschaftskrise ist da. Umsätze schrumpfen und Kundenaufträge brechen weg. Während die deutsche Wirtschaft schwächelt, erleben Sanierer, Kostensenker und Prozessoptimierer in diesen Tagen einen Boom. Jedes Unternehmen muss kostenbewusst denken und sparen und die interne Effizienz steigern. 56 Detecon Management Report • 1 / 2010 Hochsaison as Thema IT-Kostenoptimierung hat in der aktuellen D Krisendiskussion auf breiter Front wieder stark an Bedeutung gewonnen. Es ist davon auszugehen, dass diese Entwicklung mit dem Sichtbarwerden der Auswirkungen der Wirtschaftskrise noch weiter zunimmt. Die Treiber hierfür sind erkennbar durch die sich bereits abzeichnende Konjunkturabschwächung und den Anstieg der Arbeitslosigkeit, die trotz des Preisrückgangs relativ hohen Rohstoff- und Energiepreise und den seit längerem spürbaren Kostendruck durch den globalen Wettbewerb. Die genannten Faktoren betreffen an sich zwar nicht unmittelbar die so genannten Support- beziehungsweise indirekten Bereiche, üben aber insgesamt Druck zur Kostenoptimierung aus. Die Kundenzufriedenheit in den indirekten Bereichen ist sowohl hinsichtlich des Kostenniveaus als auch bei der Transparenz und Steuerbarkeit der Kosten deutlich niedriger als in direkten Bereichen. Agieren statt reagieren Der Anteil der indirekten Kosten und damit einhergehend die Priorität, welche der Kostenoptimierung indirekter Bereiche zugewiesen wird, steigt mit der Unternehmensgröße. Der ITVerantwortliche hat in Krisenzeiten keinen guten Stand im Unternehmen, jede größere Ausgabe landet auf dem Prüftisch. Vor allem der CFO nimmt dem CIO immer mehr Verantwortung ab. Oft verliert der IT-Bereich in der Wirtschaftskrise auch an strategischem Einfluss im Unternehmen. Vielfach heißt die Strategie in der Krise „Sparen in altbewährter Weise“, wozu Maßnahmen zählen wie Personalabbau, Restrukturierung, Konsolidierung und Einstellungsstopp. Doch sind die altbewährten Maßnahmen noch zeitgemäß? Nach neueren Erkenntnissen erzielen solche Maßnahmen nur kurzfristig Wirkung. Erfolgreiche Unternehmen sind langfristig orientiert und können in Krisen agieren statt reagieren. Oft ist ein antizyklisches Verhalten zu beobachten: Während alle anderen die Personalkosten reduzieren, optimieren erfolgreiche Unter nehmen trotz Krise ihre Serviceprozesse und stellen qualifiziertes Personal ein. Dadurch wird ein Beitrag geleistet für mehr Wachstum und Schaffung einer sicheren Wettbewerbsposition für die Zukunft. Die Erfolgsstrategie des CIO stützt sich dabei mehr und mehr auf ein vorausschauendes und permanentes Effizienzmanagement, das die indirekten Kosten nachhaltig senkt und erforderliche Spielräume für die Gestaltung wertschöpfender Services für das Unternehmen schafft. Die Rolle des Effizienzmanagements ist daher in die Ziel- und Budgetplanung mit einzubinden. In der Folge ist ein Effizienzprogramm dafür verantwortlich, dass Maßnahmen hinsichtlich ihrer Effizienzwirkung durchgängig von der (internen) Kundenseite bis zum Lieferanten betrachtet werden. Beim Aufbau eines Effizienzmanagement-Programms sind sowohl strategische als auch operative Maßnahmen zu berücksichtigen (vergleiche Abbildung). Mit den strategischen Maßnahmen werden die Leitplanken für künftige Investitionen und längerfristige Prozessänderungen gesetzt, wohingegen operative Maßnahmen auf kurzfristige Erfolge abzielen. Erfolgreiche Effizienzprogramme sind an umfassende Voraussetzungen gebunden Essenziell für ein IT-Effizienzprogramm ist ein professionell organisiertes Programmmanagement. Dieses muss zum einen die Aktivitäten der Effizienzmanager steuern und die mit den Effizienzmaßnahmen verbundenen Planwerte im Überblick behalten. Zum anderen muss es die Einhaltung vorher festgelegter Leitlinien gewährleisten und für die frühzeitige Kommunikation des Programms im Unternehmen sorgen. Die Leitlinien müssen vor Programmbeginn definiert werden und ein Scope Statement, strategische und operative Ziele, Grundsätze, die Programmaufbauorganisation sowie Rollenbeschreibungen enthalten und vom Lenkungsausschuss bestätigt werden. Ein Grundsatz könnte beispielsweise sein, dass Maßnahmen, die lediglich auf die Verrechnung zwischen internen Einheiten wirken, nicht als Effizienzmaßnahmen gelten. Die Regel würde somit lauten, dass nur Maßnahmen, die eine Wirkung an der „Außenkante“ zeigen, zu berücksichtigen sind. 57 Detecon Management Report • 1 / 2010 Organization Zur Sicherung des Programmerfolgs sind darüber hinaus regelmäßige Treffen wichtig, um den Programmfortschritt für alle Teilprogrammleiter nachvollziehbar zu machen sowie Probleme, die unter Umständen mehrere Teilprogramme betreffen, zu besprechen und gegebenenfalls Gegenmaßnahmen einzuleiten. Die Teilprogrammleiter sollten mit ihren Maßnahmenmanagern ebenso regelmäßige Treffen durchführen, um den Fortschritt des Teilprogramms darstellen sowie Probleme frühzeitig adressieren zu können. Dies ist besonders wichtig in großen Unternehmen, die aus einer Vielzahl von juristisch eigenständigen Einheiten bestehen beziehungsweise über Profitcenter Leistungen verrechnen. Um die Aktivitäten der Effizienzmanager im Blick zu behalten, empfiehlt es sich, diese durch externe Ressourcen zu unterstützen. Eine Unterstützung muss die Analyse und Validierung von Potenzialen, deren Dokumentation in Business Cases, die Identifizierung und Umsetzung von Maßnahmen, die Dokumentation von Maßnahmen und deren Planwerten für ein Reporting sowie die Prüfung bezüglich der Erfüllung formaler Kriterien zur Anpassung der Fortschrittsstufe umfassen. Ein mit Sorgfalt besetzter Lenkungsausschuss ist ein weiterer kritischer Erfolgsfaktor. Hierbei ist es ratsam, aus allen potenziell betroffenen juristischen Einheiten einen Vertreter zu benennen, um Konflikte effizient beilegen zu können. Dies ist insbesondere dann wichtig, wenn bei einzelnen Maßnahmen der Kostendruck von einer Einheit an eine andere Einheit weitergegeben wird. Zur Wahrung des Überblicks über die Planwerte und Steuerung des Programms ist eine Toolunterstützung unentbehrlich. Wichtig ist hier, dass das Tool mit einem Dokumentenmanagementsystem kombiniert wird. Dies gewährleistet, dass nur eine gültige Version der Maßnahmendokumentation existiert. Diese Gewährleistung der Datenkonsistenz ist umso wichtiger, je mehr Teilprogramme das Programm umfasst. Nicht zuletzt ist eine ausgeklügelte Reportinglogik von Nöten, um den Lenkungsausschuss und weitere Unternehmensbereiche Abbildung: Strategische und operative Aspekte eines Effizienzprogramms • Programm Manager • Steering Committee • Effizienz Strategie & Setup Menschen • Scope • Ziele • Prinzipien • Rollen Kommunikation Regeln • Programm • T-Systems • Prinzipien • Stakeholder Tools • Programm Manager • Steering Committee • Effizienz Quelle: Detecon 58 Detecon Management Report • 1 / 2010 Implementierung & Realisierung Hochsaison realistisch über den Programmfortschritt informieren zu können. Falsche Erwartungen sollten dabei unbedingt vermieden werden. Um dies zu erreichen, sind Maßnahmen in den ersten Fortschrittsphasen durch einen Risikofaktor zu relativieren. Auf diese Weise kann der Wegfall von Potenzialen mit zunehmendem Härtegrad relativ leicht abgefedert werden. Weiterhin ist in einem Reporting deutlich darzustellen, dass die Potenziale von Maßnahmen, die die letzte Fortschrittstufe erreicht haben, nicht sofort komplett wirksam werden. Dies resultiert in Anlaufkurven, die bei einer Planung gegen einen relativ nahen Termin zu bedenken sind. Vorgehen mit Plan Zur korrekten Darstellung des Programmfortschritts ist eine differenzierte Betrachtung der Maßnahmen mit deren Planwerten notwendig. Diese Betrachtung muss das Risiko der Maßnahmen möglichst realitätsgetreu widerspiegeln. So können die Maßnahmen beispielsweise in fünf Fortschrittsphasen, auch Stages genannt, kategorisiert werden. Diese Kategorisierung wird als Härtegradmethodik bezeichnet. Die erste Phase dient zur Identifizierung und umfasst die Beschreibung der Maßnahme, die Durchführung einer initialen Analyse und die Bezifferung des Einsparpotenzials. Als Faktor, mit dem das Risiko der Maßnahme dargestellt wird, empfiehlt sich der Wert drei. Dieser Wert unterstellt, dass die Wahrscheinlichkeit der erfolgreichen Umsetzung der Maßnahme 33 Prozent beträgt beziehungsweise 33 Prozent des angesetzten Potenzials tatsächlich realisiert werden. Das Ziel der zweiten Phase ist die Verifizierung der Maßnahme und die Herbeiführung einer Entscheidung für oder gegen die Umsetzung. Dazu ist ein Maßnahmenmanager zu benennen, ein Business Case zu erstellen, der externe und interne Ressourcenbedarf abzuschätzen und schließlich das Einsparpotenzial durch den Effizienzmanager zu bestätigen. In dieser Phase sollte der Risikofaktor zwischen 2 und 1,5 festgelegt werden. In der dritten Phase ist die Maßnahme im Detail zu planen. Nun muss die Lösung zur Umsetzung der Maßnahme konzipiert werden. Darüber hinaus müssen von der Maßnahme betroffene Stakeholder identifiziert und informiert und das Budget geplant und beantragt werden. Als Risikofaktor für diese Phase empfiehlt sich ein Wert zwischen 1,5 und 1,2. In Phase vier wird die Maßnahme umgesetzt und der Fortschritt der Umsetzung dokumentiert. Zunächst müssen daher die externen und internen Ressourcen beauftragt und ein Umsetzungs-Workshop durchgeführt werden. Gegebenenfalls ist zur Umsetzung auch eine Anpassung von Prozessen und Verträgen sowie der Kostenverrechnung notwendig. Abschließend muss in dieser Phase der Effizienzmanager die Kostenreduktion bestätigen und kommunizieren. Der Risikofaktor dieser Phase sollte 1,1 betragen, da nun die Wahrscheinlichkeit, dass identifizierte Potenziale nicht realisiert werden, stark gesunken ist. Ziel von Phase fünf ist der Nachweis der finanziellen Wirksamkeit durch das Controlling. Zur Finalisierung der Maßnahme muss deshalb ein Nachweis über die Einsparung angefordert und an das Controlling zur Prüfung und Bestätigung übergeben werden. Maßnahmen, die diese Phase durchlaufen haben, können schließlich mit vollem Wert im Programm angerechnet werden. Viele erfolgreiche Maßnahmen sind schnell umsetzbar Im Fokus eines Effizienzprogramms liegt in der Regel die dauerhafte Reduktion der IT- und Prozessausgaben vor einmaligen Maßnahmeneffekten. Über die strategischen IT KPIs für den Fachbereich wird der Erfolg des Programms gemessen. Als große Handlungsfelder empfehlen sich unter anderem die folgenden Bereiche: 1. Applikationsmanagement und -betrieb: Konsolidierung und Rückbau von Systemen, Effizienzsteigerung im Application Service Management sowie im Service- und Help-DeskBereich. 2. Arbeitsplatzsysteme (APS) und Netzinfrastruktur: Anpassung der Anzahl und Ausstattung der APS und Lizenzen an den Bedarf, getrennt nach Frontend, Backend und Netzinfrastruktur. 3. Managementkosten: Optimierung der Lieferantenverträge, beispielsweise für externes Projektpersonal und Flächenoptimierung an den IT-Standorten. Sicherheit, Verfügbarkeit, Leistung, Skalierbarkeit – all das sind wichtige Punkte bei der Optimierung des Applikationsbetriebs. 59 Detecon Management Report • 1 / 2010 Organization 60 Detecon Management Report • 1 / 2010 Hochsaison Doch genauso wichtig sind für Unternehmen Kostenreduzierungen. Im Handlungsfeld Applikationsmanagement muss das Programm zum einen interne Effizienzmaßnahmen wie die Zusammenführung von IT-Systemen und die Optimierung der Ticket-Prozesse umfassen. Zum anderen empfiehlt es sich, Dienstleistungen für teure SAP-Service-Requests durch Kooperation mit den Fachbereichen zurückzuverlagern und verstärkt auf Key User-Konzepte zu setzen. Darüber hinaus ist es ratsam, mit den Serviceprovidern in Gesprächen und Verhandlungen die Preise im Leistungskatalog unterjährig anzupassen. Die benötigten SLAs und Skillmixes sind hier ebenso zu berücksichtigen wie die Ergebnisse der Analyse der Marktpreisentwicklungen. Hinsichtlich der Arbeitsplatzsysteme liegt das Ziel in der Schaffung kosteneffizienter und zukunftsorientierter PC-Arbeitsplätze im Unternehmen. Mehr als 80 Prozent aller Kosten eines ITArbeitsplatzes fallen im Betrieb an. Durch hoch standardisierte Services lassen sich diese Kosten nachhaltig senken. Weitere Optimierungspotenziale im Backend und Clientbereich liegen im Abbau beziehungsweise der eingeschränkten Bereitstellung von Softwarelizenzen und Administratorrechten. Damit die Effizienzwirkung der Standardisierung nicht an Ausnahmelisten scheitert, sind unbedingt Managemententscheidungen einzuholen und Kommunikationsmaßnahmen einzuleiten. Die im Handlungsfeld Managementkosten möglichen Einsparpotenziale sind abhängig von der IT-Struktur und der erreichten Fertigungstiefe. Da viele Unternehmen über Outsourcing sowie Near- und Offshore-Verlagerungen bereits signifikante Einsparpotenziale realisiert haben, liegen die Schwerpunkte in der Nachverhandlung bestehender Verträge und der Optimierung der eigenen Ressourcen. Dazu zählen insbesondere die Lieferanten, die IT-Services anbieten, um benötigte Projektkapazitäten und spezielles Know-how abzudecken. In Kooperation mit dem Einkauf sollte hier das „Preferred Supplier“Konzept weiterentwickelt werden. Die wichtigsten Lieferanten sind dazu einem Demand Screening zu unterziehen und nach entsprechenden positiven Preisverhandlungen auf die Liste der „Preferred Supplier“ zu übernehmen. Ein Lieferant mit dem Status eines „Preferred Suppliers“ liegt mit seinen Preisen bei ITServices im Durchschnitt bis zu 20 Prozent unter den Marktpreisen. Ein weiteres Effizienzpotenzial liegt in der Reduzierung von Büro- und Projektflächen für die internen und externen Mitarbeiter. Auch hier ist eine Absenkung der Kosten durch Reduktion der Quadratmeter pro Mitarbeiter um bis zu 20 Prozent erreichbar. Dies kann durch Flächenreduzierung, Standortkonzentration und Nachverhandlungen der Mietverträge erreicht werden. Wie anhand von zahlreichen Beispielen gezeigt, sind Kosten senkungen mit teils sehr einfachen Maßnahmen möglich – auch auf kurze Sicht. Nur diejenigen Unternehmen, die ihre Kosten proaktiv senken und gleichzeitig dafür sorgen, dass Innova tionen nicht auf der Strecke bleiben, haben die Chance, aus der Krise gestärkt hervorzugehen. Wilfried Kessler ist im Bereich Prozesse & Applikationenen als Management Consultant tätig. Nach seinem Informatik-Studium an der Fachhochschule Mannheim war er als IT-Manager in verschiedenen Industrieunternehmen, auch im Ausland, tätig. Seine Tätigkeitsschwerpunkte und Kompetenzen umfassen Beratung im Business Process IT Application Alignment, Effizienzund Programmmanagement, Standardisierung und Konsolidierung von ERP-Applikationslandschaften sowie IT-Sourcingstrategien zum Applikation Management. [email protected] Jörg Hermes ist als Consultant im Bereich Prozesse & Applikationen tätig. Seine Kernkompetenzen liegen auf den Gebieten Geschäftsprozessmanagement Wissensmanagement & Social Media sowie Innovationsmanagement. Zudem beschäftigt er sich mit den Themen SOA & IT-Architekturen. Vor seinem Einstieg bei Detecon war er Diplomand bei der Elektroniksystem- und Logistik GmbH, wo er sich mit dem Thema Softwareevaluation und RFID-Middleware auseinandersetzte. Zuvor war er Praktikant bei IBM und in der Systementwicklungsabteilung der Bolivianischen Börse. [email protected] 61 Detecon Management Report • 1 / 2010 Operations Interview: Dr. Stefan Schloter, CIO der T-Systems International GmbH, sprach mit dem DMR über das Effizienzprogramm, das innerhalb seiner Organisation sehr erfolgreich seit April 2009 durchführt wird. DMR: Welche IT-Initiativen eignen sich am besten, um ITKosten ohne Beeinträchtigung der Qualität und Erbringung von IT-Services zu senken? Dr. Stefan Schloter, Jahrgang 1971, studierte Physik an den Universitäten Würzburg und SUNY at Stony Brook, New York. Er erwarb einen Master of Arts und promovierte von 1996 bis 1999 an der Universität Bayreuth auf dem Gebiet optischer Datenspeicher. Seine berufliche Laufbahn startete Schloter 1999 bei McKinsey & Company. In England, Schweden, Niederlanden, Frankreich, USA und Deutschland verantwortete er verschiedene Projekte mit dem Schwerpunkt IT-Management. 2004 wechselte Stefan Schloter zur Deutschen Telekom. Zunächst war er als Leiter ITProduktion Computing bei der Telekom-Tochter T-Com in Darmstadt mit dem Schwerpunkt IT-DienstleiterManagement betraut. 2006 wechselt Schloter in die Zentrale der T-Com und optimierte die IT-Landschaft im Hinblick auf Kosten und Qualität. In dieser Funktion als Bereichsleiter IT-Portfoliomanagement, -Planung und -Qualität übernahm er zusätzlich die kommissarische Leitung der IT Strategie innerhalb der T-Com. 2007 übernahm Stefan Schloter bei der Telekom-Tochter T-Home die Aufgabe, die in einem Bereich konsolidierte IT-Strategie, das Portfolio- und Qualitätsmanagement auszugestalten und umzusetzen. Seit 1. März 2008 ist Schloter im Management Board von T-Systems für Prozesse, Qualität und IT verantwortlich. 62 Detecon Management Report • 1 / 2010 S. Schloter: In der derzeitigen wirtschaftlichen Situation haben alle CIOs den Druck, die IT-Kosten zu senken. Erschwerend kommt hinzu, dass auf der Fachseite die Qualität der ITUnterstützung der Geschäftsprozesse sichergestellt bleiben muss. Aus meiner Sicht sollte der Fokus der Maßnahmen auf den IT-Kosten für „Run the Business“ liegen. Eine Senkung dieser Kosten schafft Freiräume für „Change the Business“. Damit können mehr IT-Veränderungen realisiert werden, die auf den Unternehmenserfolg und die Prozesseffizienz einzahlen. In Wachstumsphasen kann dann zudem schneller auf Veränderungen reagiert werden. DMR: Was ist Ihre Zwischenbilanz bezüglich der gesetzten Ziele und der gewählten Vorgehensweise im Effizienzprogramm? S. Schloter: Ich bin ich sehr zufrieden damit, wie das Programm aufgesetzt wurde. Wichtig ist der ganzheitliche Ansatz, der den kompletten Kostenblock auf den Prüfstand stellt, angefangen beim Betrieb über die Infrastruktur bis hin zu den Kosten für Arbeitsplatzsysteme. Auch die Mechanik zur Steuerung und Nachverfolgung der Maßnahmen ist hilfreich, insbesondere die Härtegradmethodik, die dafür sorgt, dass Maßnahmen in den einzelnen Stufen von der Ideenbildung bis zur harten Umsetzung überwacht werden. DMR: Was waren die größten Herausforderungen und Erfolgsgeschichten bisher? S. Schloter: Eine Herausforderung ist es, die richtigen Maßnahmen zu identifizieren. Das ist in der Anfangsphase wichtig, um schnell Fahrt aufzunehmen. Später muss daran mit hoher Hochsaison / Interview Kontinuität weiter gearbeitet werden, um nicht den Schwung im Programm zu verlieren. Zudem denke ich, dass erfolgreiches bereichsübergreifendes Arbeiten vom Fachbereich bis zum Lieferanten wichtig ist. Nur so können die kompletten Potenziale gehoben werden. An dieser Stelle ist vor allem unorthodoxes Denken zur Identifizierung von Maßnahmen wichtig, um eingetretene Pfade zu verlassen. Potenziale haben wir erfolgreich bei der Büroinfrastruktur und in den Netzkosten gehoben, aber auch im Rechenzentrums betrieb durch Umstellung auf das Dynamic Services Offering der T-Systems. Diese Maßnahmen sind natürlich sehr erfreulich, da die Kosteneinsparungen direkt an der Außenkante ergebniswirksam werden. DMR: In welchen Größenordnungen lassen sich die IT-Kosten beeinflussen und wo liegen die Grenzen? S. Schloter: Durch ein konsequentes Effizienzprogramm können IT-Budgets spürbar abgesenkt werden. Das bedeutet, dass in 12-18 Monaten 15-20 Prozent Einsparung erreichbar sind. Längerfristig lassen sich größere Potenziale dann durch strukturelle Veränderungen, zum Beispiel Offshoreansätze oder Transformational Outsourcing, realisieren. Dafür ist jedoch eine grundlegende strategische Entscheidung durch das Geschäft erforderlich und nicht nur ein Portfolio von Einzelmaßnahmen. DMR: Wie schätzen Sie das Risiko ein, dass durch Effizienzmaßnahmen der IT die Produktivität von Geschäftsprozessen sinkt? S. Schloter: Eine der Rahmenbedingungen des Programms war es, weder die Qualität noch die Produktivität der Geschäftsprozesse durch die Maßnahmen zu beeinträchtigen. Natürlich wurden im Arbeitsplatzsystem-Umfeld auch unpopuläre Maßnahmen durchgeführt, wobei ich aber nicht denke, dass diese Maßnahmen die Geschäftsprozesse nachhaltig negativ beeinflussen. DMR: Wie kann man IT-Anbieter und Lieferanten effizienter steuern, um fundierte Entscheidungen zu treffen und die Ausgaben zu senken? S. Schloter: Aus meiner Sicht ist hier das A und O eine enge Kooperation zwischen Fachbereich, der internen IT und dem Einkauf sowie dahinterliegend eine klar definierte SourcingStrategie. Elemente sind hier beispielsweise eine Zwei-VendorStrategie im HW-Umfeld und auf der Softwareseite ein solides Lizenzmanagement. DMR: Welche Technologien sollten eingesetzt und welche ITTrends beachtet werden, um die Effizienz voranzutreiben und den Erfolg zu gewährleisten? S. Schloter: Es ist wichtig, einen verstärkten Einsatz von Kollaborationstools zu fördern, um den Mitarbeitern die Möglichkeit zu schaffen, standortübergreifend zu arbeiten und Alternativen zur klassischen Telefonkonferenz anzubieten. Als Beispiel ist das Thema Microblogging zu sehen, was wir im Zusammenspiel mit Wikis testen. Neben dem Corporate Social Network sind auch geschlossene Wikis sehr wichtig, die derzeit bei uns sehr stark nachgefragt werden. Wir haben auch sehr gute Erfahrungen mit der Einführung eines Hochleistungs-Videokonferenzsystems gemacht. Der große Vorteil von Kollaborationslösungen ist dabei nicht nur eine Erhöhung der Kommunikationseffizienz, sondern auch eine Einsparung von Reisekosten und ein Gewinn an privater Zeit für den Mitarbeiter. DMR: Was sind Handlungsfelder, die bisher nicht im Fokus standen und in Zukunft auch angegangen werden sollen? S. Schloter: Neben den klassischen Effizienzmaßnahmen stehen in Zukunft vor allem strukturelle Maßnahmen wie konsequente Applikationskonsolidierung im Vordergrund. Dies muss natürlich in partnerschaftlichem Dialog mit dem Fachbereich geschehen. Weiterhin soll die Effizienz im Entwicklungsprozess gesteigert werden und das Effizienzmanagement auf eine internationale Basis gehoben werden. DMR: Wir danken Ihnen für das Interview. Das Interview führten Wilfried Kessler und Jörg Hermes, Competence Practice Operations & Performance, Group Processes & Applications. 63 Detecon Management Report • 1 / 2010 Technology Interview mit André Feld, Deutsche Post DHL Stark bedeckt oder wolkenlos? Cloud Computing in der IT-Strategie der Deutschen Post Alter Wein in neuen Schläuchen oder zukunftsweisendes Konzept? Viele Unternehmen rätseln derzeit über die Bedeutung von Cloud Computing für ihre IT-Landschaft. Aufgrund der hohen Komplexität und Abstraktion wird es für IT-Verantwortliche zunehmend anspruchvoller, Technologietrends zu bewerten. André Feld leitet das Technologiemanagement der Deutschen Post und erläutert im DMR-Interview, wie der Logistik-Konzern Innovationsfelder nutzbar macht und welche Relevanz Cloud Computing-Modelle zukünftig haben werden. 64 Detecon Management Report • 1 / 2010 Interview: Stark bedeckt oder wolkenlos? DMR: Einerseits hat die Rezession die Budgets der Unternehmen stark unter Druck gesetzt, auch die Investitionen in Informationstechnologie. Andererseits wird fieberhaft nach einer guten Start position für den erhofften Aufschwung gesucht, auch hier kann der gezielte Technologieeinsatz entscheidend sein. Welchen Stellenwert hat Informationstechnologie für die Logistikbranche, welchen für die Deutsche Post AG? A. Feld: Viele IT-Vorhaben zielen derzeit auf die Steigerung der Kosteneffizienz, dies ist der wirtschaftlichen Gesamtsituation geschuldet. Andererseits bestand zukunftsorientierte Logistik schon vor der Rezession aus weit mehr als der Bewegung von Transportflotten. Dabei stützt sich die Erschließung neuer Geschäftsfelder nicht zuletzt auf Informationstechnologie. Mit dem angekündigten „Online-Brief“* überträgt die Deutsche Post das Leistungsversprechen des klassischen Briefs – Vertraulichkeit, Zuverlässigkeit und Verbindlichkeit – auf das Internet. Der Träger dieser Dienste ist zweifelsfrei eine IT-Plattform, insofern fällt der Informationstechnologie eine größere Bedeutung für die Geschäftsentwicklung des Unternehmens zu. DMR: Die Innovationsgeschwindigkeit in der IT wird immer höher, die Abstraktionsebenen und Abhängigkeiten immer komplexer. Wie geht die Deutsche Post mit dieser Herausforderung um? A. Feld: Wir legen Wert darauf, Transparenz über die am Markt entstehenden Technologien und ihren potenziellen Nutzen selbst zu schaffen. Technologieinnovationen müssen innerhalb des Unternehmens erkannt werden, um Wettbewerbsvorteile zu schaffen und Abhängigkeit von Dritten zu vermeiden. Wir analysieren Innovationsfelder genau und im Kontext unserer Geschäftstätigkeit, um den Nutzen von Technologie im Zusammenhang mit dem individuellen Leistungsportfolio der Deutschen Post bewerten zu können. * Die Bezeichnung „Online-Brief“ ist ein vorläufiger Arbeitstitel. DMR: Wie gehen Sie in der Identifikation, Bewertung und Einführung neuer Technologien vor? A. Feld: Wir haben ein standardisiertes Vorgehen für das Technologiemanagement geschaffen, das eine Balance zwischen nachfragegesteuerter und angebotsgesteuerter Entwicklung des Technologieportfolios schafft. Für die Berücksichtigung des „Market Pull“, also der von Kundenseite formulierten Anforderungen, ist eine enge Abstimmung zwischen den Fachbereichen und dem IT-Bereich geboten. Wir streben dabei eine gemeinsame Planung und Darstellung von markt- und technologiegetriebenen Innovationen an. An die Identifikation nutzenbringender Technologien schließt sich ein Bewertungsverfahren an, das funktionale, kommerzielle und betriebliche Aspekte berücksichtigt. Auf den Ergebnissen dieser Bewertungsschritte erfolgt dann eine Standardisierung auf zum Beispiel spezifische Produkte und Prozesse der Bereitstellung. DMR: Die Umsetzung innovativer Technologiekonzepte findet häufig nicht auf der grünen Wiese statt. Wie wird ein Technologiewechsel vorbereitet? A. Feld: Technologieinnovationen können auch für bestehende IT-Systeme einen großen Nutzen bieten, entweder funktionaler oder kommerzieller Art. Durch die Schaffung einer detaillierten Sicht auf den aktuellen Bestand an IT-Komponenten gelingt es uns, die Standardisierung neuer Technologien auch am Nutzen für die bestehende Anwendungslandschaft zu orientieren. Die Einführung und Umsetzung wird zunächst durch eine vertiefte Betrachtung der Wirtschaftlichkeit und Machbarkeit untermauert und dann im Rahmen eines dedizierten Programms durchgeführt. Bei einem komplexen, fundamentalen Technologiewechsel werden seitens des IT-Bereichs Anreizsysteme für die verantwortlichen Fachabteilungen geschaffen, um Migrationszyklen zu verkürzen. 65 Detecon Management Report • 1 / 2010 Technology DMR: Stichwort „fundamentaler Technologiewechsel“ - die Informationstechnologie ist immer reich an Trendthemen und Zukunftsvisionen. Welche fundamentalen Technologieinnovationen stehen bei Ihnen derzeit auf dem Prüfstand? André Feld leitet bei der Deutsche Post DHL das Team Identity & Technoloy Management. Einer seiner Schwerpunkte ist es, innovative Technologien für den Konzern Deutsche Post DHL zu bewerten und in der übergreifenden ITStrategie zu verankern. André Feld ist Diplom Informatiker und erwarb seinen Abschluß an der Rheinisch-Westfälischen Technischen Hochschule Aachen A. Feld: Wir beschäftigen uns derzeit intensiv mit Nutzungs szenarien von Cloud Computing-Diensten, die wir im Rahmen einer Innovationsstudie analysiert haben. Der Begriff Cloud Computing definiert dabei nicht ein Technologiefeld im eigentlichen Sinne, sondern ein Geschäftsmodell, bei dem Kosteneffizienz und Flexibilität im Vordergrund stehen. Entsprechend breit ist das Spektrum an Angeboten, die derzeit am Markt existieren. Schon die etwas rudimentäre Segmentierung in Infrastruktur-, Plattform- und Anwendungsdienste zeigt, wie groß und wenig definiert das Cloud Computing-Paradigma heute ist. DMR: Welche Anwendungsfälle von Cloud Computing erscheinen Ihnen aus der Perspektive eines Großkonzerns gegenwärtig realistisch und vor allem von wirtschaftlichem Nutzen? A. Feld: Wir haben in der Vergangenheit viel Erfahrung in der Flexibilisierung unserer IT-Infrastruktur gesammelt. Auch der Aufbau gemeinsam genutzter IT-Plattformen, zum Beispiel im Bereich von Datenintegration oder Business Intelligence, wird vorangetrieben. Der derzeitig vollzogene Übergang zu einer virtualisierten Anwendungslandschaft und einer dynamischen Verteilung von IT-Betriebsmitteln bringt uns technologisch dem Szenario einer Enterprise Cloud relativ nahe. Wirtschaftlich lukrativ ist jedoch das im Bereich von Public Clouds vorherrschende Modell einer nutzungsbezogenen Abrechnung. Da die Dimensionierung von IT-Infrastruktur einer hohen Ungenauigkeit unterliegt, verlagert man mit einem „Pay-as-yougo“-Modell das Leerstandsrisiko für die Infrastruktur auf die Seite des Betreibers. Das scheint ein attraktives Modell für die Zukunft zu sein. DMR: Die Expertenmeinungen gehen bezüglich eines Einstiegs in die Nutzung von Cloud Computing-Diensten weit auseinander. Einige sehen den Zug für Europa schon abgefahren, andere warnen vor zusätzlichen Risiken. Wie beurteilen Sie den Reifegrad der heutigen Cloud Computing-Angebote und welche Risiken sehen Sie? 66 Detecon Management Report • 1 / 2010 Interview: Stark bedeckt oder wolkenlos? A. Feld: Spiegelt man die Eigenschaften von Cloud Computing-Diensten an unseren geschäftlichen und IT-Anforderungen, ergibt sich ein uneinheitliches Bild. Während die Flexibilisierung der Kosten und die Beschleunigung der Bereitstellung eine sichtbare Verbesserung gegenüber konventionellen IT-Betriebskonzepten bringen, gibt es auch Schwachpunkte. Viele Softwareanbieter haben für ihre Produkte kein für Cloud Computing passendes Lizenzmodell entwickelt, das dem Wegfall physikalischer Mengeneinheiten wie Prozessorkernen oder Serverinstanzen Rechnung trägt. Darüber hinaus sind für Public Clouds Anforderungen an Datensicherheit und Datenschutz nicht ausreichend umgesetzt. Neben Bedenken hinsichtlich der Sicherheit in gemeinsam genutzten Umgebungen ist auch die Einhaltung gesetzlicher Rahmenbedingungen in dem gewollt industrialisierten, anonymen Betreibermodell des Cloud Computing ungelöst. Die Novelle des Bundesdatenschutzgesetzes verpflichtet beispielsweise jeden Datenherrn dazu, die Wahrung von Sicherheitsstandards bei den im Auftrag arbeitenden ITBetreibern regelmäßig zu überprüfen. Die Durchführung solcher Revisionen ist in der „Self Service“-Philosophie der Public Cloud-Anbieter derzeit nicht vorgesehen. DMR: Angenommen, das Cloud Computing-Konzept entwickelt sich zum IT-Paradigma der kommenden Jahre. Welche Schritte unternehmen Sie, um für zukünftige Cloud Services vorbereitet zu sein? Welche Herausforderungen sehen Sie in der Transformation der heutigen IT-Landschaft? A. Feld: Zwei grundlegende Voraussetzungen für die Nutzung von Cloud Services haben wir derzeit im Fokus: Die größtmögliche Standardisierung auf eine begrenzte Zahl genutzter Technologien einerseits und die Entkopplung aller Anwendungen von der unterliegenden Infrastruktur andererseits. Darüber hinaus sammeln wir punktuell praktische Erfahrungen mit Public Clouds. Für Entwicklungs- und Abnahmesysteme, die einer hohen Schwankung in der Auslastung und einem geringen betrieblichen Risiko unterliegen, ergeben sich vielversprechende Szenarien, die wir evaluieren wollen. Der reizvollen Vision, sich zukünftig den Anbieter der ITInfrastruktur ähnlich wie beim Preselection-Konzept für Telefongespräche dynamisch auswählen zu können, stehen einige Hürden entgegen. Die Begrenzungen des IPv4-Adressraums und die weit verbreitete Kapselung von Adressräumen im Netz behindern eine Virtualisierung des Netzwerks. Ein schneller Umzug von IT-Systemen zwischen verschiedenen Clouds erfordert Eigenschaften der IPv6 Protokollfamilie wie die zustandslose automatische Konfiguration. Nach der Dynamisierung der Rechen- und Speichersysteme rückt das Netzwerk künftig in den Fokus unserer Transformationsbemühungen. DMR: Nicht nur klassische IT-Hersteller haben Cloud Computing als Geschäftsmodell entdeckt und erweitern mit Diensten aus der Wolke ihr Portfolio. Ein prominentes Beispiel ist das Handels unternehmen Amazon, aber auch Telekommunikations- und Medienunternehmen. Ist die Anbieterrolle von Cloud Computing Diensten auch für die Deutsche Post ein erfolgversprechendes Szenario? A. Feld: Im Cloud Computing-Markt in die Anbieterrolle zu wechseln ist eine Option, die nur im Rahmen einer Stärkung der existierenden Wertschöpfungskette betrachtet werden kann. Hier wird der „Technology Push“ der dem Cloud Computing zugrunde liegenden Technologien wie Virtualisierung, Automatisierung und Breitbandnetzwerke offenbar. Es ist die Aufgabe der IT, im Dialog mit den Fachbereichen das Potenzial der Technologien zu erläutern und gemeinsam innovative Geschäftmodelle zu entwickeln. Bezogen auf die Deutsche Post halte ich das SaaS-Segment für geeignet, das aktuelle Leistungsportfolio durch auf unsere Kunden und Partner zugeschnittene Dienste zu ergänzen. Der angekündigte „Online-Brief“ Service fällt bereits in diese Kategorie, auch im Bereich des Kampagnen managements gibt es fortgeschrittene Konzepte. DMR: Vielen Dank für das Interview. Das Interview führten Martin Jeske und Dirk Pracht aus dem Bereich Strategic Technology, Detecon. 67 Detecon Management Report • 1 / 2010 Technology Karsten Prey, Marco Chiesa Grüne Vorreiter Energieoptimierung im Rechenzentrum mit GreenICT Klimawandel, nachhaltige Ressourcennutzung und energiesparende ICT sind in aller Munde. Den CIO eines Unternehmens und seine RZLeiter interessieren aber ebenso die Kostensenkungspotenziale eines grünen Rechenzentrumsansatzes. Aus dieser Sicht stellen wir Energieeinsparungspotenziale dar, berichten aus umgesetzten Projekten und zeigen auf, was sich ICT aus der Telekommunikationsbranche „abschauen“ kann. 68 Detecon Management Report • 1 / 2010 Grüne Vorreiter uf Rechenzentren der Enterprise- und Carrier-Klasse komA men seit mehreren Jahren diverse neue Anforderungen zu, die durch das IT-Management umgesetzt werden müssen: Neben den klassischen Erweiterungen des Anwendungsbetriebs, getrieben von Geschäftsprozessen oder Prozessoptimierungen im Sinne des IT Service Managements, spielen insbesondere Kostenreduktionen eine große Rolle. Kostenoptimierungspotenziale und wenig Nachhaltigkeit bestimmen die Ausgangslage Dabei verschieben sich die Handlungsbedürfnisse. Während in der Vergangenheit Kostenoptimierungen durch Prozess standardisierungen und fallende IT-Infrastrukturkosten im Vordergrund standen, rücken nun die Umsetzung von GreenICT und Energieeinsparungen in den Mittelpunkt vieler Projekte. Auch hier geht es natürlich primär um die Senkung der Kosten, da die Position Energie in den letzten Jahren mit bis zu 50 Prozent Anteil an den Betriebskosten eines durchschnittlichen LargeIT-Rechenzentrum deutlich angewachsen ist. Gleichzeitig ist trotz der Diskussion in der Politik zu konstatieren, dass die Umgebungstemperaturen von Rechenzentren kon- tinuierlich steigen. Damit nehmen selbst bei gleichbleibender technischer Ausstattung die Anforderungen an die Außengeräte der Klimasysteme zu, welche die Wärme an die Umgebung abgeben. Hinzu kommt, dass genau diese technische Ausstattung nicht konstant bleibt, sondern immer höhere Packungsdichten der IT-Infrastruktur, zum Beispiel durch Blade-Server, die benötigte Kühlleistung um ein Vielfaches erhöht. Die Projekterfahrung zeigt, dass sich die Klimatisierungsbedürfnisse in einer ähnlichen Steigerungsrate zu der jeweiligen Steigerung der Außentemperatur verhalten. Dementsprechend nehmen die Klimatisierungskosten insgesamt, besonders RLT-Anlagen/ HVAC1, weiter zu. Die vor fünf bis zehn Jahren prognostizierte Idee von schrumpfenden Rechenzentren hat sich rückblickend nicht bewahrheitet – ganz im Gegenteil zeigt die Beobachtung, dass weltweit immer größere Rechenzentren höherer Verfügbarkeits klassen errichtet werden. Eine genauere Analyse des Stromverbrauchs untersuchter Rechenzentren in mehreren Detecon-Projekten ergab, dass nur zirka 30 Prozent der Energie für IT-Infrastruktur (Server, Speicher und Netzwerke) verbraucht wird. Über 55 Prozent werden 1 RLT: RaumLuftTechnik / Klimaanlagen, HVAC: Heating, Ventilation, Air Conditioning 69 Detecon Management Report • 1 / 2010 Technology für die Klimatisierung unterschiedlicher Komponenten benötigt. Gerade dieser Faktor lässt sich durch Einsparungsmaßnahmen deutlich um bis zu 45 Prozent reduzieren. Die Maßnahmen sind teilweise einfach in existierenden Umgebungen anwendbar, einige lassen sich zukünftig und langfristig in neuen Architekturen umsetzen. Auch jetzt schon lässt sich viel tun! Die im Folgenden beschriebenen Maßnahmen beruhen auf technischen und ingenieurmäßigen Grundfähigkeiten, die schon lange in der Strom- und Klimatechnik umgesetzt werden, im Rahmen der Optimierung von Rechenzentren jedoch das beschrieben hohe Potenzial bieten. Grundlage aller Veränderungen sind Ergänzungen zum „Messen, Steuern und Regeln im Rechenzentrum“. Hier sind zwar einige Ergänzungen und Investitionen notwendig, die aber auch sukzessive umgesetzt werden können und damit das Budget nur eingeschränkt belasten. Ziel dieser Maßnahmen sollte sein, Energieverbrauch und klimatische Kälte- und Luftströmungen so detailliert wie möglich zu messen, um eine klare Basis für alle Entscheidungen zu haben. Es gilt also, alle Stromanbindungen wie HSHV, NSHV2, Stromschienen, Racks und Bladecenter sowie einzelne Server mit Messpunkten und (Aus-) Schaltungspunkten zu in einer baumartigen Struktur zu versehen. Dies lässt sich teilweise kurzfristig und nachträglich für kritische Komponenten realisieren, kann aber situations-anhängig auch nur im Rahmen eines Neubaus oder der Neukonzipierung des Rechenzentrums möglich sein. Weiterhin ist eine Integration mit einem Out-Of-Band Management System möglich, zum Beispiel Ein-/Ausschalter, was die Steuerung der Stromnutzung – neben den generellen System-Steuerungsfunktionen – stark vereinfacht. Es ist generell zu empfehlen, hierbei in den folgenden sechs Schritten vorzugehen: 1. Festlegung einer Mess-Strategie: Was soll in welchen Zeitabständen wie genau gemessen, gesteuert und geregelt werden? 2. Festlegung von KPIs3 zur Messung der Erfolge in der Optimierung (siehe auch Kasten). 3. Erarbeitung einer technischen Architektur-Plattform für die Messungen. 2 HSHV – Hochspannungs-Hauptverteiler NSHV – Niederspannungs-Hauptverteiler 3 KPI – Key Performance Indicator 70 Detecon Management Report • 1 / 2010 4. Auswahl der geeigneten Messgeräte beziehungsweise der (des) Hersteller(s). 5. Integration in die gesamten Monitoring Prozeduren des Unternehmens inklusive des Out-Of-Band-Managements. 6. Implementierung eines Reporting und Berichtswesens. Eine einfache Aufstellung der Racks und Systeme in einem Warmluftgang/Kaltluftgang-Konzept sollte eigentlich heutzutage eine Selbstverständlichkeit sein. Historisch gewachsene, insbesondere kleine Rechenzentren sind aber oftmals noch nicht nach diesem Prinzip aufgebaut. Auch nachträgliche Veränderungen, welche ursprünglich als reine Provisorien geplant waren, wirken sich oft störend auf die Raumluftzirklulation aus. Natürlich ist das Messen der Strömungsverhältnisse und Klimabedingungen in einem Raum und die anschließende 3D-Strömungssimulation (CFD-Simulation – Computational Fluid Dynamics) eine sehr aufwändige Aufgabe, verlangen eine hohe Einmalinvestition und stellen nur ein Momentabbild dar. Dementsprechend lohnt dieser Aufwand auch nur nach einer Vorabanalyse und Rechenzentrumsbegehung (Stichwort: „Seltsames Luftströmungsverhalten in den Gängen“) durch einen Spezialisten, der kritische Punkte und Fragen aufgeworfen hat. Übliche Temperaturmessfühler können ebenfalls schon Aufschlüsse für den Bedarf einer solchen sehr teuren Strömungsanalyse ergeben. Die Frage der direkten Wasserkühlung am Rack beziehungs weise System- versus Raum-Luft-Klimatisierung lässt sich im Moment auf zwei wesentliche Entscheidungskriterien reduzieren: Ab zirka acht bis zehn kW Kühlbedarf pro Rack werden existierende Raum-Luft-Klimatisierungen ineffizient oder gar überfordert. Als Lösung lassen sich Kaltgangeinhausungen zurüsten, welche die abzuleitenden Wärmelasten auf bis zu 15 kW erhöhen. Darüber hinaus bleibt insbesondere für Systeme mit sehr hohen Abwärmeleistungen, zum Beispiel Blade- oder High-Density-Systeme größer 15 kW, nur eine direkte Wasserkühlung am oder im Rack. Die verschiedenen Hersteller von Rack-Systemen wie Rittal, Knürr, Schroff und Schäfer oder Emerson-Liebert bieten inzwischen flexible Einbau- und Erweiterungslösungen an, die auch nachträglich und unterbrechungsfrei in einem Rechenzentrum integriert werden können. Grüne Vorreiter Trotz der Möglichkeit des nachträglichen Zurüstens von Direktkühlsystemen ist die Historie eines existierenden Rechenzentrums zu beachten. Zusätzliche Wasserkühlungssysteme benötigen unter Umständen Spezialanschlüsse, die manchmal nicht einfach zu realisieren sind oder Erweiterungen einer existierenden begrenzten Stromzuführung – inklusive der Sicherungskomponenten wie USV4 oder Generator. In diesen Fällen sollte die Integration einer Wasserkühlung, auch unter Sicherheitsaspekten und Überlegungen zu Wasserschäden, eher bis zu einem Neubau oder Umzug verschoben werden. Sourcing-Optionen externer Rechzentrum-Dienstleister beziehungsweise strategische Grundüberlegungen zum Rechenzentrum können hierbei natürlich auch eine Rolle spielen. In der Zwischenzeit kann der Ausbau der existierenden Raum-LuftKlimatisierung auch bei sonstigen negativen Aspekten, zum Beispiel verschlechterte Luft-Strömungsverhältnisse im Serverraum, verbessert werden. Weitere herkömmliche Optimierungsmaßnahmen sind sinnvoll. Nach einer Strömungsanalyse können einfache Ergänzungen von Strömungsleitblechen oder Dämmmatten in den Racks die Strömungsverhältnisse so weit optimieren, dass deutliche Einsparungen in der Klimatisierung und damit im Stromverbrauch messbar werden. Neue Konzepte und RZ-Strategien ergänzen die kurzfristigen Maßnahmen In Zukunft werden Rechenzentren vermehrt energieoptimierende und kostensparende Versorgungslösungen umsetzen. In Regionen mit hoher oder mittlerer Sonneneinstrahlung können Rechenzentren durch Solarzellen-Anlagen gespeist werden. In küstennahen Bereichen und anderen windreichen Gegenden der Welt, zum Beispiel deutsche Nordseeküste, eignen sich Windkraftanlagen oder ganze Windparks als erneuerbare Energiequelle und Basis einer kostensparenden und nachhaltigen Stromzulieferung im Rechenzentrum. Mit Biogas betriebene Brennstoffzellen liefern zusätzliche Energie besonders als Ersatz für USV und Generatoren. Eine Brennstoffzelle ist wie ein elektrisches Sandwich aufgebaut. Sie erzeugt Strom und Wärme, wenn die elektrische Anode mit Wasserstoff und die Kathode mit Luftsauerstoff versorgt werden. Dazwischen befindet sich ein Elektrolyt aus Lithium- und Kaliumkarbonat. Wird der Brennstoffzelle Methan und Wasser zugeführt, so setzt sie Wasserstoff frei. Der Wasserstoff reagiert mit den Karbonat-Ionen des Elektrolyten zu Wasser und Kohlendioxid, wobei Elektronen frei werden. Das Kohlendioxid wird zusammen mit Luftsauerstoff der Kathode zugeführt. Beim Verbrauch der Elektronen bilden sich ständig neue Karbonat-Ionen, wobei wiederum Wärme frei wird. Die Karbonat-Ionen wandern durch den Elektrolyten zur Anode und schließen somit den elektrischen Kreislauf. Neben den etablierten chemischen Speichern (USV-Akkus) haben die kinetischen Energiespeicher ihre Marktreife erlangt. Neue Werkstoffe wie Glas- und Kohlefaser- Verbundstoffe und die kostengünstigere Herstellung von Hochtemperatur-Supraleitern verhelfen den Schwungmasseenergiespeichern zu berührungslosen Lagern und zu neuen Leistungswerten. Damit lassen sich Energiespeicher mit hoher Kurzzeit-Wirklast als Erstversorgung im Stromausfall realisieren, die gleichzeitig eine Energiesparfunktion – geschätzt 30 Prozent – haben. Weiterhin können Rechenzentren über direkten Anschluss und die Einleitung von Grundwasser, Flüssen und Seen Kühlkapazitäten der Natur nutzen, um so den Energieverbrauch weiter zu minimieren. Server und Racks können direkt mit ihren Kühlungsfunktionen angeschlossen werden. Alternativ kann durch Einleitung der Flüssigkeit in die Klimageräte eine indirekte Einsparung erfolgen. Auch weitere passive Kühlfunktionen über sogenannte Wärmetauscher werden möglich, solange Außentemperaturen unter 20° Celsius bleiben. Damit wird eine fast energielose Kühlung mit einer Reduktion von bis zu 80 Prozent der Energiekosten, abhängig von der Umgebungstemperatur, möglich. Ergänzende Geräte für wärmere Jahreszeiten, auf die wir uns einstellen müssen, werden natürlich notwendig. Die Umwelt spielt eine immer größere Rolle bei der Standortwahl für ein neues Rechenzentrum. Das Rechenzentrum wird nur bis zu einer gewissen Außentemperatur mit freier Luft gekühlt. Die Kühlung durch eine oberflächennahe ErdwärmeEinleitung wird möglich, da in zehn Meter Tiefe zirka 10° Celsius Temperatur-Differenz gemessen werden. Diese negative Energiebilanz der Tiefe kann im Rechenzentrum zur Kühlung genutzt werden. Eine Modularisierung des Rechenzentrums sollte heutzutage als Selbstverständlichkeit gelten: Mehrere kleine Serverräume bie- 4 USV: Unterbrechungsfreie Stromversorgung (meist auf Basis von Akkus) 71 Detecon Management Report • 1 / 2010 Technology 72 Detecon Management Report • 1 / 2010 Grüne Vorreiter ten neben der Erhöhung der Sicherheit und des Brandschutzes für jede Anwendungs- und Systemklasse ein eigenes Klima. Sie lassen sich individuell anpassen und steuern. In diesen Spezialräumen können einige Serversysteme sogar mit deutlich höheren Temperaturen betrieben und so Klimatisierungskosten eingespart werden. Mit variablen Raumhöhen, verschiedenen Temperaturen und Luftfeuchtigkeiten sowie neuen Chips, die weniger Energie verbrauchen, lässt sich der Energieverbrauch eines Rechenzentrums weiter reduzieren. Mit allen diesen Maßnahmen wird das Rechenzentrum gleichzeitig Energieerzeuger und Energieverbraucher. Es ist damit Teil eines Stromnetzes mit vielen Mitspielern, ein sogenanntes „Electrical SmartGrid“. Darüber hinaus kann es als Heizung genutzt werden. In einem Detecon-Projekt wurde ein nicht mehr genutzter Swimming-Pool eines Tagungshotels mit Hilfe eines eingebauten „Doppelbodens“ und einer Kaltgangeinhausung „ertüchtigt“ und dient so als partieller Energielieferant für das Hotel. Eine Wärmeabgabe in die Büros eines Rechenzentrums ist ebenfalls denkbar. Das Future Green Enterprise Data Center Ein zukünftiges, dynamisches und adaptives Green Enterprise Data Center (GEDC) passt sich in allen Bereichen der IT und besonders auch der Energienutzung an die jeweiligen Bedürfnisse und Gegebenheiten des Geschäftes sowie der Anwendungs- und Systemlandschaft an. Für den Aufbau eines solchen GEDC gibt es aus unserer Sicht sieben Haupterfolgsfaktoren und Basistechnologien (siehe Abbildung nächste Seite): 1. Eine weitestgehende Virtualisierung der IT-Infrastruktur, das heißt aller Server, Speicher- und Netzwerk-Komponenten. Dies kann insbesondere beim Einsatz hochkompakter Blade-Systeme punktuell erhöhtem Energieverbrauch führen, welcher aber potentiell durch die Reduktion von Bestandsgeräten ausgeglichen wird. Intelligent verwaltete Virtualisierungslandschaften, wie zum Beispiel vmWare Enterprise Management Konsole oder IBM’s Tivoli Dynamic Infrastructure Management Environ- ment, erlauben es den Administratoren so, die Gesamtumgebung so zu optimieren, dass deutliche Einsparungen in Höhe von 20 Prozent möglich sind. 2. Dies setzt die entsprechenden Werkzeuge für eine Ende-zuEnde Automatisierung voraus, damit von der Anwendungsebene über Middleware, Infrastruktur und Systeme ein sollständiges Monitoring und automatisierte Steuerung des GEDC möglich wird. Auch die Strom- und Klimatisierungskomponenten werden in diese Automatisierung miteinbezogen und gesteuert. 3. IT Service-Management Prozesse auf Basis des ITIL-Standards versetzen die Mannschaft des Rechenzentrums dazu in die Lage, Service-Prozesse so weit zu optimieren, dass auch hiermit Energieeinsparungen möglich und mit Hilfe automatisierter Komponenten umgesetzt werden können. 4. Kompakte IT- und Informationsstrukturen bilden einen weiteren Baustein für das GEDC. Dies beinhaltet sowohl kompakte Server, Speicher- und Netzwerksysteme als auch SoftwareKomponeten für beispielsweise Datenbanken. 5. Umfängliche Sicherheitskomponenten für ein Rechenzentrum, zum Beispiel moderne Verfahren zur Sauerstoff-Reduktion der Raumluft und damit Brandvermeidung oder ganzheitliche Leitstands-Sicherheits-Systeme, ergänzen das GEDC. 6. Außerdem muss das GEDC in eine ganzheitliche Strategie und Business Continuity eingebunden werden, um so Katastrophen und Notfälle (gemäß BSI 100/4) und Verfügbarkeiten mit Hilfe von Redundanzen abzudecken. Hierbei spielt nicht nur das Einzelne eine Rolle, sondern gesamte Rechenzentrums-Verbünde müssen sich auch unter GreenICT-Ansätzen bewähren. 7. Somit wird die Energieeinsparung im Rechenzentrum ganzheitlich in einem GreenICT-Ansatz umgesetzt. Aus dieser Aufzählung wird aber auch deutlich, dass ein Future Green Enterprise Data Center nicht nur energiesparende Seiten 73 Detecon Management Report • 1 / 2010 Technology hat, sondern auch insgesamt die Zukunft und Trends der Rechenzentrumswelt abdeckt. In der Praxis werden sich die Technologien und Lösungen, zum Beispiel ganzheitliche Automatisierung, für solch ein Rechenzentrum erst im Laufe der nächsten vier bis fünf Jahre entwickeln und stabilisieren. Damit können sie auch in einem konkreten Projekt erst schrittweise umgesetzt werden. Um hierbei einen kontinuierlichen Verbesserungsprozess einzuleiten, empfiehlt sich die Definition von KPIs für die genannten sieben Faktoren. Nur so lässt sich über diesen Zeitraum messen, wie die Verbesserungen umgesetzt werden und sich auswirken. Rechenzentren entwickeln sich also weiter. Neben der Optimierung der Energieeffizienz, Virtualisierungsmaßnahmen, Verfügbarkeit, ITIL-Prozesse oder Automatisierung spielen Sourcingund Provider-Optionen eine immer größere Rolle. Generelle Strategien wie das Green Enterprise Data Center mit seinen dynamischen und adaptiven Strukturen werden das Aussehen von Rechenzentren und Serverräumen in den nächsten zehn Jahren bestimmen. Cloud Computing als neues Strukturierungs-, Geschäfts- und Marketing-Element wird ebenfalls eine große Rolle spielen. Für GreenICT- und Energieeffizienz-Ansätze werden auf nationaler (VDE/DKE), europäischer (CENELEC Code of Conduct) und internationaler Ebene (BICSI) Standards entwickelt, die in den nächsten Jahren aktiv werden. Dies führt zur Vereinfachung von Prozessen und zum Angleichen von Technologien – und erst das macht Einsparungen allgemein umsetzbar. Was man von der Telekommunikationsbranche abschauen kann Eine ganz andere Welt zeigt die Telekommunikationsbranche: Die klassischen Network Operation Center der Festnetzanbieter oder die Mobile Switching Center der Mobilfunk-Anbieter sind wegen ihrer starken Herstellerstandardisierung in sich höchst effizient und energieoptimal ausgelegt. Vielleicht lässt sich von den Lösungen der Telekommunikations-Branche eine Scheibe abschneiden und Ideen und Konzepte übernehmen, um die GreenICT GEDCs noch weiter zu optimieren. Die Power & Air Solutions (PASM), eine 100% Tochter der Deutsche Telekom AG, betreibt zirka 100.000 Anlagen zur Verfügbarkeitssicherung der ICT-Technik – zirca 40.000 RLTAnlagen und 35.000 GEV-Anlagen. Aufgabe der PASM ist Abbildung: Die sieben Haupterfolgsfaktoren und Basistechnologien Virtualisierung und dynamische Infrastruktur Ende-zu-Ende Automatisierung und Management GreenICT im Rechenzentrum/ Energieeffizienz Business Continuity/K-Fall Vorsorge/Verfügbarkeit Quelle: Detecon 74 Detecon Management Report • 1 / 2010 ITIL-basiertes IT Service Management Umfängliche Sicherheit im Rechenzentrum Kompakte IT und InformationsInfrastruktur Grüne Vorreiter die Herstellung energiebasierter Produkte für die Telekom mit Spannung, Verfügbarkeit und Klimatisierung, aber auch die gesamte Strombeschaffung für den Konzern. Dazu kauft PASM circa 0,6 Prozent des deutschen Gesamtstromverbrauches am Großhandelmarkt und auch direkt an der EEX (European Energy Exchange) in Leipzig ein. Zur Optimierung des Energiebedarfes in den technischen Standorten wurde ein Projekt zur Identifizierung von Maßnahmen initiiert. • automatische Ab- und Zuschaltung von RLT-Geräten in der freien Kühlung, Im Projekt ETS 300 wurden acht ausgewählte Technikstandorte auf folgende Energieoptimierungsmaßnahmen überprüft: Im Ergebnis wurde eine selbstoptimierende Regelstrategie entworfen, die bei bis zu 18 Grad Celsius Außentemperatur den Volumenstrom bei konstanter Zulufttemperatur regelt. Im Bereich bis 21 Grad Celsius wird die Freie Kühlung in Verbindung mit gleitender Zulufttemperatur und variablem Volumenstrom genutzt. Des Weiteren werden die RLT-Geräte selbsregelnd zuund abgeschaltet. • automatische und variable Volumenstromregelung in der freien Kühlung nach Bedarf, • Reduzierung der elektrischen Leistungsaufnahme durch Parallelbetrieb von Ventilatoren der Kompaktanlagen, China als Vorreiter im Green Enterprise Data Center? In China werden derzeit alle Aktivitäten für neue IT- und TK-Komponenten unter Green ICT-Gesichtspunkten aufgesetzt. Dies wird durch Vorgaben der Regierung gesteuert, Steigerungen der Produktivität und des Bruttosozialproduktes immer mit Einsparungen der Energie(kosten) einhergehen zu lassen. Die Vorgaben lauten beispielsweise pro zusätzlichem Prozent Steigerung im Bruttosozialprodukt drei Prozent Energie einzusparen. China verspricht sich hiervon eine geringere Abhängigkeit von Energieressourcen bei stark wachsender Gesamtproduktivität. Diese Vorgaben werden natürlich auf die einzelnen Unternehmen heruntergebrochen und umgesetzt – mit der Konsequenz, dass Energieeinsparungsmaßnahmen eine hohe Priorität bei allen Unternehmensentscheidungen haben. In einem Detecon-Projekt bei einem großen Telekommunikations-Provider in China wurden auf der Basis einer GEDC-Strategie und der in diesem Artikel dargstellten Lösungen und Maßnahmen sowie der sieben Erfolgsfaktoren insgesamt 47 KPIs definiert. Diese dienen dem Kunden über die nächsten fünf bis sieben Jahre dazu, den Fortschritt der Entwicklung des GEDC-Ansatzes zu managen und zu steuern. Diese Entwicklung ist in drei Stufen geplant: 1.Enterprise Rechenzentrumsbetreiber mit Fokus auf Infrastruktur-Diensten für konzerninternen Kunden 2.Markt-Anbieter für Infrastruktur-Dienste (IaaS – Infrastructure-as-a-Service) 3.Markt-Anbieter für Applikations-Dienste (ASP – Application Service Provider) ausgewählter Anwendungen Gleichzeitig sollen die sieben Haupterfolgsfaktoren – insbesondere GreenICT – umgesetzt werden. • kein Kältebetrieb bei maximaler Luftmenge in freier Kühlung, • gleitender Volumenstrom im Kältebetrieb und gleitende Zulufttemperatur im Kältebetrieb. Die Energieeinsparung verdeutlicht ein Beispiel: Im optimierten Betrieb bei einer Raumtemperatur von 33 Grad Celsius und der Verwendung des optimierten Regelverfahrens konnte der Jahresenergieverbrauch an einem Standort von 40,5 auf 26,8 MWh/a reduziert werden. Dies entspricht einer Reduktion um 64 Prozent. Bei einem anderen Standort reduzierte sich der Verbrauch von 37 auf 20,7 MWh/a. Das entspricht einer Verringerung um 44 Prozent. Selbst bei Standorten, die bereits bei der Errichtung nach Gesichtspunkten der Energieeffizienz geplant wurden – hier mit Verwendung von ausschließlich ETS 300/3.1 konformer Rechnerhardware sowie Auslegung mit freier Kühlung, ist eine Steigerung der Energieeffizienz um 40 bis 64 Prozent technisch möglich. Zwischenzeitlich wird diese innovative Regelstrategie bei über 5.000 RLT-Geräten realisiert. Karsten Prey (M.S.) berät seit mehr als 18 Jahren Kunden im Bankenbereich in allen Fragen zu IT-Infrastruktur, Applikationen und Prozess-Optimierung. Seit kurzem leitet er das Team für „LargeIT und Data Center Management“ mit Schwerpunkt in den Financial Services. [email protected] Marco Chiesa ist Senior Consultant im Bereich IT Organisation mit vieljähriger Projekterfahrung in Telekommunikationsunternehmen. Der Schwerpunkt seiner Tätigkeit liegt in der Verankerung von langfristigen Zielen wie Energie effizienz und Nachhaltigkeit bei der Gestaltung von Globalen IT Organisa tionen bei Restrukturierungen. [email protected] Besonderer Dank gilt Johann Kiendl von der PASM für die freundliche Unterstützung. 75 Detecon Management Report • 1 / 2010 Detecon publiziert ! Detecon publiziert ! Customer Experience Management in der Telekommunikationsbranche Marktstudie und Handlungsempfehlungen zur optimalen Gestaltung von Kundenerlebnissen Die vorliegende Detecon-Studie, die in Zusammenarbeit mit dem Marktforschungsunternehmen forum! erstellt wurde, zeigt, dass sich Customer Experience Management (CEM) im Kunden management vieler Telekommunikationsunternehmen bereits wieder findet und großes Potenzial hat, aktuelle CRM-Konzepte sinnvoll zu ergänzen. Auf Grundlage der Studienergebnisse geben die Autoren Handlungsempfehlungen zur optimalen Gestaltung von Kundenerlebnissen. Honeycomb Management Excellence Sustainable performance excellence in procurement Im vorliegenden Opinion Paper beschreiben die Detecon-Autoren detailliert das Detecon Honeycomb-Modell. Mit diesem Modell bietet Detecon dem CPO einen Überblick über alle relevanten Handlungsbereiche. Die Autoren zeigen anhand von Beispielen aus der täglichen Beratungspraxis die Herausforderungen für den CPO auf und stellen die häufigsten Probleme bei der Maßnahmenumsetzung vor. Business meets Architecture – Mind the Gap ICT Sales in Times of Recession Der Nutzen vom Business Process Management (BPM) für Geschäftsprozesse in Unternehmen ist ebenso unbestritten wie die Vorteile, die Service Oriented Architecture (SOA) für das Setup der IT bietet – doch wie bekommt man beides unter einen Hut? Noch klafft in der Unternehmens praxis eine große Lücke zwischen den Methoden. Hier kann die „logical Business Architecture“ der Detecon eine Brücke zwischen Prozessen und IT bauen. IKS – Interne Kontrollsysteme nach der 8. EU-Richtlinie Status Quo und Optimierungsansätze Interne Kontrollsysteme ermöglichen Firmen, interne und externe Risiken frühzeitig zu identifizieren und zu erfassen. Erst auf dieser Grundlage können schnell effektive Gegenmassnahmen eingeleitet werden, die weitreichende Schäden für das Unternehmen verhindern. In der Praxis erfüllen jedoch die wenigsten IKS ihre Funktionen vollständig zufriedenstellend, wie diese Studie der Detecon (Schweiz) AG in Zusammenarbeit mit der Handelshochschule Leipzig (HHL) und der Wirtschaftsuniversität Wien zeigt. Über weitere wichtige Themen aus dem ICT-Umfeld können Sie sich in unseren aktuellen Veröffentlichungen informieren. Alle Detecon-Publikationen finden Sie unter www.detecon.com und www.detecon-dmr.com 76 Detecon Management Report • 1/ 2010 www.detecon-dmr.com DMR Das Magazin für Management und Technologie Effiz ie nz ESSAY: Detecon Management Report - 1 / 2010 Detecon Management Report - 1 / 2010 Architecture meets ICT Clever andocken Was Carrier vom Silicon Valley über Innovation lernen können Am Puls der Veränderung Change Management ist kritischer Erfolgsfaktor in Effizienzprojekten Stark bedeckt oder wolkenlos? Cloud Computing in der IT-Strategie der Deutschen Post Detecon Management Report 1 / 2010