Schöne neue Welt – gute alte Fähigkeiten
Transcription
Schöne neue Welt – gute alte Fähigkeiten
www.detecon-dmr.com DMR Das Magazin für Management und Technologie ESSAY: Schöne neue Welt – gute alte Fähigkeiten Detecon Management Report - 1 / 2011 Detecon Management Report - 1 / 2011 Moderne Technik sinn-voll nutzen Thomas Lünendonk Think ICT 2032! Mehr als ein Gedankenspiel Im Auge des Betrachters Zukunftsszenarien für unser Leben in Augmented Realities Spiel mit Grenzen Die Zukunft der Netze Detecon Management Report 1 / 2011 Editorial ICT 2032 Liebe Leserinnen und Leser, wir wagen den Blick in die Zukunft – wie wird sich die Informations- und Kommunikationstechnologie über die nächsten 20 Jahre entwickeln? Eine spannende Fragestellung, der sich diese DMR-Ausgabe annimmt. Heute schon erkennbar ist ein wichtiger Trend: ICT treibt als zentraler Produktionsfaktor Innova tionen in allen Branchen voran. Denn nicht nur die ICT-Branche selbst entwickelt sich rasant weiter. Ihr Einfluss erreicht auch Anwendungsbereiche wie Energiewirtschaft, Transport und Verkehr, Finanzdienstleistungen und andere mehr. Zwei Prognosen leiten unsere Autoren hieraus ab: Zum einen wird ICT in nahezu jedem Produkt vorhanden sein. Zum anderen verändern sich die zugehörigen Wertschöpfungsbereiche, beispielsweise indem Endkundenleistungen von ICT Anbietern mit denen anderer Branchen verschmelzen. ICT Wertschöpfung wird sich auf marktund serviceorientierte Geschäftsbereiche (Business-as-a-Service) oder infrastrukturbezogende Dienstleistungen (Infrastructure-as-a-Service) konzentrieren. Entscheidend hierfür ist eine Organisationsstruktur, die es erlaubt, mit einer Vielzahl von Partnern ad hoc zusammenzuarbeiten. In der Zukunft erwarten uns also untereinander vernetzte Autos, intelligent gesteuerte Stromnetze und Häuser sowie Smart Agents, die unsere Hauseinrichtung inklusive Transport und Montage koordinieren. Schöne neue Welt? Ja, meint Essayist Thomas Lünendonk. Und zwar dann, wenn wir moderne Informations- und Kommunika tionstechnologien mit Sinn und Verstand nutzen: „Als Fackel durch das Paradies und den Dschungel der Möglichkeiten kann uns ein kleines Wort dienen: Warum?“ In diesem Sinne wünschen wir Ihnen eine anregende Lektüre! Ingrid Blessing Chefredakteurin Detecon Management Report 1 Detecon Management Report • 1 / 2011 ICT 2032 Inhalt Essay Schöne neue Welt – gute alte Fähigkeiten Moderne Technik sinn-voll nutzen Seite Thomas Lünendonk 4 Strategy Think ICT 2032! 8 Mehr als ein Gedankenspiel Den Geschäftshorizont im Visier 18 Wie Sie sich für Business as a Service positionieren InCar Kommunikation der Zukunft 26 Herausforderungen und Ansätze zur Umsetzung nachhaltiger ICT Lösungen für die Automobilindustrie Social Innovation 30 Eine Unternehmensperspektive auf die Mitgestaltung einer nachhaltigeren Gesellschaft Connected Energy 36 Innovationstreiber ICT – eine Branche vor dem Umbruch Impressum: Herausgeber: Detecon International GmbH Frankfurter Straße 27 65760 Eschborn Germany www.detecon.com [email protected] 2 Detecon Management Report • 1 / 2011 Aufsichtsrat: Klaus Werner (Vorsitz) Chefredaktion: Ingrid Blessing (V.i.S.d.P.) Design: Ernst Formes Geschäftsführung: Dr. Klaus Hofmann (Vorsitz) Andreas Baumann Local Court Bonn HRB 2093 Registered Office: Bonn Redaktion: Christine Wolters e-Mail: [email protected] Druck: Kristandt GmbH&Co.KG Frankfurt/Main Erscheinungsweise: vierteljährlich ISSN 1867-3147 Inhalt Organization Im Auge des Betrachters 44 Zukunftsszenarien für unser Leben in Augmented Realities Auf zu neuen Ufern 50 Warum die Suche nach der perfekten Organisationsstruktur niemals endet „Wird es in der Zukunft überhaupt so etwas wie ein Telekommunikationsunternehmen geben?“ 56 Interview mit Mike Kelly, Senior Technical Manager des TM Forums Keine Musik mehr in der Warteschleife 60 Self-Service prägt die Servicekultur 2032 Technology Intelligente Helfer erobern die Welt 66 Die Renaissance der künstlichen Intelligenz Spiel mit Grenzen 72 Die Zukunft der Netze Detecon publiziert ! 79 Detecon meets Young Art 80 3 Detecon Management Report • 1 / 2011 Essay Schöne neue Welt – gute alte Fähigkeiten Moderne Technik sinn-voll nutzen Thomas Lünendonk M anchmal sind Kinder einfach die besten Berater. Sie haben den goldenen Schlüssel für Beratungserfolg bereits mit zwei bis drei Jahren in der Tasche. Und sie ziehen ihn unerbittlich. Dieser Schlüssel besteht aus nur einem einzigen Wort mit fünf Buchstaben: „Warum?“ Warum (!) schreibe ich das? Weil wir uns diese Frage immer wieder einmal stellen sollten, wenn wir in der Welt der Innovationen und der Technik nicht untergehen wollen. Wenn wir wissen und verstehen wollen, welchen Nutzen uns neue Möglichkeiten bieten. Wenn wir mit Sinn und Verstand neue Wege gehen möchten. Die Antworten auf diese Frage gehen nicht selten über den ökonomischen Horizont hinaus. Sie beschäftigen sich auch damit, inwieweit menschliche Fähigkeiten und Fertigkeiten ergänzt, erweitert oder eventuell reduziert werden. 4 Detecon Management Report • 1 / 2011 Schöne neue Welt – gute alte Fähigkeiten Was man so alles kann... Die Ankündigungen von Technologie- und Service-Unternehmen arbeiten viel und gerne mit dem Wörtchen „kann“: „Dieses Smartphone kann dies und das“, „Mit diesem E-Pad können Sie dieses und jenes“, „In wenigen Minuten können Sie sich mit so und so viel Menschen vernetzen“ etc. In jeder Zeile dieser Werbebotschaften schimmert die Begeisterung der Ingenieure durch, die mit Recht stolz darauf sind, neue Möglichkeiten erschlossen zu haben. Und natürlich erklingt da auch die Stimme der Marketiers, die sich von den neuen Features mehr Kundennutzen und mehr Umsatz erhoffen. Das ist gut und legitim. Der Erfindungsgeist in der Informations- und Kommunikationstechnik hat in den letzten Jahrzehnten viel Wohlstand erzeugt und auch sehr viel Komfort bereit gestellt, den die Menschen heute nicht mehr missen möchten. Und doch darf immer wieder die Frage nach dem Warum gestellt werden. Warum ist es gut, sich mit so und so viel Menschen zu vernetzen? Sind wir nicht gelegentlich schon mit der familiären oder nachbarschaftlichen Kommunikation überfordert? Warum sollen andere und ich jederzeit verfügbar sein? Ist temporäre Ruhe nicht auch ein Wert? Chancen und Risiken... Die Frage nach dem Warum im Umgang mit Kommunikationstechnik hat jedoch weitaus mehr Facetten als nur die Reflexion über persönliche Verhaltenspräferenzen. Bei aller Begeisterung über neue technologische Möglichkeiten sollte der Blick auch immer wieder einmal darauf fallen, welche Chancen und Risiken gleichermaßen in deren Gebrauch liegen. Nehmen wir ein ganz simples Beispiel: Ein Mensch schreibt einen Liebesbrief. Er schreibt ihn mit dem PC. Die Zeile „Ich liebe Dich“ fügt er in das Dokument mit 12 Tastendrücken für Buchstaben und zweimaligem Drücken der Leertaste ein. (Wir wollen an dieser Stelle hoffen, dass er aufgrund häufigen Partnerinnenwechsels das Ganze nicht mit „Copy& Paste“ praktiziert hat.) Die hochemotionale Liebesbotschaft ist also mit mehrfachen mechanischen Bewegungen produziert worden. Und anstelle der 12 Buchstaben für „Ich liebe Dich“ hätten auch beliebige andere Wörter mit ebenso vielen Buchstaben oder nur Ziffern geschrieben werden können. Es ist in jedem Falle eine Botschaft per Tastendrücken. Handarbeit schafft Datenstürme im Kopf... Nun die Alternative: Ein Mensch verfasst handschriftlich die gleiche Liebesbotschaft. Hier handelt es sich nicht um wiederkehrendes Tastendrücken, sondern um das Malen von Buchstaben zu Wortbildern. Im Gotischen stand das Wort „malen“ sowieso gleichermaßen für schreiben wie für malen. Dieses Vorgehen hat eine andere Qualität – nicht was die Liebe, sondern was den Schreibprozess betrifft. Hier wird mit einer erlernten Motorik der Hand, beispielsweise der rechten, die linke Gehirnhälfte, die für die Steuerung der rechten Gliedmaßen zuständig ist, aktiviert. Parallel dazu wird die rechte Gehirnhemisphäre, die bei Bildern und Emotionen dominiert, ebenfalls adressiert und es entwickelt sich über die Verbindung der beiden Hemisphären, das sogenannte Corpus Callosum, ein lebhafter „Datenverkehr“. Diese Aktivierung mehrerer Gehirnbereiche erhöht die Erlebnis- und Merkfähigkeit. Die etwas langsamere „Handarbeit“ des Schreibens verleiht dem Vorgang auch noch eine temporäre Wertsteigerung. Was hier für den Vorgang „Liebesbrief“ dargestellt wurde, hat natürlich auch seine Bedeutung für wissenschaftliches Arbeiten. Auch im Zeitalter der PCs und Scanner sieht man viele Studentinnen und Studenten an ihren Bleistiften nagen, weil das Herausfiltern und Erarbeiten von Wissen durch 5 Detecon Management Report • 1 / 2011 Essay handschriftliche Notizen besser unterstützt wird. Hinzu kommt, dass die Fertigkeit der Handschrift sich positiv auf die Merkfähigkeit auswirkt und mehr Synapsen im Gehirn „unter Strom“ setzt als einfaches Tastendrücken. Die fünf Sinne verbinden... Warum? Bei der Handschrift sind mehrere Sinne miteinander verbunden. Zum einen die Sensorik der Hand, zum anderen das Sehen eines Wortbildes in einer Vorlage beziehungsweise das Imaginieren eines Wortbildes im Kopf, um es anschließend auf Papier umzusetzen. Darüber hinaus gibt einem ein Füllfederhalter oder ein Bleistift Halt und ein Stück Papier ist fassbar und vermittelt uns das Gefühl, etwas bleibend „erfasst“ zu haben. Wenn wir im übrigen das Gelesene auch noch leise vor uns hinmurmeln und damit den Sprachsinn und unser auditives Zentrum aktivieren, so steht einem größeren Erkenntnis- oder Lernerfolg nicht mehr viel im Wege. Also zurück zum Bleistift? Warum? Wenn wir diese oben dargestellten Vorteile des tradierten Arbeitens berücksichtigen, dann können wir sie auch nutzbringend auf neuen Plattformen realisieren. Zum Beispiel können wir einen so genannten Smart Pen verwenden, mit dem sich sowohl Hören (integrierte Aufnahmetechnik) als auch Schreiben (handschriftlich) lässt und der nach Abschluss eines Seminars, Vortrags oder eines individuellen Lernprozesses das Gehörte und Handgeschriebene auf einen PC überträgt. Wege zum Umgang mit neuer Technik... Dieses Beispiel ist besonders schön, weil es sich gegen die häufig gestellte, recht dumme Frage wehrt: „Was ersetzt das?“ Vielmehr wird hier deutlich, dass sich durch Berücksichtigung alter Fähigkeiten und der Aufgeschlossenheit für moderne Technik neue Potenziale erschließen lassen. Die richtigen Fragen lauten daher: „Was ergänzt meine Fähigkeiten? Was erweitert meine Möglichkeiten? Warum, mit welcher Motivation und Zielsetzung, nutze ich beispielsweise Informations- und Kommunika tionstechnik?“ Die Technologie bleibt die Gleiche, doch die Herangehensweise ist eine andere. Technik ist also kein Selbstzweck, sondern sollte Fragen beantworten und tatsächliche Bedürfnisse befriedigen. Mit der Frage nach dem Warum wird schnell offenkundig, ob es um echten oder synthetischen Bedarf geht. Umberto Eco hat das einmal sehr schön dargestellt. Er berichtete, wie schwierig es war, das Wissen einer Zeit in einem handgeschriebenen, mittelalterlichen Lexikon zusammenzufassen. Die moderne Drucktechnik brachte hier die Lösung. Das Gegenteil der Neuzeit: Als die CDs und DVDs aufkamen, stellte sich die Frage: „Womit füllen wir diesen Speicherplatz?“ Und wenn wir einmal ehrlich sind, so ist auch heute die eine oder andere App der Tatsache geschuldet, dass bereitgestellter Speicherplatz irgendwie befüllt werden muss. Man fühlt sich gelegentlich an den Wunsch stolzer Schrankwandbesitzer „Eiche rustikal“ erinnert, die Bücher nur kauften, um die Regale im Wohnzimmer zu füllen. Manches analoge Phänomen der Vergangenheit verlagert sich fast 1:1 in die digitale Gegenwart. Ähnliches gilt übrigens auch für die elektronischen Medien. Gibt es heute so viele TV-Sender mit Lach-Shows, weil es so viele gute Komiker gibt? Oder gibt es so viele grottenschlechte bis mittel mäßige Komiker, weil so viele Sendeplätze bestückt werden müssen? Die Technik ist auch hier nicht schuld, sie bietet nur die Plattform. Und vielleicht sollte sich auch mancher Sender einmal neben dem Quotendenken die „Warum“-Frage stellen. 6 Detecon Management Report • 1 / 2011 Schöne neue Welt – gute alte Fähigkeiten Viel hilft nicht immer viel... Warum bin ich denn nun beim TV gelandet? Weil das ein schöner Übergang zum Thema „Multitasking“ ist. Wer schaut denn, bitte schön, heute noch einfach so Fernsehen? Es wird dabei gegessen, getrunken, gelesen, geredet. Das Ganze lässt sich natürlich noch weiter auf die Spitze treiben. Wir schauen TV am PC. Das Programm läuft in einem Fenster, parallel hören wir über Kopfhörer iTunes, lesen mit einem Auge aktuelle RSS-Feeds, essen eine Pizza, trinken eine Limo und – genau! – wir schreiben dabei noch einen Liebesbrief. Wir machen sozusagen Vieles, aber nix richtig. Alle Sinne sind zwar einbezogen: das Sehen, das Hören, das Olfaktorische (die Pizza duftet), das Gustatorische (die Pizza und die Limo schmecken) und das haptisch Sensorische (wir fassen die heiße Pizza und die langsam fettig werdende Tastatur an). Außerdem sind wir auch noch emotional angerührt (Liebesbrief ). Multi-Channel-Tasking erster Güte. Warum ist das schlecht? Ist es nicht! Es ist nur qualitätsmäßig suboptimal. Goethe hat einmal nett gesagt: „Wer vieles bringt, wird manchem etwas bringen“ (Faust I, Vers 97). Aber eben nicht jedem immer alles und auch noch gleichzeitig. Und so ist das auch beim Versuch des Multitaskings. Ein wenig gelingt es, aber eben nur ein wenig. Wer gleichzeitig in zu vielen Kanälen schwimmt und zu viele Sinne mit unterschiedlichen Themen und Aktivitäten adressiert, der hat zwar den Eindruck prallen Lebens, er schwimmt aber nicht im Teich, sondern auf der Oberfläche des Teichs. Das ist besser als Ertrinken, aber auf Dauer oberflächlich. Nicht mehr, sondern besser... Und gerade das wollen wir doch eigentlich mit der neuen Technik vermeiden – oder? Wir wollen nicht mehr, sondern besser verstehen. Wir wollen nicht alles, sondern das Richtige tun. Wir wollen nicht herumirren, sondern an Ziele kommen. Wir wollen nicht Atlanten sammeln, sondern Wege finden. Diese Wege zur Erkenntnis können zu ganz banalen und alltäglichen Themen, Fragen und A ntworten führen. Sie können aber auch genutzt werden, um sich über die Sinnhaftigkeit des Lebens oder des eigenen Verhaltens immer wieder einmal Gedanken zu machen. Nicht im Sinne einer Selbstkritik, sondern im Sinne einer Überprüfung aktueller Positionen und Wünsche. Dabei kann uns die moderne Informations- und Kommunikationstechnik phantastisch helfen. Dabei kann auch Social Media nützlich sein. Die Technik und das Netz sind aber nur das Mittel, nicht der Zweck. Und als Fackel durch das Paradies und den Dschungel der Möglichkeiten kann uns ein kleines Wort dienen: Warum? Thomas Lünendonk, gelernter Journalist, Marktanalyst und Unternehmensberater, ist Gründer und Inhaber der Lünendonk GmbH, Kaufbeuren. Seit 1983 ist er Herausgeber von Markt-Rankings- und -Studien, den so genannten Lünendonk®-Listen und -Studien. Diese gelten sowohl in Deutschland als auch in den Nachbarländern als Standard und Marktbarometer. Mit dem Konzept Kompetenz³ bietet das Informations- und Transformations-Unternehmen Lünendonk GmbH Marktforschung, Marktanalysen und Marktberatung in der Informationstechnik-, Beratungs- und Dienstleistungsbranche aus einer Hand an. 7 Detecon Management Report • 1 / 2011 Strategy m Jahr 2032 wird man rückblickend sagen, dass Anna eine IVorform der Smart Agents ist, die dann die Interaktion und Dr. Karl-Michael Henneking Think ICT 2032! Mehr als ein Gedankenspiel 8 Detecon Management Report • 1 / 2011 Transaktion im Internet dominieren werden. Man stelle sich einfach vor, Anna könnte Gesichter und Sprachen erkennen und auch per Stimme antworten. Man stelle sich vor, Anna hätte nicht nur das Wissen über IKEA, sondern auch über weitere Unternehmen, die sich per Internet – oder besser: ICT – vernetzt hätten. Man stelle sich vor, die Produkt- und Lagerbestände dieser Unternehmen seien einem Smart Agent zugänglich. Anna könnte dann nicht nur den Teppich, sondern auch die gesamte Einrichtung eines Zimmers inklusive Dienstleistungen wie Transport und Montage koordinieren. Natürlich nur, wenn die Konsumenten dies 2032 auch wollen. Manch einer mag nun skeptisch werden, aber welche Meinung hat dazu wohl die Generation der heutigen Digital Natives? Neben Smart Agents werden Smart Business Networks charakteristisch für die Geschäftswelt im Jahr 2032 sein. In Smart Business Networks schließen sich Partner ad hoc und flexibel zur Lösung einer Aufgabe zusammen, in aller Regel zur Befriedigung eines Kundenbedarfs. Es werden jeweils nur die Partner aktiviert, die zur Problemlösung benötigt werden. Beispiele für Geschäftsnetzwerke existieren schon heute, allerdings ist ihr Potenzial bei weitem nicht ausgeschöpft. Erst Think ICT 2032! Letzte Woche habe ich mit Anna gesprochen. Anna ist eine sympathische junge Dame, die ein blau-gelbes Poloshirt trägt. Ich habe sie gefragt, wie ich am schnellsten zu Ikea komme. Anna hat mir mit einer Skizze des Anfahrtsweges zum IKEA-Markt in Köln geantwortet. Anna erscheint in einem Pop-up-Fenster beim Aufruf der IKEA-Homepage. Sie sieht ein bisschen aus wie ein Avatar, hat aber nichts technisches, sondern wirkt sehr menschlich mit ihrem freundlichen Lächeln. Anna ist ein Lingubot. Man kommuniziert mit ihr, indem man in ein Textfenster Fragen eintippt, die sie in vollständigen Sätzen beantwortet. Das ist beeindruckend und offensichtlich ein erheblich besserer Service als die Auflistung von Links, die zum Beispiel eine Suchmaschine im Internet liefert. Auf die Frage nach den günstigsten Teppichen hat mich Anna automatisch auf die IKEA-Seite mit dem entsprechenden Sortiment gelenkt. Nicht „one click“, sondern „zero click as a service“. Cool! Natürlich möchte man nach solchen Kostproben wissen, was Anna noch kann, also wie „intelligent“ sie eigentlich ist. Ich fordere Anna heraus, in dem ich ihr eine persönliche Frage stelle: „Anna, wie alt bist Du?“ Meine Erwartungshaltung: Systemfehler, nicht zulässige Frage oder eventuell ein Weiterleiten zu einer IKEA-Seite, auf der das Wort „alt“ in einer Produktbeschreibung auftaucht. Annas Antwort: „Ich bin 29, aber Alter spielt für mich keine Rolle.“ Aha, Hut ab. „Und wie ist Dein Familienname?“ „Du kannst mich gerne Anna nennen, meine Freunde rufen mich immer so.“ Ich konstatiere: Anna ist smart.1 durch eine weitgehende Automatisierung der Geschäftsprozesse und -regeln über ICT können sich die Netze voll entfalten beziehungsweise smart, das heißt intelligent werden. Wem dies zu abstrakt erscheint, dem sei folgendes Beispiel vor Augen geführt: Das in Hongkong ansässige Unternehmen Li&Fung ist ein global tätiger Supply Chain Enabler, der zum Beispiel für Nike, Walmart und Avon arbeitet, ein Netz von 12.000 Produzenten in 40 Ländern steuert und mit seinem „asset-light“-Geschäftsmodell 16 Milliarden US-Dollar Umsatz erwirtschaftet, ohne eine einzige Fabrik zu besitzen. Im Gegensatz zu den traditionellen Verfahren der Beschaffung geht man in diesem Geschäftsnetzwerk alternative Wege. Beispielsweise wird ein Hemd nicht in einer einzigen Fabrik gefertigt, sondern Li&Fung bestimmt nach Preis- und Qualitätskriterien sowie eigenen Vorstellungen zum Design, wo das Garn zu beziehen ist, wer die Stoffe webt, färbt und wo sie zusammengenäht werden. Die einzelnen Bestellungen der Kunden werden zu Großaufträgen gebündelt. Da das Netzwerk vorwiegend kleinere Fabriken umfasst, beherrscht Li&Fung seine Orderbücher und kann so1 Mehr zu Anna und weiteren Innovationen im Kundenservice finden Sie in der Detecon-Studie „Kundenservice der Zukunft“. http://www.detecon.com/de/studies/kundenservice-der-zukunft_2010 mit Preis- und Qualitätsvorteile in der Beschaffung realisieren. Vom Design bis zur Lieferung können alle Produktionsschritte abgedeckt werden, was insbesondere für Abnehmer wie große Modehäuser mit Eigenmarkengeschäft attraktiv ist. Für die Steuerung dieses Geschäftsnetzwerks setzt Li&Fung 8000 Agenten ein, die in den Fabriken vor Ort die Disposition optimieren. Li&Fung hat die erste Stufe eines Smart Business Networks bereits jetzt durch den Einsatz von Web Services, Videokonferenztechnologien und intelligenten mobilen Endgeräten erreicht. Damit sind die Prozessdurchlaufzeiten erheblich verkürzt worden. Weitere Wertschöpfungspotenziale können gehoben werden, wenn die Zulieferer über ICT vernetzt Echtzeitdaten über Produktionskapazitäten übertragen und darauf aufbauend die Bestell-, Produktions- und Auslieferungsprozesse optimiert werden. Smart Business Networks können aber auch ganz andere Formen annehmen als am Beispiel von Li&Fung illustriert. Insbesondere muss das Unternehmensnetz nicht durch eine zentrale Instanz dominierend gesteuert werden, sondern kann weitaus dezentraler organisiert sein, indem sich zum Beispiel kleine und mittelständische Unternehmen zusammenschließen, um ihre Marktposition oder Verhandlungsmacht zu verbessern. 9 Detecon Management Report • 1 / 2011 Strategy Entscheidend ist, dass das Netz durch ein Regelwerk – ein Geschäftsbetriebssystem – gesteuert wird, das die notwendigen Geschäftsprozesse bei den Parteien ICT-gestützt aktiviert und koordiniert. Smart Business Networks werden 2032 selbstlernend und weitestgehend automatisiert arbeiten. Einzelne Parteien beziehungsweise Geschäftspartner werden sich innerhalb des Netzes durch Smart Agents vertreten lassen. Nach dieser Vorschau auf Smart Business Networks gehen wir noch mal einen Schritt zurück zu Anna. Stellen wir uns vor, dass Anna nicht mit dem Wissen über IKEA a usgestattet ist, sondern über unsere persönlichen Vorlieben und u nser typisches Verhalten, wie es sich in der Nutzung des Internets wider spiegelt. So wissen Google, Facebook, Apple, E -Bay und Amazon z usammengenommen sehr viel über uns: w elche Informationen wir suchen, wie wir diese Informationen selektieren, was für P rodukte wir kaufen, welche Produkte wir im Netz anschauen oder welche Freunde wir haben. Zusätzlich werden in Z ukunft noch weitere Informationen über unser Verhalten zur Verfügung s tehen, insbesondere audiovisuelle Daten und Bewegungsinformationen, die über Lokalisierungstechnologien und Sensornetze erhoben werden. Zusammengenommen sind diese Daten erheblich reichhaltiger als die Unternehmensinformationen, mit denen Anna heute arbeitet. Ein Smart Agent könnte mit dem persönlichen Wissensschatz ausgestattet also genauso gut Konsumenten vertreten, wie Anna zurzeit ein Unternehmen vertritt. Bis 2032 wird es umfassende regulatorische Rahmenbedingungen und Zertifizierungen geben, die die Privatsphäre schützen und damit den sicheren Umgang mit persönlichen Daten garantieren. Gleichzeitig steigt die Anzahl der verfügbaren Informationen und damit auch der Entscheidungsalternativen für den Konsumenten exponenziell. Konsumenten haben dann nicht nur ein Informationsfindungs- und Selektionsproblem, bei dem Suchmaschinen im Internet behilflich sein können. Es wird vielmehr aufgrund der Vielzahl der Alternativen laufend ein komplexes Entscheidungsproblem entstehen. Mit künstlicher Intelligenz und persönlichen Daten ausgestattete Smart Agents werden in Zukunft für uns Entscheidungen übernehmen und auch autonom Transaktionen bis hin zur Bezahlung anstoßen. Bedingung dafür ist, dass die Person, für die der Smart Agent die Entscheidungen und auch Handlungen (Transaktionen) übernimmt, dem Betreiber des Smart Agents vertraut – sowohl hinsichtlich des sorgsamen Umgangs mit persönlichen Daten als auch im Hinblick auf die Qualität, mit der Entscheidungen gefällt werden. Welcher Anbieter am Ende diese Funktion übernehmen wird, lässt sich heute noch nicht sagen. Firmen wie Google bereiten sich durch die systematische, immer mehr Lebensbereiche erfassende Datensammlung darauf vor, dem evolutionären Pfad des Internets von Informationssuche – Selektion – Empfehlung – Entscheidung – Handlung zu folgen, auch wenn zur Zeit im Wesentlichen nur die ersten drei Stufen bedient werden.2 Aber gerade für Suchmaschinenbetreiber könnte aufgrund ihres werbefinanzierten Geschäftsmodells aus Nutzersicht ein Interessenkonflikt entstehen. Nur wenn die Qualität der Daten und die Entscheidungsalgorithmen anderen unabhängigen Smart Agent-Anbietern so überlegen sind, dass die Konsumenten mögliche Objektivitätseinbußen bei der Entscheidungsfindung in Kauf nehmen, können die gegenwärtigen Geschäftsmodelle bestehen bleiben. Sowohl die Smart Agents als auch die Smart Business Networks zeigen, dass wir uns in den nächsten 20 Jahren weiter in ein Zeitalter datenzentrischer Geschäftsmodelle bewegen. So prognostiziert Hal Varian, ein angesehener Professor für Mikroökonomie aus Berkely und mittlerweile Chefökonom von G oogle, dass sich der Beruf des Datenanalytikers in Zukunft zum „sexiest job around“ entwickle. Aber nicht nur Google, Facebook und Amazon bereiten sich auf dieses neue datenzentrische Zeitalter vor. Auch Firmen wie IBM, Oracle, Microsoft und SAP rüsten seit einiger Zeit auf. Sie haben in den letzten Jahren für über 15 Milliarden Dollar Softwarefirmen gekauft, die auf Daten management und -analytik spezialisiert sind. Globale Trends und ihre Bedeutung für das ICT Ecosystem Warum eigentlich 2032? Kann man überhaupt so weit in die Zukunft blicken? Wir denken, dass dies möglich ist, wenn man sich auf langfristige globale Trends im ICT Eco-System stützt. Einige dieser Trends beeinflussen nicht nur den ICT Sektor, sondern sie werden gleichzeitig durch ICT selbst verstärkt. Wir haben sechs solcher mit ICT verwobenen Megatrends identifiziert: Das wirtschaftliche und damit das ICT Gravitationszentrum driftet nach Osten: In den kommenden 20 Jahren werden sich die Mehrheit der Weltbevölkerung und der Großteil der Wirtschaftskraft im asiatischen Raum ballen. In Indien und China werden 2032 voraussichtlich jeweils über 1,5 Milliarden Menschen leben.3 Beide Staaten werden, gemessen an ihrem 2 Es ist daher sicherlich auch kein Zufall, dass Google Autos in den USA fahren lässt. Hier werden Stufe 4 und 5, also autonome Entscheidung und Handlung, durch künstliche Intelligenz bereits Realität. Nicht nur Autos sind generell selbststeuerungsfähig. Viele finanzielle Transaktionen an Börsen werden schon jetzt nach vorgegebenen Regeln durch entsprechende Computerprogramme automatisch durchgeführt. 3 UN (2010): World Population Prospects. 10 Detecon Management Report • 1 / 2011 Think ICT 2032! Bruttosozialprodukt, zu den drei Top Wirtschaftsnationen zählen, wobei China dann deutlich vor den USA als zweitstärkste Wirtschaftsnation der Welt stehen wird. Asien wird einen signifikanten Teil seiner volkswirtschaftlichen Wertschöpfung mit Hilfe von ICT erbringen. Globale ICT Innovation wird deutlich stärker als jetzt aus dieser Region getrieben werden. Das neue Silicon Valley werden wir 2032 in Asien finden. Die Triade altert – ICT hilft, die Herausforderungen zu bewältigen: Global steigt die Lebenserwartung weiter. Damit steigen auch die Ausgaben für Gesundheit drastisch. ICT Anwendungen, die die Qualität der medizinischen Diagnostik erhöhen sowie Prävention und Therapie verbessern, werden eingesetzt, um Kostensteigerungen entgegenzuwirken und deutliche Effizienzsteigerungen im Gesundheitssystem zu bewirken. Gleichzeitig entsteht insbesondere in der westlichen Hemisphäre mit den dann ICT-affinen Senioren eine neue, sehr kaufkräftige Zielgruppe. Anbieter werden ihren heutigen Fokus von der jüngeren Zielgruppe zu Senioren verlagern und dieses Segment mit der Fülle der informations- und telekommunikationstechnischen Möglichkeiten bedienen – von der digitalen Patientenakte über telemedizinische Leistungen bis zu hautimplantierten Chips und intelligenten Pillen, die mit drahtloser Kommunikationstechnologie ausgestattet sind und Medikamente dosieren. Mega-Cities nutzen ICT als Wettbewerbsfaktor: In 20 Jahren werden 60 Prozent aller Menschen in Städten leben. Zahlreiche Mega-Cities mit mehr als zehn Millionen Einwohnern werden sich als wirtschaftliche Schmelztiegel etablieren. Diese MegaCities können die Wirtschaftskraft von G7-Nationen erreichen. Eine überlegene ICT Infrastruktur wird entscheidend dafür sein, Talente in diese Ballungsräume zu locken. ICT wird quasi die Lebensader für diese Mega-Cities bilden. In den führenden Ballungszentren wird eine vernetzte Infrastruktur vorhanden sein, die neben Internetanschlüssen mit Gigabit-Geschwindigkeit auch die klassische Energieversorgung, integrierte Verkehrssysteme und die Gebäudetechnik umfasst. Für ICT Anbieter ergeben sich Chancen für neue Geschäftsmodelle, zum Beispiel Infrastruktur als Dienstleistung und on-demand anzubieten (Infrastructure-as-a-Service). In der sich weiter beschleunigenden Globalisierung macht ICT den Mittelstand mobil: Nicht zuletzt aufgrund der Zunahme der Wirtschaftskraft Asiens werden die Handelsströme noch globaler. Das derzeitige Welthandelsvolumen von zirka 13 Billiarden US-Dollar wird in 20 Jahren auf 50 Billiarden ansteigen und sich damit nahezu vervierfachen.4 Die Arbeitsteilung erhöht sich deutlich. Mit Hilfe von ICT flexibilisieren Unternehmen ihre Organisation, ihre Prozesse sowie die Interaktion mit Partnern und Zulieferern weiter. Sie organisieren Forschung, Produktion und Vertrieb noch globaler, um regionale Unterschiede in Kosten, Kompetenzen und Marktpotenzialen bestmöglich zu nutzen. Dies gilt nicht nur für große multinationale Unternehmen, sondern wird durch die fortschreitende Digitalisierung von Gütern und Dienstleistungen, das Internet und Cloud Computing in Zukunft wesentlich durch einen global agierenden Mittelstand getrieben. Das Zeitalter der Smart Business Networks steht bevor: Die Automatisierung von Geschäftsprozessen wird in Form von Smart Business Networks eine nächste Stufe erreichen. Die Mitglieder dieser intelligenten Industrienetzwerke schließen sich problembezogen in variierenden Konstellationen zu Produktions- und Dienstleistungsketten zusammen. Sie können ad hoc Geschäftsbeziehungen aufbauen – und sie ebenso schnell wieder beenden. Gesteuert werden die Unternehmensnetze über Regeln und Prozesse der Zusammenarbeit, die sich gemäß industriespezifischer Geschäftsbetriebssysteme definieren. Diese Systeme werden selbstlernenden Charakter haben. Expertenschätzungen zufolge können Smart Business Networks innerhalb der nächsten zwei Dekaden bis zu 30 Prozent der Geschäftsaktivitäten übernehmen. Intelligente ICT Infrastruktur und Lösungen sind hierbei Grundvoraussetzung und Erfolgsfaktor zugleich. Smart Agents haben das Sagen im Internet der Dinge: Heute konzentriert sich das Internet im Wesentlichen auf die Suche, Bereitstellung und Selektion von Informationen und hat mit Web 2.0-Anwendungen einen zunehmend interaktiven Charakter für die Nutzer bekommen. Im Internet der Zukunft wird nicht mehr die Mensch-zu-Mensch-Kommunikation, sondern die Maschine-zu-Maschine-Kommunikation im Zentrum stehen. Viele Objekte, Gegenstände oder allgemein Dinge werden mit einer IP-Adresse versehen sein und über Funk oder Kabel mit einander kommunizieren. Sind in diesem Internet der Dinge Objekte mit künstlicher Intelligenz versehen, sind sie in der Lage, nicht nur selbstständig Informationen zu suchen und zu selektieren, sondern auch weitestgehend autonom zu entscheiden und zu handeln. Der intelligente Kühlschrank, der feststellt, welche Lebensmittel fehlen, dann über das Internet preisgünstig die benötigten Waren in der gewünschten Qualität beschafft und gegebenenfalls auch noch eigenständig die Bezahlung auslöst, ist nur ein Beispiel. Künstliche Intelligenz beziehungsweise Smart Agents, die die Nutzer und Konsumenten im Internet vertreten, werden sich in verschiedensten Formen manifestieren: von „einfachen“ automatischen E-Mail-Beantwortungsmaschinen über Lingubots (wie Anna bei IKEA) und Avatare bis hin zu autonom agierenden elektronischen Einkäufern und e-butlern im Netz. 4 WTO (2010): Time Series of International Trade. 11 Detecon Management Report • 1 / 2011 Strategy Ausgehend von diesen Megatrends im ICT Eco-System lässt sich folgern, dass ICT in Zukunft allgegenwärtig wird – im persönlichen wie im beruflichen Bereich. Zudem wird sich ICT bis 2032 zum zentralen Produktions- und Differenzierungsfaktor in nahezu allen Branchen entwickeln. Diese „ICTsierung“ hat fundamentale Auswirkungen auf Geschäftsmodelle und -prozesse in der ICT-Branche selbst, aber auch in allen anderen Industrien. Dies lässt sich an ausgewählten Beispielen verdeutlichen. Logistik: Die Logistikbranche kann in besonderem Maße von der (drahtlosen) Vernetzung und der Datenverarbeitung profitieren. Mit dem Management von Logistikketten in Echtzeit, vollautomatisierten Warenlagersystemen und der Telematik ist ICT auf nahezu allen Wertschöpfungsstufen der modernen Logistik effizienzsteigernd einsetzbar. Technologien, die hier eine wichtige Rolle spielen, sind Nearfield Communication, Sensor-Netze und Maschine-zu-Maschine-Kommunikation. Computergestützte Planungssysteme und die Steuerung von Warentransporten ermöglichen Just-in-Time-Produktion. Das Ergebnis ist neben der höheren Flexibilität auch eine verbesserte Effizienz durch die Planbarkeit und Steuerung der gesamten Lieferkette. Automotive: Dehnen wir den Blick auf die Automobilindustrie aus: Neben Motortechnologie und Design sind Automo- bilhersteller zurzeit bestrebt, sich durch in-car electronic zur Unterstützung der Fahrzeugsteuerung (APS, ESP, …) zu differenzieren. Die nächste Evolutionsstufe wird mobilitäts- und infotainmentbezogene Internetanwendungen im Auto umfassen. Ist jeder Wagen mit einem Kommunikationsmodul ausgestattet, lässt sich nicht nur die aktuelle Position bestimmen (wie bei GPS), sondern es können von Auto zu Auto Informationen gesendet werden, die der Verkehrssteuerung und Verkehrsflussoptimierung dienen. Damit aber nicht genug: Es lassen sich durch diese Vernetzung bessere Sicherheitsanwendungen, neue Mobilitätskonzepte (innovatives Car-Sharing) bis hin zur Integration von Geo-Informationen in sozialen Netzen realisieren. Für Automobilhersteller eröffnen sich nicht nur Differenzierungsmöglichkeiten in ihrem Kerngeschäft, sondern durch ein besseres Verständnis des Mobilitätsverhaltens ihrer Kunden auch neue, mobilitätsservicebezogene Geschäftsmodelle. Energie: Die Zukunft der Energiewirtschaft wird maßgeblich durch Smart Grids bestimmt werden. Smart Grids beziehungsweise durch ICT intelligent gemachte Stromnetze erlauben durch den gezielten Austausch von Informationen über Verbrauch, Speicherkapazitäten sowie Stromproduktion eine Optimierung der Auslastung von Stromnetzen. Vorteile ergeben sich insbesondere für Stromnetze, die durch viele dezentrale Produktionskomponenten gespeist werden, wie zum Beispiel kleine Kraft-Wärme-Kopplungsanlagen und die zur Erzeugung Abbildung 1: Die Zukunft am Beispiel Automotive & Energie 2010 Automobil & Verkehr Internet im Auto Demand Response Management • Fahrt- und Kontextinfos integriert mit Digital Home • Fahrzeugferndiagnose • MP3/Adressbuch Sychronisation, personalisiertes digitales Radio • • Intelligente Verkehrssteuerung Virtuelle Kraftwerke • ICT basierte Verkehrsführung über Verkehrssteuerungszentrale • Stauwarnungen, Routenoptimierung • Zentralisierte, intelligente/ICT-basierte Steuerung der Energieversorgung auf Basis der Vernetzung von Einzelanlagen • Integration erneuerbarer Energien Auto-zu-Auto Vernetzung Elektromobilität/Vehicle-to-grid • Verbesserte Sicherheitsanwendungen • Neue Mobilitätskonzepte wie z.B. advanced car-sharing • Geo-Informationen in sozialen Netzen • Nutzung dezentraler Energiespeicher wie z.B. Elektroautos • Befüllung der Speicher bei hoher Energieerzeugung und bedarfsabhängiger Abruf Quelle: Detecon 12 energie Detecon Management Report • 1 / 2011 Automatisierte, preisabhängige Steuerung der Energiezufuhr auf Basis von messbaren Lastund Verbrauchsprofilen Verknüpfung mit anderen Digital Home Anwendungen wie z.B. Sicherheit Think ICT 2032! von erneuerbarer Energie eingesetzten Wind-, Biogas- oder Photovoltaikanlagen. In Smart Grids werden Stromproduktion und -verbrauch durch die automatische Steuerung und Kontrolle von Verbrauchsanlagen optimiert. Smart Meter dienen dabei der Verbrauchserfassung bei den Abnehmern. In Zukunft könnten noch die Batterien von Elektroautos als Stromspeicher benutzt werden. Die Batterien nehmen zu den Zeiten kostengünstig Strom auf, in denen mehr Energie verfügbar ist als unmittelbar abgenommen wird. Triple Play: ICT, Energie und Automotive: Am Beispiel von Smart Grids lässt sich zeigen, welchen disruptiven Charakter ICT-basierte Geschäftsmodelle für die Energie und Automobilindustrie zukünftig haben könnten. Übertragen wir das aus der Telekommunikationsindustrie bekannte Modell der Subventionierung von Handys auf das Elektroauto, in dem der Energielieferant dem Autokäufer für einen Zweijahresvertrag subventioniert ein Elektroauto zur Verfügung stellt. Nutzungsabhängige Tarife oder sogar „Energie-Flatrates“ wären denkbar, wenn man die aus der Telekommunikationsbranche bekannten Abrechnungssysteme anwendet. Für agile und progressive Anbieter in der Energiebranche lassen sich damit signifikante zusätzliche Marktpotenziale erschließen. Aus dem automobilzentrierten wird ein energiezentriertes Geschäftsmodell.5 Wie dieses Beispiel zeigt, hat ICT das Potenzial, Branchengrenzen für neue Spieler zu öffnen. Aber was bedeutet das eigentlich für die ICT Branche selbst? Welchen Veränderungen unterliegt sie bis 2032? ICT Industriedynamik Wenn Informations- und Telekommunikationstechnologie zum zentralen Produktionsfaktor – und in vielen Industrien auch zum entscheidenden Differenzierungsfaktor – wird, verändert sich die Rolle von ICT Anbietern im Markt. Im Wesentlichen erfolgt diese Veränderung in drei Stoßrichtungen: • • • ICT Anbieter erobern neue Wertschöpfungsfelder in anderen Industrien. Infrastruktur- und serviceorientierte ICT Wertschöpfung entkoppeln sich. Bisher branchenfremde Unternehmen stoßen in die lukrative ICT Domäne vor. Dass ICT Unternehmen in der Lage sind, ihre Wertschöpfung in andere Industrien zu verlängern, erkennt man im Markt für (digitale) Musik und Bücher bereits jetzt. Apple hat ein auf Be- nutzerfreundlichkeit, Design und Marke bauendes Eco-System mit verschiedensten Endgeräten etabliert. Genauso gut kann man sich Vorstöße von Telekommunikationsanbietern in einen Smart Grid-Markt vorstellen. Der breite Zugang zu Haushalten und Gebäuden sowie die Fähigkeit, Millionen von Kunden abrechnen zu können, sind wichtige Kernkompetenzen. Abrechnungsseitig haben sich schon jetzt in Ländern mit weniger gut ausgeprägten Bankensystemen Mobile Payment-Lösungen etabliert, mit denen Telekommunikationsbetreiber Finanzdienstleistungsfunktionen übernehmen. Neben der Expansion von ICT Unternehmen in andere Branchen wird es in Zukunft auch zu einer Öffnung der ICT Wertschöpfung kommen. Dabei wird die vertikale Desintegration in den traditionellen Wertschöpfungsketten die horizontale Konvergenz des Produktangebotes über Industrien hinweg fördern. Von der vertikalen Desintegration … In der IT-Industrie ist es bereits in den 90er Jahren zu einer vertikalen Desintegration durch die Trennung der Software (Betriebssystem, Anwendungen) von der Hardware gekommen. Die vertikale Desintegration in der Telekommunikations industrie vollzieht sich gegenwärtig entlang der SalesCo-ServCo-NetCo-Strukturen. Der Vertrieb emanzipiert sich von der Produkt- und Serviceentwicklung, die sich wiederum von der Netzinfrastruktur unabhängig macht. Die Entkopplung von Netz und Dienst wird dabei durch technologischen Fortschritt wie all-IP und das Internet getrieben, die eine infrastruktur agnostische Entwicklung von Kommunikationsdiensten wie zum Beispiel VoIP, Videotelefonie oder IPTV erlauben. Die vertikale Desintegration wird in Zukunft auch dadurch gefördert, dass gesetzliche, regulatorische oder politische Rahmenbedingungen entfallen, die eine integrierte Wertschöpfung gefördert oder geschützt haben.6 In Reinform kann die vertikale Desintegration dazu führen, dass sich Telekommunikationsbetreiber in unabhängig voneinander agierende Geschäftseinheiten aufspalten (SalesCos, ServCos und NetCos) beziehungsweise sich mit ihrer Geschäftstätigkeit auf einzelne dieser Wertschöpfungsebenen konzentrieren. 5 Siehe auch T- Systems Best Practice (3/2010), Interview mit dem Züricher Zukunftsforscher Lars Thomsen. 6 In der Europäischen Union wurde erst kürzlich den Regulierungsbehörden mit der zwangsweisen Netzseparierung ein machtvolles Instrument zur Verfügung gestellt. Damit kann bei Wettbewerbsbehinderung eine vertikale Desintegration und eine organisatorische Abtrennung des Zugangsnetzbetriebs eingefordert werden. 13 Detecon Management Report • 1 / 2011 Strategy … zur horizontalen Konvergenz Heute liegt in der ICT Industrie der Fokus noch auf der Konvergenz von TK/IT, Inhalten/IP sowie Fixed und Mobile. In einigen Jahren jedoch wird sich der Schwerpunkt auf die horizontale Integration von Industrien verschoben haben. Bald werden die Grenzen zwischen der ICT Industrie und anderen Branchen durchlässig, sodass sich der Wettbewerb um Anteile an diesem wachsenden Marktpotenzial verschärft. Auf den desintegrierten Wertschöpfungsstufen können sich Unternehmen mit Kostenvorteilen und Leistungsdifferenzierung profilieren. Kostenvorteile lassen sich zum Beispiel durch industrieübergreifende Synergien erzielen. Synergien können daraus resultieren, dass Technologien oder Prozesse auf andere Industrien übertragen werden, wie dies Apple mit iTunes praktiziert. Auf die gleiche Art könnte ein Telekommunikationsbetreiber seine CRM- und Abrechnungsfähigkeiten nutzen, um andere Infrastrukturleistungen wie Gas, Wasser oder Strom anzubieten. Das Prinzip ist, Fixkosten, die bei der Leistungserstellung entstehen, auf mehrere Produktarten oder Servicebereiche umzulegen. Das gilt auch im Infrastrukturbereich. Zum Beispiel sind die Kosten, die beim Bau einer Straße durch die gleichzeitige Verlegung von Glasfaser-Telekommunikationsinfrastruktur zusätzlich entstehen, weitaus geringer, als wenn ein Telekommunikationsunternehmen die Kabel extra verlegt. Wenn die Kosten der Verlegung von Glasfaserkabeln bis zu drei Viertel der gesamten Kapitalkosten der Netzinfrastruktur ausmachen, können Verkehrs- oder Abwasserinfrastrukturunternehmen die zusätzliche, gleichzeitige Verlegung von Telekommunikationsinfrastruktur kostengünstiger durchführen. Industriekonvergenz wird aber auch dadurch gefördert, dass sich neue Umsatzpotenziale durch konvergente Produkte und Lösungen erschließen lassen. Ein Beispiel dafür sind die oben beschriebenen Smart Grids. Mit der horizontalen Konvergenz entsteht eine bisher unbekannte Industriedynamik, die eine Vervielfachung des ICT Marktvolumens von derzeit zirka 4,1 Billionen US-Dollar bedeutet. Gleichzeitig dynamisiert sich die Wettbewerbslandschaft durch Öffnung der Branchengrenzen erheblich. Wie sieht vor diesem Hintergrund die zukünftige Struktur der ICT-Industrie aus? Welche Rolle spielen dabei Smart Business Networks und ein durch Smart Agents geprägtes Internet der Dinge? ICT Marktstruktur 2032 Wir erwarten, dass sich bis 2032 weltweit drei Kernwertschöpfungsfelder im ICT Markt herauskristallisieren, die einerseits der vertikalen Desintegration und andererseits der zunehmend divergierenden Anforderungen im Consumer- und BusinessMarkt Rechnung tragen: Business as a Service (BaaS): In diesem Wertschöpfungsfeld agieren Anbieter mit hoher Prozess-, IT- und Branchenkompetenz, die in der Lage sind, B2B-Geschäftsmodelle auch über mehrere Industrien hinweg zu realisieren. BaaS-Anbieter ermöglichen konvergente Value Propositions (zum Beispiel Energie und Verkehr) und wandeln starre Wertschöpfungsketten in agile Wertschöpfungsnetze. Entscheidend ist unter anderem die Fähigkeit, durch ICT den Aufbau und Betrieb dynamischer Unternehmensnetze zu unterstützen, die Produktion, den Vertrieb und Service global zu organisieren und Geschäftspartner ad hoc und aufgabenbezogen ein- und auszuphasen. In diesen Smart Business Networks erfolgt die Aktivierung der Geschäftspartner ebenso wie Auswahl und Exekution geeigneter Geschäftsprozesse nach einer fest definierten Geschäftslogik, einem vernetzten Geschäftsbetriebssystem. Dieses System regelt beispielsweise die Auswahl der Partner, welche Partnergruppe an einer spezifischen Aufgabe zusammenarbeitet, welche Qualitätsstandards erwartet werden und welche Kompensationen es für die einzelnen Partner gibt.7 BaaS-Anbieter stellen die für den reibungslosen Betrieb eines Smart Business Networks benötigte, flexible ICT Architektur und Systemintegrationsleistungen zur Verfügung und helfen bei der Konzeption und Ausgestaltung der Geschäftsbetriebssysteme. 7 14 Detecon Management Report • 1 / 2011 Siehe auch Eric van Heck/Peter Vervest (2007): „Smart Business Networks: How the Network Wins“, in Communications of the ACM, Vol 50; no.6 sowie Peter Verwest/Lars Theobaldt: „Den Geschäftshorizont im Visier“ (Seite 18 ff. in dieser Ausgabe). Think ICT 2032! Consumer ICT Mediation (CIM): Die Art und Weise, in der sich Privatkunden im Internet der Dinge im Jahr 2032 informieren, wie sie entscheiden und Transaktionen durchführen, wird sich wesentlich verändert haben. Selbstlernende Smart Agents, die mit Daten über persönliches Verhalten und Präferenzen „gefüttert“ sind, werden aufgrund ihrer künstlichen Intelligenz autonom Aufgaben für die Konsumenten übernehmen. Das betrifft die Suche von Informationen, aber auch – in vordefinierten Bereichen – die Kaufentscheidung und die kommerzielle Transaktion. Voraussetzung dafür sind rechtliche und regulatorische Rahmenbedingungen, die den Schutz der persönlichen Daten sicherstellen. Unternehmen, die diese Smart Agents im vorgegebenen regulatorischen und rechtlichen Rahmen betreiben, vertreten die Interessen der Konsumenten gegenüber den Anbietern von Waren und Dienstleistungen. ICT übernimmt dabei die technische Mediationsfunktion: durch ein sicheres und nutzerfreundliches Eco-System aus Smart Agents, vernetzten Endgeräten, Robots und Objekten mit eingebetteten ICT-Kom- ponenten. Erfolgskritisch im CIM-Markt sind neben einem exzellenten, datengestützten Verständnis der Konsumentenpräferenzen vor allem das Vertrauen in die Unabhängigkeit und Integrität der für die Konsumenten agierenden Unternehmen. Infrastructure as a Service (IaaS): Die Anbieter in diesem Wertschöpfungsfeld stellen die konvergente ICT Infrastruktur und gegebenenfalls auch noch weitere Infrastrukturkomponenten bereit, auf denen die BaaS- und CIM-Geschäftsmodelle fußen. IaaS ist im Wesentlichen ein Wholesalegeschäft. Es umfasst den Betrieb klassischer Breitbandnetze, aber auch dedizierter Infrastruktur wie Roboterparks und Sensornetze bis hin zu speziellen Managed Services, zum Beispiel zur Unterstützung des Verkehrs- und Mobilitätsmanagements. Zudem werden Rechenzentren, Cloud Computing-Kapazitäten und Endgeräte aller Couleur vom Desk Top, Tablet, Smart Phone bis hin zu Wearables und ICT integrierten Objekten bereit gestellt und gesteuert. IaaS-Anbieter stehen aufgrund des enormen Kapitalbedarfs Abbildung 2: ICT Marktstruktur 2032 4,1 Billionen $ xxx Billionen $ ICT Konvergenz 2010 Festnetz/ Mobilfunk TK/IT ICT-basierte Industriekonvergenzfelder 2032 Inhalte/ IP Leben & Wohnen Verkehr & Mobilität Gesundheit & Umwelt Energie Branchenübergreifend SalesCo Business as a Services Consumer ICT Mediation ServCo Wholesale Infrastructure as a Service NetCo Treiber der vertikalen Desintegration Treiber der horizontalen Konvergenz • All-IP Technologie • Regulierung • Wettbewerbsdruck • • • • Digitalisierung und Virtualisierung von Produkten und Services ICT-basierte Automation von Geschäftsprozessen Industrieübergreifende Skaleneffekte Kostensynergien im Betrieb von Infrastrukturen Quelle: Detecon 15 Detecon Management Report • 1 / 2011 Strategy vollkonvergenter Infrastruktur vor großen Herausforderungen. Economies of Scale und Effizienzvorteile sind entscheidend im Wettbewerb, so dass davon auszugehen ist, dass sich bis 2032 pro Weltregion zwei bis drei regionale Champions für dieses Wholesale-Geschäftsmodell herausbilden werden. Die Kernfragen für die ICT 2032 Boardroom-Agenda In Anbetracht dieser zukünftigen Marktstrukturierung stehen ICT Anbieter schon heute vor einer Weichenstellung. Es ist klar, dass wohl kaum ein Unternehmen in allen drei Wertschöpfungsfeldern gleichzeitig erfolgreich sein kann: Diese Märkte erfordern unterschiedliche Kernkompetenzen und Unternehmenskulturen. Die Zukunft gehört den horizontal integrierten ICT Unternehmen, die sich entweder auf markt- und serviceorientierte Geschäftsbereiche oder auf infrastrukturorientierte Geschäftsbereiche konzentrieren werden. So wie Apple oder Google derzeit schon in die Musik- oder Werbeindustrie vordringen, werden zukünftig die Grenzen zwischen der ICT Industrie und anderen Branchen aufweichen. • BaaS, Consumer ICT Mediation und IaaS erfordern neue und sehr spezifische Kernkompetenzen. Kein Unternehmen wird in allen Wertschöpfungsfeldern gleichzeitig eine führende Rolle einnehmen können. Auf welches Feld soll die Fokussierung erfolgen? Um sich in dem neu entstehenden, ökonomisch attraktiven Konvergenzmarkt erfolgreich zu positionieren, muss jedes ICT Unternehmen für sich die folgenden Fragen beantworten: • Anbieter im Consumer ICT Mediation-Markt befinden sich in einem horizontalen Wettbewerb, der durch Innovation und Agilität gekennzeichnet ist und flexible Organisationsstrukturen erfordert. Smart Agent-Technologien, Zugang zu umfassenden digitalen Daten über das Konsumentenverhalten sowie eine starke, vertrauenswürdige Marke spielen eine entscheidende Abbildung 3: ICT-basierte Industriekonvergenzfelder 2032 Leben & Wohnen Mobilität Gesundheit & Umwelt Energie B2B2C (ICT Business Mediation) Business as a Service Horizontale und vertikale Smart Business Networks Smart AgentFähigkeiten Eingebettete Systeme (M2M, cooperating objects...) Eingebettete Endgeräte (Smartphones, wearables/robots) Infrastructure as a Service Modulares ICT Portfolio (Connectivity & storage, managed & enabling services) Managed Infrastructure Services TK Infrastruktur Quelle: Detecon 16 Detecon Management Report • 1 / 2011 IT Infrastruktur Consumer ICT Mediation Infrastructure as a Service Think ICT 2032! Rolle. Wie lassen sich bei diesen erfolgskritischen Faktoren Wettbewerbsvorteile und eine überzeugende, wirtschaftlich tragfähige Value Proposition für die jetzigen wie zukünftigen Kunden aufbauen? • In einer automatisierten und durch ICT geprägten Industrielandschaft übernehmen Smart Business Networks einen wesentlichen Teil der Wertschöpfung. Das Geschäftsbetriebs system dieser Business Networks wird strategisch relevant. Welche Geschäftsbetriebssysteme werden sich in welchem Markt und welcher Industrie etablieren? Wie positioniert man sich am besten in den Smart Business Networks? • Das IaaS-Geschäftsfeld bietet enorme Wertschöpfungspotenziale für große ICT Unternehmen, die in der Lage sind, international Skalenvorteile zu realisieren und gleichzeitig B2C und B2B Wholesale-Geschäftsmodelle zu managen. Mit welchem IaaS-Serviceportfolio gelangt man unter die Top 3 in dem jeweiligen regionalen Markt? Welche Infrastrukturkomponenten sind erfolgskritisch, welche neuen Infrastrukturbereiche sollten in Zukunft erschlossen werden? Eine Strategie zur Positionierung für ICT 2032 sollte aus einer objektiven Einschätzung der eigenen Kernkompetenzen hervorgehen. Wegen der Kraft und Disruptivität der zukünftigen Entwicklungen empfehlen wir Unternehmen, sich schon jetzt Gedanken über die zukünftige Positionierung und die erforder- lichen strategischen und organisatorischen Transformationen zu machen. Unabhängig davon, wie und wann ein Unternehmen die Weichenstellungen für 2032 trifft, ist aber eines klar: 2032 wird es die ICT Industrie in ihrer gegenwärtigen Form nicht mehr geben. Die Marktstruktur wird sich fundamental verändert und das ICT Gravitationszentrum wird sich nach Asien verlagert haben. Dieser Artikel basiert auf dem Opinion Paper „ICT 2032 – Position for ICT everywhere“ von Dr. Karl-Michael Henneking, Lars Theobaldt, Bernd Ettelbrück, Falk Wöhler-Moorhoff und Daniel dos Reis. Download unter: http://www.detecon.com/de/studies/ think-ict-2032_2010_11_04_342 Dr. Karl-Michael Henneking leitet die Competence Practice Strategy & Marketing und ist Mitglied des Executive Boards der Detecon International. Schwerpunkte seiner Beratungstätigkeit liegen in der Entwicklung von Unternehmensund Innovationsstrategien sowie der Optimierung von ICT Unternehmen in Europa, Asien und dem Nahen Osten. [email protected] 17 Detecon Management Report • 1 / 2011 Strategy Peter Vervest, Lars Theobaldt Den Geschäftshorizont im Visier Wie Sie sich für Business as a Service positionieren Ein tief greifender Wandel wird sich darin vollziehen, wie ICT-Bedürfnisse von Geschäftskunden erfüllt werden. In Zukunft agieren diese als Teilnehmer in einem Netz von Geschäftsprozessnetzwerken. Ihre Verbindungen werden ständigen Veränderungen unterworfen sein. Diesen Kunden durch den Einsatz von ICT zu smarten und erfolgreichen Positionen zu verhelfen, wird eine Herausforderung sein. 18 Detecon Management Report • 1 / 2011 Den Geschäftshorizont im Visier s ist zu befürchten, dass wohl nur wenige der ICT Anbieter E von heute im Jahr 2032 noch Geschäftskunden bedienen wer- den! Wir haben zentrale wissenschaftliche Forschungsergebnisse unseren aktuellen professionellen Erfahrung gegenübergestellt, um Entscheidungsträgern aus der ICT Branche und den unmittelbar angrenzenden Industrien Orientierungshilfe zu geben. Branchen- und Unternehmensgrenzen verwischen “Serving Business Customers will NOT be as usual”. Vor 20 Jahren wurden wir Zeuge, wie sich Electronic Data Interchange (EDI) und eMail sowie mobile Sprach- und Datendienste alle in unterschiedlichen Silos etablierten. Seitdem sind Geschäftsbeziehungen zunehmend digitaler Art und in unsere Wirtschaft eingebettet. Die Digitalisierung von Geschäftsprozessen innerhalb der einzelnen Branchen hat viel Wert generiert. Doch wo lässt sich Potenzial für die ICT Wertschöpfung in den kommenden 20 Jahren erkennen? Bereits heute beobachten wir den Trend, dass Unternehmen immer mehr Verknüpfungen zwischen Branchen herstellen und unterschiedliche Fähigkeiten vieler verschiedener Parteien kombinieren müssen. Als Verbraucher erwarten wir von den Unternehmen, dass sie Kommunikation, Navigation, Informationen, Medien und Transaktionen auf Geräten jeglicher Art zusammenführen, um unser Privat-, Sozial- und Geschäftsleben auszuleben − egal wo!1 Mobiltelefone können eben nur so „smart“ sein, wie das modulare Geschäftsprozessnetzwerk, das sich hinter der Benutzerschnittstelle verbirgt. Zur Bereitstellung von ICT Services werden intelligente Verknüpfungen von Geschäftsfunktionen aus vielen verschiedenen Branchen im Fokus stehen. Zuvor getrennt betrachtete Bran- 1 Seifert, Frank; Theobaldt, Lars et al., 2008. The Road to Full Convergence. Thought Leadership Paper of the Fixed Mobile Convergence Alliance (FMCA) in Zusammenarbeit mit Detecon. chen werden konvergieren und neuen Kundennutzen schaffen: Autos als intelligente Hubs in Netzwerken, clevere Stromnetze, sich selbst organisierende Logistik − es gibt viele Beispiele für diese sich abzeichnende weitreichende Entwicklung. Die Grenzen zwischen ICT und anderen Branchen verschwimmen. Das führt zu steigendem Wettbewerb um die Anteile an diesem immer größer werdenden Marktpotenzial. Ein steigendes Absatzpotenzial aufgrund konvergenter Produkte und Lösungen bewirkt, dass die horizontale Integration über Branchengrenzen hinweg geschoben wird und natürlich Akteure aus den anderen Branchen anzieht, die auf Gelegenheiten lauern, um von der ‚Branchenkonvergenz‘ zu profitieren.2 Von statischen Lieferketten zu agilen Geschäftsnetzwerken Die Entstehung von so genannten „Smart Business Networks“ (SBNs) ermöglicht eine dynamische und agile Beziehung zwischen Unternehmen. Als Teilnehmer von Netzwerken bringen Lieferanten, Kunden, Geschäftspartner und Wettbewerber gemeinsam „smarte“ Ergebnisse hervor, die durch „smarte“ Technologien ermöglicht werden. Geschäftsnetzwerke, nicht einzelne Unternehmen, bestimmen mittlerweile den Wettbewerbsvorteil. Das einzelne Unternehmen wird fortan nicht automatisch an zentraler Stelle positioniert sein. Vielmehr muss es sich an vielen technologisch herausfordernden Geschäfts- und Sozialnetzwerken beteiligen. Statt in fast statischen Wertschöpfungsketten aufzutreten, werden die Netzwerkteilnehmer über dynamische Prozesspfade miteinander verbunden. Damit eine solche Beteiligung möglich wird, müssen die Geschäftsprozesse aller Akteure innerhalb eines Netzes kompatibel sein. Das ist eine enorme Herausforderung! 2 Durchschnittliche EBITDA-Margen von S&P im 5-Jahres-Verlauf: 21%, drahtlose Telekommunikation: 36%, integrierte Telekommunikation: 29%, Software: 25%, Versorgungseinrichtungen: 23%, Halbleiter: 23%, Büroausstattung: 18% , Konsumgüterindustrie (FMCG): 11%, Computer-Hardware: 10%. 19 Detecon Management Report • 1 / 2011 Strategy Kreditkarten und Händlerterminals. Oft werden sie von einer Handvoll großer Plattformen dominiert, wie beispielsweise in der Kreditkartenbranche. Deren Geschäftsmetrik ist nicht die gleiche wie in einer herkömmlichen Wertschöpfungskette, in der sich der Wert von links nach rechts bewegt: links die Kosten, rechts die Einnahmen. In zweiseitigen Netzwerken sind Kosten und Einnahmen sowohl links als auch rechts angeordnet. Dadurch wird Flexibilität in der Preisgestaltung und der Subventionierung möglich. Das Hauptmerkmal eines SBN ist die Fähigkeit, Geschäftsprozesse rasch auszuwählen, zu verbinden und auszuführen (Pick, Plug and Play), um zügig ein bestimmtes Ziel zu erreichen. Ein SBN könnte als Netzwerk aus Teilnehmern betrachtet werden, die gegenseitig bereit sind, ad hoc mit einander zu kollaborieren, indem sie rasch agieren (Pick) und kombinieren (Plug), um die Anforderungen einer bestimmten Situation zu erfüllen (Play). Anschließend „ruhen“ die Teilnehmer, während sie vielleicht in anderen Geschäftsnetzwerken oder eher traditionellen Wertschöpfungsketten aktiv sind. Folglich bestehen die grundlegenden Organisationsfähigkeiten von SBNs darin, schnell eine Verbindung zu einem Akteur herzustellen beziehungsweise diese Verbindung genauso schnell wieder trennen zu können. Bei diesem neuen Netzwerkansatz beobachten wir eine zunehmende Trennung der Geschäfts-, Transaktions- und Logistikebene. Die Teilnehmer machen sich gemeinsam den zum Erreichen der Ziele im Netz notwendigen Prozess zunutze (Shared Business Logic). In der Zwischenzeit bildet sich eine neue Generation von SBN heraus: Amazon hat sein Geschäftsmodell erweitert und ist auf dem besten Weg, nicht mehr nur als reiner E-Book-Händler, sondern als weltweit führender ‚E-Tailer‘ aufzutreten. Jeden Monat registrieren sich Tausende E-Book-Händler als AmazonHändler, um von Produktpräsentationen, Regelkonformität, Risikomanagement, Mediation bei Konflikten, sicheren Transaktionen sowie Logistikdiensten zu profitieren. Diese Business Serviceleistungen werden von Amazon streng reguliert; die Regelungen reichen von der Einrichtung technischer Schnittstellen bis hin zu Geschäftsvorschriften und -praktiken3. Weitere Beispiele für eine neuere Generation von erfolgreichen SBNs sind e-Gatematrix, Multiasistencia und Li & Fung (siehe Ta- Eine erste Generation von SBN findet sich vor allem in den Sektoren Bankwesen, Software und Medien. Diese meist „zweiseitigen Netzwerke“ verbinden verschiedene Seiten ihres Kundennetzwerks – Zuschauer und Werbungbetreibende oder Abbildung: Der neue Geschäftsnetzwerk-Ansatz Geschäftsbetriebsebene Vernetztes Geschäftsbetriebssystem (nBOS) Standards EPC Global Produzent Vermittler Transaktionebene Agent Versicherer Bank RFID Daten Inlandsverschiffung Quelle: Detecon 20 Detecon Management Report • 1 / 2011 Transport Endkonsumenten Scanning RFID Daten Produzent Logistikebene Handel Scanning Daten Schiff Distribution Terminal Den Geschäftshorizont im Visier belle). Allen ist gemeinsam, dass sie ein vernetztes Geschäftsbetriebssystem (‚networked Business Operating System, nBOS‘) eingeführt haben. nehmen und Personen neue Wertschöpfung bewirken. BaaSAnbieter können dabei eine Schlüsselrolle spielen. Wir sehen drei strategische Optionen3: BaaS-Strategien, die Geschäftsnetzwerke „smart“ machen Plattformbereitstellung: Die Anbieter digitaler Plattformen wie Amazon, Bol, Skype, eBay und Google richten ihr Augenmerk auf die Schaffung proprietärer Netzplattformen, die allgemein als Möglichkeit des telekommunikationsbasierten Zugriffs auf eine EDV-Umgebung definiert werden, so dass der Benutzer vorher festgelegte plattformkontrollierte und -unterstützte Geschäftsaufgaben ausführen kann. Diese vernetzten Geschäftsbetriebssysteme werden in Zukunft verstärkt als Dienstleistung („as a service“) angeboten. BaaS-Anbieter betreiben webbasierte Business-Anwendungen über das Internet oder Web Services, die mittels moderner Sicherheits-, Management- und Identitätsstandards entworfen werden. BaaS ist nicht als ICT Dienst zu betrachten – diese sind von den Business Services abgeschirmt. Änderungen, Störungen oder sonstige Vorkommnisse im ICT Service sollten allerdings nicht deren Geschäftstätigkeiten beeinträchtigen. ICT Infrastruktur und -software können ebenfalls als Service bereitgestellt werden (Internet Services Provisioning, Application Service Provisioning, Software as a Service), während sich BaaS auf der Geschäftsebene der Kunden abspielt. Hinter SBN steht der zentrale Gedanke, dass Unternehmen durch eine intelligente Positionierung ihrer Fähigkeiten in weltweiten Netzwerken aus miteinander verbundenen Unter- Eine vernetzte Plattform hat einige unbestechliche Vorteile: Benutzer können auf eine mehr oder weniger komplette Suite von Geschäftsprozessen zugreifen, einschließlich Suche und Auswahl, Bestellung, Lieferung, Zahlung und Verwaltung. Da der Plattforminhaber kontrolliert, welchen Personen der Zugang gestattet wird und ferner die Zugangsrechte dieser Personen 3 Vervest, P. H. M., van Liere, D.Q., Dunn, A., 2010. The Network Factor – How to Remain Competitive. In P. H. M. Vervest, D. van Liere, L. Zheng (Hrsg.). 2010. The Network Experience. Berlin – Heidelberg, Deutschland: Springer Verlag. Tabelle: Beispiele von SBNs Multiasistencia koordiniert Hausversicherungsansprüche und Reparaturen in Spanien, Frankreich und Portugal. Das Unternehmen, gegründet 1983, verwaltet 11.000 Kleingewerbetreibende/Reparaturen und über 100 Großunternehmen wie Versicherungsgesellschaften, Banken, Kaufhäuser und ihre jeweiligen Kunden. Nach einem Turnaround im Jahr 2000 automatisierten sie die Netzwerk koordination in starkem Maß, einschließlich Call-Center-, Internet- und Web-Diensten sowie mobiler Systeme, von einem Kontrollzentrum in Madrid aus. Bei Reparaturaufträgen muss niemand einschreiten, es sei denn, ein Ausnahmefall tritt ein. Dank dieser automatisierten Koordination erhöhte sich die Produktivität um 49,6%, und die Zahl der Fehler nahm drastisch ab. Neben den Produktivitätssteigerungen hat dieses Smart Business Network auch eine Standardisierung der äußerst fragmentierten Haushaltsreparaturen bewirkt. Angesichts der SLA-Transparenz und standardisierter Prozesse erwies es sich als wichtig, das Vertrauen zu den Werkstätten zu erzielen. Multiasistencia hat auch die Software-Innovation gefördert. 80% der neuen Software wird gemeinsam mit den Multiasistencia-Unternehmenskunden entwickelt. Li & Fung Limited ist eine seit 100 Jahren bestehende Handelsgesellschaft mit Sitz in Hongkong, die ein weltweites BusinessNetzwerk für die Mode- und Bekleidungsbranche in den USA und Europa eingeführt hat, und sich Möglichkeiten einer kostengünstigen Fertigung in Asien und zunehmend auch im Mittelmeerraum, Ost- und Mitteleuropa zunutze machen möchte. Statt Fertigungseinrichtungen in seinem Eigentum zu haben, verwaltet Li & Fung knapp 12.000 unabhängige Hersteller mit über 80 Niederlassungen in über 40 Volkswirtschaften der Welt. Neben den „zweiseitigen” Geschäftsmodellen bieten sie auch Produktdesign und -entwicklung an, Rohstoffbeschaffung und Factory Sourcing, Produktionsplanung und -management, Qualitätssicherung und Exportdokumentation sowie integrierte Logistikleistungen. Li & Fung unterstützt Kunden beim Managen von globalen Wertschöfungsketten, indem sie über die Unternehmensgrenzen hinweg entsprechende Funktionen übernimmt. e-gatematrix wurde von seiner Schweizer Muttergesellschaft GateGourmet als ein „Business Operating System” positioniert, in dem die Wertschöpfungsketten von Käufern und Verkäufern von „On-Board-Services“ orchestriert werden können. Lebensmittelhersteller, große Cateringbetriebe, Logistikdienstleister und Fluggesellschaften können ihre Informationen, Waren und Transaktionsflüsse hier steuern. Durch die zunehmende Nutzung lernender IT-Systeme werden Flüsse „intelligenter“ und so erweitert, dass sie noch andere Branchensegmente abdecken können. 21 Detecon Management Report • 1 / 2011 Strategy überwacht, sind die Verknüpfung der Geschäftspartner und das End-to-End-Management von Geschäftsprozessen keine aufwendige Angelegenheit. Der Benutzer wird dadurch jedoch sehr stark von der Netzwerkplattform abhängig. Wenn Sie beispielsweise auf Amazon sind, können Sie nicht auf Bol zugreifen. Skype gewährt seinen Konkurrenten keinen Zugriff. Diese herkömmliche Anbieterbindung ähnelt den Inseln computerbasierter Systeme zur Nachrichtenübermittlung Anfang der 70er Jahre des 20. Jahrhunderts. Solange der Preis und die Qualität annehmbar sind und die Benutzer nicht ausgenutzt werden, stellen diese Nachteile kein Problem dar. Allerdings haben Netzwerke eine interessante Auswirkung auf die Kostenhöhe: Die Grenzkosten für die Bedienung jedes weiteren Benutzers sinken unverhältnismäßig. Das heißt: Zu einem bestimmten Zeitpunkt liegen die für den Marktführer entstehenden Gesamtkosten dafür, dass er den nächsten Benutzer bedient, unter den Grenzkosten für schlechter positionierte Konkurrenten. In diesem Fall bilden sich natürliche Monopole – und der Sieger gewinnt alles. Unter solchen Gegebenheiten laufen Märkte sehr oft aus dem Ruder und Regulierer greifen ein. bestimmten Aufgabe, sondern auch die mit der Aufgabe verbundene Logik. Die Aufgaben werden in Prozessen zusammengeführt und die Prozesse miteinander verbunden, um die erforderliche Kundenleistung zu erbringen: Falls die Kette bricht, müssen Sie dies wissen. Genau genommen müssen Sie dies wissen, bevor sie bricht. Sie benötigen sofort verfügbare Alternativen. Sie müssen in der Lage sein, in der Wertschöpfungskette Umstellungen vorzunehmen, eine Alternativverbindung zu anderen Ressourcen herzustellen, um die Schwachstelle zu kompensieren. Aber Sie können dies nicht. Das auslagernde Unternehmen hat die Logik eingebüßt, das detaillierte Verständnis der Handhabung und Kontrolle spezieller Aufgaben sowie die Fähigkeit zur Handhabung der Prozessintegration einzelner Aufgaben. Capability Hubs: Ein Unternehmen kann unter Nutzung der modernen Telekommunikationsfunktionen bestimmte Aufgaben an andere Unternehmen in entfernten Teilen ihrer zuvor eingegrenzten Welt auslagern. Dies ist zu niedrigsten Transaktionskosten leicht und schnell durchführbar. Friedman4 hat vor Augen geführt, wie die Macht des Internets bewirkt, dass die Welt „flach“ ist. Der Gedanke dahinter ist einfach: Jeder (Teil in einem) Produktionsprozess kann ausgeführt werden, indem die richtigen – billigen – Partner an irgendeinem Ort der Welt ausgewählt und zum Zweck der Ausführung dieser Aufgaben unter Vertrag genommen werden. Dadurch reduzieren sich die Gesamtkosten, während sich der Markt letztlich weiter kontrollieren lässt. Daher lagern Großunternehmen IT-Systeme nach Indien und die Fertigung nach China aus und rechnen damit, dass sie weiterhin kontrollieren können, wer die Gewinne durch Geschäfte mit den Kunden erwirtschaften wird. Komplizierte Outsourcing-Netze haben sich bereits gebildet. Der Übergang von der herkömmlichen Auslagerung gesamter Funktionen zur Auslagerung modularer Geschäftsprozesse ermöglicht dem jeweiligen Unternehmen, eine Capability HubStrategie zu verfolgen und sämtliche erfolgskritischen Fähigkeiten zu erhalten. Wer schon einmal Outsourcing-Aufgaben übertragen hat, weiß, welche Schmerzen dies bereiten kann. Bei einem Outsourcing überträgt das Unternehmen nicht nur die Ausführung einer Diese drei Positionierungsstrategien können durch eine geographische Fokussierung unterstützt werden. Smart City Networks werden im Rahmen der Urbanisierung der Welt einen immer 4 Friedman, T. L. 2005. The World Is Flat. New York, NY: Farrar, Straus and Giroux. 22 Detecon Management Report • 1 / 2011 Kontrolliert der Outsourcer die Geschäftslogik nicht, kontrolliert er folglich nicht beziehungsweise versteht nicht einmal mehr, wie seine grundlegenden Geschäftsprozesse ausgeführt werden. Außerdem beherrscht er nicht mehr die Suche nach und Auswahl von vertrauenswürdigen Geschäftspartnern. Netzwerkorchestrierung: ‚Orchestratoren’ steuern Akteure im Geschäftsnetzwerk, sie koordinieren und überwachen die Zusammenführung verschiedener Funktionen mit Blick auf bestimmte Ergebnisse, die auf den Kunden abzielen. Beispiele wie Li&Fung oder Multiassistencia wurden oben bereits beschrieben. Als weiteres Beispiel lässt sich „thebigword“ anführen, ein Unternehmen, das ein aus Tausenden Linguisten bestehendes, weltweites Netzwerk für Sofortübersetzungen verwaltet. In all diesen Beispielen werden hochentwickelte GeschäftsprozessTools zum Koordinieren und Optimieren der Geschäftsprozesse zwischen vielen verschiedenen Akteuren eingesetzt. Den Geschäftshorizont im Visier höheren Stellenwert haben. Vor allem asiatische Konzepte wie die zehn südkoreanischen U-Citys mit zentralen ‚City-Betriebssystemen’ scheinen erfolgversprechend zu sein.5 Netzwerkbasiertes Prozessmanagement und Community Sourcing sind als Voraussetzung für das Funktionieren der Strategien anzusehen. Manager müssen verstehen, von welch entscheidender Bedeutung Netzwerkressourcen und Prozessmanagement für ihr Unternehmen sind. Dies erfordert: 1.Ein Verstehen der wesentlichen Eigenschaften von ‚Fähigkeiten‘ aus der Sicht eines Netzwerks; 2.Prozesskontrolle, also das Beherrschen der Verknüpfung von Fähigkeiten in einem Netzwerk mit verschiedenen Akteuren und damit das Verständnis, wie diskrete End-to-End-Prozesse, die in einem Geschäftspartner-Netzwerk verteilt sind, zu verwalten sind. Eine Fähigkeit meint in diesem Zusammenhang, dass Unternehmen in der Lage sind, Ressourcen – meist gemeinsam mit Organisationsprozessen – so einzusetzen, dass ein gewünschtes Ziel erreicht wird. Im Jahr 1990 beschrieben Prahalad und Hamel die Kernkompetenz eines Unternehmens als „Konsolidieren unternehmensweiter Technologien und Fähigkeiten in Kompetenzen, die einzelne Unternehmen zu einer raschen Anpassung an sich wandelnde Chancen befähigen“. Prozesskontrolle ist zu einer zentralen Herausforderung, wenn nicht gar zu einem Stolperstein bei der Akzeptanz von BaaS geworden. Wir plädieren für die vernetze Geschäftsbetriebsplattform als verbindendes Element zwischen verschiedenen Organisationsinformationssystemen. Es erfolgt eine schrittweise Verschiebung von hardwareorientierter Architektur hin zu softwareorientierter Architektur. Die eigentliche Herausforderung steht noch aus: Prozessmanagement, das einer businessorientierten Architektur folgt und damit vollständige Flexibilität beim Konzipieren und Ausführen von Geschäftsprozessen unabhängig von der Betriebsumgebung ermöglicht. Smart Business in 2032 Unsere durchaus realistische Vision für 2032 ist, dass BaaSAnbieter nBOS für Unternehmen bereitstellen werden, die in Smart Business Networks operieren. Dabei wird es möglich sein, Geschäfte über ein rasch gebildetes Netzwerk abzuwickeln – mit beliebigen Personen, an beliebigen Orten, zu beliebigen Zeiten und ohne Rücksicht auf die Verschiedenartigkeit von Computersystemen und Geschäftsprozessen. Die Akteure in diesem Bereich benötigen ein tiefgehendes Branchen- und ProzessKnow-how sowie ausgeprägte Systemintegrationsfähigkeiten. ICT wird branchenübergreifende Wertangebote ermöglichen und starre Wertschöpfungsketten in agile Wertschöpfungsnetze umwandeln. Dabei werden die Grenzen zwischen den intraund den extramuros angesiedelten Unternehmensdomänen verwischt; die Kollaboration wird in den Grundfesten des Unternehmertums verwurzelt. Lauern auf die nächste Welle von „Smartheit” „Smartheit” als relativer Begriff bedeutet, dass ein aus zusammenarbeitenden Unternehmen bestehendes Netzwerk bessere Ergebnisse herbeiführen kann als sonstige Netzwerke. Er könnte auch bezogen werden auf die Fähigkeit, die Informationsflüsse in sowie an der topologischen Struktur des Geschäftsnetzwerks zu gliedern und zu beeinflussen. Die nächste Welle von „Smartheit” wird von Systemen zur Unterstützung von Entscheidungen ausgehen, welche sich künstlich intelligente Softwareagenten zunutze machen. Schon heute ist Business Intelligence-Software zum Web Crawling, Data Mining und Generieren von Berichten fähig. Die derzeitige Ausrichtung auf Hypertext-Dokumente wird sich weiterentwickeln und in Zukunft eine Infrastruktur von computerlesbaren, semantischen Beschreibungen umfassen, die intelligente Agenten verstehen, so dass diese entsprechend agieren können. In den letzten sieben Jahren wurden erhebliche Fortschritte auf dem Weg hin zur Vision eines semantischen Webs erzielt. 5 Theobaldt, Lars: Living Cities: new convergent business models in urban markets 2008 Detecon Executive Briefing 23 Detecon Management Report • 1 / 2011 Strategy 24 Detecon Management Report • 1 / 2011 Den Geschäftshorizont im Visier Entscheidungsunterstützungssysteme (Decision Support Systems, DSS) und autonome Softwareagenten tragen zunehmend zum Ausgleich der menschlichen kognitiven Einschränkungen bei, etwa bei der „Tyrannei der Wahl“ in komplexen vernetzten Geschäftsumgebungen. Ein in einem SBN bereitgestelltes DSS muss sich mit der Unterstützung menschlicher Entscheidungen in von äußerster Agilität geprägten Geschäftslagen befassen. Dementsprechend besteht ein Bedarf an Evaluator Services Networks, die beurteilen, wo Netzwerkverbindungen herzustellen sind und wie Netzwerkpositionierungen erfolgen sollen. Diese Beurteilungsdienste können zu DatenflussNetzwerken zusammengestellt werden, um beliebige Aufgaben im Zusammenhang mit der Überwachung, Analyse und Entscheidungsunterstützung auszuführen, welche von einfachem Datenmonitoring bis hin zu vollständig autonomen intelli genten Agenten reichen.6 einer hohen Leistung entspricht. Ein Schlüsselfaktor ist die Verteilung des Netzwerkhorizonts über die verschiedenen Unternehmen. Diese Ergebnisse können als Erklärung dafür dienen, weshalb Netzwerkorchestratoren in vielen verschiedenen Branchen so erfolgreich sind. Li & Fung und Multiassistencia waren unter den ersten, die sich als Bestandteil größerer Geschäftsnetzwerke gesehen haben. In einem homogenen Netzwerk mit einem niedrigen Horizont verschaffte ihnen ihr weitreichender Netzwerkhorizont die Möglichkeit zum Erlangen ihrer Schlüsselpositionen. NaturaHerstel vom Allianz-Konzern ist ein gutes Beispiel dafür, wie sich ein Netzwerkhorizont erweitern lässt. Dieses Hausratsversicherungsprodukt regelt den Schadensfall nicht finanziell, sondern „in Natura“, der Gegenstand wird ersetzt und geliefert. Mit der Realisierung von Skaleneffekte beim Einkauf erschließt sich die Allianz neue Erlösmöglichkeiten mit neuem Horizont. Horizonte zwischen eigenem Unternehmen und wachsenden Netzwerken sichten Die drei wesentlichen Herausforderungen der Zukunft werden sein, eine Geschäftslogik aufzugreifen, die potenziellen Funk tionalitäten des nBOS zu definieren und die Geschäftsbetriebs ebene aufzubauen. Unternehmen müssen sich in rasch wandelnden und expandierenden Netzwerken, die von ubiquitären Kommunikationstechnologien ermöglicht werden, weiterentwickeln und „smart” handeln. CIOs müssen die Grenzen zwischen ihrem eigenen Unternehmen und den wachsenden Netzwerken, in denen sie tätig sind, verbinden. Die Entscheidungsfindung in sehr großen Netzwerken unterscheidet sich grundlegend von dem, woran wir heute gewöhnt sind. Entscheidungsträger sollten ihr Unternehmen als Knoten innerhalb von großen und umfassenden Netzwerken sehen, die aus voneinander abhängigen Unternehmen bestehen und sich ständig verändern. Die Zahl der Knoten, die ein Akteur nicht nur unter seinen Kunden und Lieferanten, sondern auch unter den Kontakten der Kontakte „sehen“ kann, wird als Netzwerkhorizont bezeichnet. Die Größe des Netzwerkhorizonts eines Unternehmens dient als wesentlicher Faktor zur Bestimmung der Fähigkeit eines Unternehmens, sich agil im Netz zu bewegen und gegebenenfalls andere Teilnehmer zu „überbrücken“. Die Ausweitung des Netzwerkhorizonts über diesen Punkt hinaus bewirkt jedoch, dass die Ergebniseffekte rasch abnehmen.7 Eine Reihe von Experimenten mit Führungskräften in der Versicherungsbranche hat gezeigt, dass ein hoher Netzwerkhorizont 6 Ketter, W., Collins, J. Gini, M: Flexible Decision Support in a Dynamic Business Network. In: In P. H. M. Vervest, D. van Liere, L. Zheng (Hrsg.). 2010. The Network Ex-perience. Berlin - Heidelberg, Deutschland: Springer Verlag. 7 van Liere, D. W., Koppius, O. R., und Vervest, P. H. M. 2008. Network Horizon: An Information-Based View on the Dynamics of Bridging Positions. In J. A. C. Baum & T. J. Rowley (Eds.), Network Strategy, Bd. 25: Emerald Group Publishing Ltd. 8Smart-Business-Network-Initiative http://www.erim.eur.nl/ERIM/Research/Centres/SBNi/ Wir empfehlen, den Anschluss an branchenübergreifende Zusammenarbeit und den Austausch wissenschaftlicher Er kenntnisse zu suchen8, während Sie die Positionierung Ihres künftigen „BaaS“-Angebot weiter ausfeilen. Es scheint in jedem Fall schon heute geboten, Ihren Geschäftshorizont ins Visier zu nehmen. Peter Vervest ist Professor für Business Telecommunications an der Erasmus Universität in Rotterdam und Managing Partner der internationalen ICT Investmentgesellschaft D-Age. Zuvor war er Gründungsmitglied und Ge sellschafter des Beratungshauses Multimedia Skills. Seine Industrieerfahrung sammelte er bei Philips, zuerst als Projektmanager, dann als Bereichsleiter bei Philips Electronics (UK). Lars Theobaldt ist Managing Partner in der Practice Strategie & Marketing. Die Beratungspraxis seiner globalen Kompetenzgruppe konzentriert sich auf Sales & Marketing, Konvergenz sowie modulares Produktportfoliodesign. Er war langjähriger Berater der globalen FMCA-Carrier Allianz, ist Mitglied des Forschungsausschusses des Münchner Kreis und Co-Autor der Detecon-Studie „Think ICT 2032“. [email protected] 25 Detecon Management Report • 1 / 2011 Strategy InCar Kommunikation der Zukunft Herausforderungen und Ansätze zur Umsetzung nachhaltiger ICT Lösungen für die Automobilindustrie Das Auto als Informations- und Kommunikationszentrale mit Anbindung an das Internet – der Traum von morgen stellt Automobil hersteller schon heute vor die Aufgabe, ein industrieübergreifendes Projekt zu initiieren. 26 Detecon Management Report • 1 / 2011 Dr. Mike Radmacher Dr. Volker Rieger Ralf Upmeyer Alexander Wellmann InCar Kommunikation der Zukunft 2032 wird sich unsere Mobilität grundlegend verIändertm Jahr haben: Aufgrund der vorangeschrittenen Urbanisierung nutzen wir das Auto vorrangig als Fortbewegungsmittel innerhalb von Megastädten und Ballungszentren. Bei dieser urbanen Mobilität spielt die Vernetzung des Autos eine entscheidende Rolle. Den Netzzugang des Autos nutzen aber nicht nur die Insassen, sondern auch das Fahrzeug selbst. Drei Arten der Vernetzung gibt es: Fahrzeuge kommunizieren untereinander, die Insassen vernetzen sich über mobile Endgeräte mit dem Auto, Autos vernetzen sich mit anderen Systemen, zum Beispiel Verkehrsmanagementsystemen. Ein Blick in das Jahr 2032: Grenzenlose Mobilität Da das Auto der Zukunft mit allen anderen Autos vernetzt ist, gehören Staus weitestgehend der Vergangenheit an. Durch exakte Bewegungsdaten aller Verkehrsteilnehmer wird automatisch die optimale Route gewählt und alle reiserelevanten Informationen wie Verkehrsaufkommen, Zustand der Straßen und kurzfristige Warnungen vor Abfahrt analysiert. I ntelligente Verkehrsleitsysteme analysieren und bewerten die Informationen aller Fahrzeuge live, um so für mehr Sicherheit und einen optimalen Verkehrsfluss auf unseren Straßen zu sorgen. Die Systeme im Auto schlagen entsprechend der vorliegenden Echtzeitdaten automatisch dem Fahrer Routenoptimierungen vor und für den Fall, dass es doch zu einem Unfall oder sonstigen Notfall kommen sollte, nimmt das Auto automatisch Kontakt mit den entsprechenden Notfalldiensten auf, um so binnen Sekunden Unterstützung anzufordern. Techniker analysieren Fehler am Fahrzeug bereits beim Auftreten von der Ferne aus und beheben diese gegebenenfalls sogar direkt per Fernwartung. Viele Sensoren innerhalb der Autos sammeln alle erdenklichen Daten, die von den Automobilherstellern verdichtet sowie analysiert werden, um zur Verbesserung der Verlässlichkeit und Sicherheit der Fortbewegungsmittel beizutragen. Im Jahr 2032 wird eine zweite große Veränderung das Zukunftsauto vom heutigen Auto unterscheiden – es wird eine Informations- und Kommunikationszentrale mit ständiger Anbindung an das Internet werden. Persönliche Daten wie auch digitale Unterhaltungsmedien, zugeschnitten auf die Insassen, sind immer und überall in höchster Qualität abrufbar. Fortgeschrittene Funktechnologien bilden hierbei das Rückgrat aller Dienste im Auto. Mit Übertragungsgeschwindigkeiten jenseits der Gigabit-Grenze ist nicht mehr Bandbreite der begrenzende Faktor, sondern der Erfindungsreichtum der Diensteanbieter. Videokonferenzen und Online-3D-Spiele sind für Beifahrer technisch genauso möglich wie Live-Übertragungen von Sportevents in HD. Bisher steckt der Markt um das intelligente, vernetzte Auto noch in den Kinderschuhen. Automobilhersteller auf allen Kontinenten führen zwar erste Gehversuche durch, bis zur Realisierung der beschriebenen Vision ist es jedoch noch ein langer Weg, auf dem Automobilkonzerne viele Stolpersteine überwinden müssen. Auf den ersten Blick erscheint die Lösung einfach – man statte das Auto mit den neuesten Funkmodulen aus und schon ist es internetfähig. Die Vernetzung des Autos birgt jedoch diverse zusätzliche, oft nicht offensichtliche Herausforderungen, die es zu meistern gilt, um das vernetzte Auto zum nachhaltigen Erfolg zu führen. Eine komplizierte Wertschöpfungskette mit einer Vielzahl von Akteuren, der deutlich geringere Absatz im Vergleich zur Telekommunikationsbranche, ein nicht vorhandenes Ökosystem, mangelnde Erfahrung im Betrieb solcher Systeme und die Sicherheitsaspekte beim Fahren sind einige der vielen Herausforderungen, die auf die Automobilhersteller und die Zuliefererindustrie warten. Vor allem darf die Komplexität des Themas und der Bedarf nach einer nachhaltigen, langfristig zeitgemäßen Lösung, die sowohl Nutzer wie auch Anbieter zufriedenstellt, nicht unterschätzt werden. Die mit der Vernetzung verbundenen Herausforderungen sind zu skizzieren und erläutern, um Kardinalsfehler bei der Umsetzung der nächsten Generation von InCar-Systemen schon frühzeitig zu eliminieren. Herausforderungen an eine nachhaltige InCar ICT Lösung Zurück in der Gegenwart muss sich die Umsetzung der zuvor beschriebenen Zukunftsvision an den Herausforderungen des aktuellen Marktes, der Gegebenheiten der Automobilbranche und der technologischen Entwicklungen messen. Die enorme Bandbreite des Themas bedingt, dass nur ein ganzheitlicher Ansatz unter Berücksichtigung unterschiedlicher Perspektiven langfristig für die Automobilindustrie erfolgversprechend ist. Dazu gehören die Sicht auf den Markt und die Kunden, eine eindeutige Value Proposition, ein adäquates Portfolio, ein erfolgreiches Geschäftsmodell, zukunftssichere State-of-the-Art Technologien und die Beherrschung der zur Umsetzung notwendigen operativen Tätigkeiten. Dabei gilt es zu beachten, dass die Entwicklung und Umsetzung von InCar ICT Lösungen den bisherigen Automobilfertigungszyklus vor neue Herausforderungen stellt, da die Innovationszyklen in der ICT Industrie um ein Vielfaches kürzer sind und Hersteller ansonsten Gefahr laufen, den Kunden veraltete Lösungen anzubieten. 27 Detecon Management Report • 1 / 2011 Strategy Eine vertrauensvolle und persönliche Beziehung zum Kunden durch effiziente Automobile mit raffinierten InCar ICT Lösungen ist nur ein Teil des Wegs zum Erfolg. Automobilhersteller müssen sich den Anforderungen der Kunden nach effizienten Automobilen (verbrauchsarm, hybride Antriebe) stellen. InCar ICT Lösungen, zum Beispiel ein personalisiertes Customer Relationship Management, können hierbei die Pre- und After-Salesaktivitäten durch eine direkte und interaktive Kommunikation mit dem Kunden unterstützen. H erausstechende InCar Entertainment Systeme werden in Zukunft verkaufs entscheidend sein, ebenso wie die Entwicklung neuer Erlösmodelle, zum Beispiel „nutzungsabhängige Servicegebühren“ am Beispiel der Nutzung der Sitzheizung im Fahrzeug für 0,50 Euro am Tag. Aufgrund der Vielfalt und Vielschichtigkeit von Kundenanforderungen steht nicht mehr eine einzelne Anwendung im Vordergrund. Die Notwendigkeit der Individualisierung und die Aggregation von Anwendungen werden die Value Proposition bestimmen. Dabei wird ein Mix von nutzerbezogenen (M-Commerce, Infotainment), fahrzeugbezogenen (Telemetrie, Tracking), fahrerorientierten (Navigation, Verkehrmeldungen) und transportbezogenen Anwendungen (Dispachting, Tour Planer) entstehen. Den Aufbau der eigenen Value Proposition gilt es, gemeinsam mit dem Kunden zu erarbeiten. Der dadurch entstehende Anwendungsmix lässt sich jedoch nicht mehr alleine realisieren. Eine sorgfältige Auswahl von Kooperationspartnern ist bei der Entwicklung entscheidend. Netzbetreiber (Vodafone, T-Mobile, AT&T), Endgerätehersteller (Apple, RIM, Microsoft), Informationsanbieter (CNN, Yahoo, Tencent), soziale Netzwerke (Facebook, Xing, mixi), Entertainment Intermediäre (YouTube, hulu, last.fm) oder Location-based Services (Qype, foursquare, yelp) müssen wohl überlegt kombiniert und in die Wertschöpfungskette integriert werden. Die erfolgreiche Gewinnung von Kooperationspartnern steht nach vorangegangener Identifizierung im direkten Zusammenhang mit dem hinter der InCar ICT Lösung stehenden Geschäftsmodell. Komplexe InCar ICT Lösungen setzen das Zusammenspiel unterschiedlicher Parteien voraus, die ihren Umsatz maximieren wollen. Die Schaffung von Win-Win- Situationen auf unterschiedlichen Ebenen der Leistungserbringung ist eine der großen Hürden, die es zu nehmen gilt. Neben der Identifizierung einer InCar ICT Lösung, der Entwicklung eines Geschäftsmodells und der Auswahl der Kooperationspartner zur Umsetzung ist die Auswahl der darunterliegenden Technologien von besonderer Bedeutung, die verschiedenste Entscheidungen erfordert. Einige der zu berücksichtigenden Fragestellungen sind dabei: • Orientiert sich die Umsetzung an bereits etablierten Standards (Endgeräte oder Betriebssystemplattformen, Netzwerkstandard, Medienformate)? • Auf welchen bekannten Architekturen wird aufgebaut (Systemarchitekturen, Multinetzwerk-Architekturen, End gerätearchitekturen)? • Ist das Thema Sicherheit ausreichend adressiert (Fahrzeugsicherheit, Systemsicherheit, Fahrersicherheit, Anwendungs sicherheit, Daten-/Privatsphärenschutz, I dentitätsmanagement)? Abbildung: Sechs Perspektiven zur Umsetzung nachhaltiger ICT InCar Lösungen Value Proposition Portfolio Geschäftsmodel Technologie Betrieb Märkte und Kunden •Erhöhte Mobilität •Entertainment •CRM •VRM/VLM •Services •Applikationen •Endgeräte •Partner •Value Architecture •Umsätze •Kosten •Standard •E2E Architektur •Sicherheit •Innovation •App Store •Kundenservice •E2E Services •Updates •Rechnungswesen •Bedürfnisse •Segmentierung •Regulierung Quelle: Detecon 28 Detecon Management Report • 1 / 2011 InCar Kommunikation der Zukunft • Sind zukünftige Entwicklungen und Innovativen (Roadmap-Themen) berücksichtigt (Technologiestrategien, Trend- Scouting, Innovation Management)? Nachdem strategische wie auch taktische Entscheidungen getroffen wurden, ist deren Umsetzung durch operative Tätigkeiten zu garantieren. Operative Tätigkeiten, beginnend mit Sales-Aktivitäten (Sales-Trainings, Demonstratoren), Dienstbereitreitstellung (Inbetriebnahmesupport), Diensterbringung (Rechenzentrum, Netzwerk Operations), Qualitätssicherung (Incident und Problem Management) und Abrechung, erfordern eine bedarfsgerechte Allokation „24/7“ von Ressourcen sowie zugeschnittene Produktionsprozesse und Workflows. Zudem erfordert die Erbringung von ICT InCar Lösungen als Bestandteil des Portfolios neue Fähigkeiten eines Automobilherstellers, die selbst aufgebaut oder durch Kooperationspartner erbracht werden können. der Bedienbarkeit von InCar Systemen. Weiterführende Fragestellungen in diesem Zusammenhang werden durch eine Vielzahl von Methoden adressiert, die abhängig vom Unternehmen und der Zielgruppe durch Experten ausgewählt werden. Ein Framework sowie die Verwendung richtiger Methoden dienen allerdings lediglich als roter Faden bei der Entwicklung neuer Systeme. Es ist unerlässlich, alle relevanten Kompetenzen an einen Tisch zu bringen, um das Framework und die Methoden mit ihrem Wissen zu füllen. Sowohl Experten der ICT Branche, Marktforschungs- und Kundenverhaltensexperten als auch Automobilexperten müssen ihr Know-how einbringen, um sicherzustellen, dass das industrieübergreifende Projekt InCar ICT nicht in einem Fehlversuch endet, der unter Umständen einen kostspieligen, langfristigen Imageschaden zur Folge hat. Die Bündelung des Wissens aus mehreren Welten ist, wie so oft, auch hier der Schlüssel zum Erfolg. Der Weg in die Zukunft Die Entwicklung einer nachhaltigen InCar ICT Lösung ist ein komplexes Unterfangen, bei dem unterschiedliche Kompetenzen aus den Bereichen ICT und Automotive gebündelt sowie eine Vielzahl von Stakeholder berücksichtigt werden müssen. Hierbei dient die Nutzung eines methodischen Frameworks als Unterstützung. Ausgewählte Methoden unterstützen bei der Analyse verschiedener Perspektiven mit dem Ziel, alle relevanten Aspekte zu berücksichtigen. Sie finden unter anderem Anwendung in der Analyse und Bewertung der Kunden- und Marktanforderungen sowie in der Entwicklung eines bedarfsgerechten Angebotes. Zu ihnen gehört zum Beispiel die „Market Scenario Development“-Methode, deren Nutzung sich bereits in unterschiedlichen Industrien bewährt hat. Sie erlaubt auf Basis im Detail beschriebener Szenarien eine Empfehlung für die strategische Gesamtausrichtung sowie mögliche Entwicklungsmaßnahmen, um das vielversprechendste Szenario zu identifizieren und realisieren. Auch bei der Entwicklung eines wohldurchdachten Portfolios bieten sich eine Vielzahl von Methoden an, die zusammen mit Entscheidern und Experten hinsichtlich ihrer Anwendbarkeit zu beleuchten sind. Einen guten Einstieg bietet oftmals die Methode „Product Portfolio Development“, mit der potenzielle Anwendungen und Kooperationspartner auf ihren Mehrwert für das Gesamtportfolio eines Produktes analysiert und bewertet werden. Neben der sorgfältigen Auswahl eines Anwendungsportfolios richtet sich ein besonderes Augenmerk auf die Qualität Dr. Mike Radmacher ist als Consultant im Bereich Strategy & Marketing mit dem Schwerpunkt Product Innovation tätig. Durch eine Vielzahl von Projekten sammelte er Erfahrungen in der Entwicklung innovativer Ideen, Konzepte und Produkte im ICT Umfeld. Dazu gehören neben der strategischen Portfolioentwicklung, auch konkreten Themen wie das Thema InCar Kommunikation. Nicht nur die reine Entwicklung der Konzepte, sondern ebenso die Begleitung bei deren Umsetzung steht dabei im Vordergrund. [email protected] Dr. Volker Rieger ist Partner und leitet das internationale Competence Team Technology Portfolio Strategies. Er verfügt über langjährige Berufserfahrung sowohl in der Automobilindustrie als auch in der ICT-Branche. In zahlreichen Projekten hat er für Endgerätehersteller, Automobilhersteller, Serviceprovider und Telekommunikations-unternehmen, Geschäfts- und Technologiestrategien im Bereich InCar ICT entwickelt. Sein Hauptaugenmerk liegt darauf, das technologisch Machbare mit dem geschäftlich Sinnvollen zu verbinden. [email protected] Ralf Upmeyer ist im Bereich Strategy & Marketing mit dem Schwerpunkt Strategie, Product Innovation und Projektmanagement tätig. Durch eine Vielzahl von mittleren und großen Projekten sammelte er Erfahrungen in der Entwicklung innovativer Ideen, Konzepte und Produkte im ICT Umfeld. Dazu gehören auch konkreten Themen wie das Thema InCar Kommunikation. Neben der Konzeption der Strategien und Produkte steht die Begleitung bei deren Umsetzung im Vordergrund. [email protected] Alexander Wellmann ist Business Analyst im Bereich Strategy & Marketing. Seit über fünf Jahren in der ICT Industrie tätig, befasst er sich im Bereich ICT Product Innovation neben der Strategieentwicklung mit der Gestaltung von Geschäftsmodellen und Produktkonzepten. Herr Wellmann berät internationale Telekommunikationsunternehmen sowie auch Automobilhersteller zu ICTnahen Fragestellungen. [email protected] 29 Detecon Management Report • 1 / 2011 Strategy Tanja Misiak Social Innovation Eine Unternehmensperspektive auf die Mitgestaltung einer nachhaltigeren Gesellschaft Im Rahmen der Umsetzung eines nachhaltigeren Lebensstils können und müssen Unternehmen eine tragende Rolle übernehmen. 30 Detecon Management Report • 1 / 2011 Social Innovation I n unserer globalen Gesellschaft sind wir zunehmend sozialem und ökologischem Stress ausgesetzt. Klimawandel, Umweltverschmutzung, Armut, Terrorismus, Gesundheitsprobleme und grundlegende Mängel in den Bildungssystemen sind nur einige der akuten Probleme, die wir bislang nicht effektiv in Angriff genommen haben. Wenn sich dies nicht ändert, scheint es zeitlich absehbar, dass sowohl der private als auch der öffentliche Sektor in Kosten und Herausforderungen versinken. Wir selbst haben diese akuten Probleme im Wesentlichen mit verursacht. Offensichtlich sind viele organisatorische und soziale Formen wie auch das individuelle Bewusstsein vielfach nicht auf eine gesellschaftliche Erneuerung ausgerichtet. „Social Innovations“ forcieren dagegen neue soziale und organisatorische Formen und adressieren die Herausforderungen, mit denen wir gegenwärtig konfrontiert sind. Im Unternehmenskontext sehen wir viele Möglichkeiten, uns an der Entwicklung einer nachhaltigeren Gesellschaft zu beteiligen und gleichzeitig den Wert eines Unternehmens zu steigern. Dies ermöglicht es, den Grundstein für eine organische Entwicklung unserer individuellen, organisatorischen und gesellschaftlichen Systeme zu legen. Die gesellschaftliche Herausforderung Wir leben in einer Zeit des Umbruchs. Europas ökologischer Fußabdruck beträgt gegenwärtig -2,4, das heißt, dass Europa die Fläche von 2,4 Planeten nutzt, um den aktuellen Lebensstil aufrechtzuerhalten.1 Der ökologische Fußabdruck der USA ist noch weitaus bedenklicher. Es ist offensichtlich, dass die Menschheit ihren jetzigen Lebensstil nicht weiterführen kann. Naturkatastrophen ebenso wie durch Menschen verursachte Katastrophen, die auf Ressourcenprobleme und gesellschaftliche Unausgewogenheiten wie Kriege oder Terrorismus zurückzuführen sind, werden eher zunehmen. Wir müssen Wege finden, die richtungsweisend für einen nachhaltigeren Lebensstil sind – auf der individuellen, der organisatorischen und der gesellschaftlichen Ebene. Dabei spielt die Wirtschaft eine besondere Bedeutung. Unser modernes wirtschaftliches Paradigma erweist sich als nicht nachhaltig, weder aus sozialer noch aus ökologischer Sicht. Zwischen der Unfähigkeit eines Unternehmens zu nachhaltigem Handeln und dem Überwiegen kurzfristiger Finanzziele besteht offensichtlich ein Zusammenhang. Langfristig ist davon auszugehen, dass die Unternehmen, die weiter dem vorherrschenden Paradigma folgen, aufgrund der sozialen und ökologischen Unausgewogenheiten mit hohen Kosten konfrontiert werden – seien es vorhersehbare Strafgelder oder Steuern für CO2-Emissionen, erhöhte Energiepreise, Kosten aufgrund von Ausfällen in Infrastrukturen oder auch Kosten, die durch erhöhten sozialen und ökologischen Stress verursacht wurden, zum Beispiel Burn-out oder andere gesundheitliche Probleme der Menschen im 21. Jahrhundert. Unternehmen, die entsprechend langfristig denken und sich bereits heute nachhaltig aufstellen, sind für die Zukunft besser gerüstet. Unternehmen müssen daher zunehmend Faktoren in ihre Aktivitäten einbeziehen, die bisher ausgeschlossen waren. Das Dilemma der Unternehmen Im Rahmen unserer Arbeit in verschiedenen Unternehmen haben wir ein sehr interessantes Phänomen entdeckt: Es klafft eine Lücke zwischen individuellem Denken, individuellen Werten und dem, was sich real in der Unternehmenswelt auf der institutionellen Ebene abspielt. Ein Beispiel: Viele Menschen nutzen Solaranlagen für ihren Privathaushalt, achten auf gesunde Ernährung und zahlen auch gerne mehr Geld für nachweisbar fair gehandelte Ware. Innerhalb ihres Unternehmens jedoch sind sie getrieben von engen, profitorientierten Zielen und ignorieren die Werte, die sie außerhalb des Büros gerne vertreten. Das ist nicht die „Schuld“ der Mitarbeiter – das System ist zurzeit so gestaltet, dass zumindest im „business-as-usual“ kaum alternative Handlungsspielräume zu finden sind. Wir prognostizieren eine Änderung dieses Sachverhalts, wenn Unternehmen künftige Marktchancen für ihre Investitionen in „Social Innovations“ sehen könnten. Einige Unternehmen haben es geschafft, ihr geschäftliches Handeln auf innovative Weise mit sozialen und ökologischen Lösungen zu verknüpfen und ein gewisses Maß an Relevanz für die Gesellschaft und damit für künftige Märkte zu schaffen. Wir finden viele Beispiele von großen Unternehmen, die in erneuerbare Energien investiert haben, beispielsweise durch das Aufbauen eigener Windenergieparks. Diese Beispiele zeigen, dass es darauf ankommt, was wir in unsere Business Cases integrieren, damit wir unsere Entscheidungen treffen können. In einer zunehmend vernetzten Welt müssen diese Pläne angepasst und in einen breiteren Kontext integriert werden. Es ist kein Geheimnis, dass wir auf globaler Ebene langfristig auf eine Katastrophe zusteuern, wenn wir unser Verhalten nicht ändern. Allerdings sehen wir viele ungeklärte Fragen in Bezug 1 Marc Luyckx Ghisi, The Knowledge Society – A Breakthrough toward genuine Sustainability, 2008. 31 Detecon Management Report • 1 / 2011 Strategy darauf, was wir tun können, um die Arbeitswelt nachhaltiger zu gestalten, und wie wir diesen notwendigen Wandel in Angriff nehmen können. Der wesentliche Grund für bestehende Zweifel sind die gegenwärtigen Rahmenbedingungen, die nur mäßigen Spielraum für Nachhaltigkeit lassen. Was verstehen wir unter “Social Innovation“? Der Begriff “Social Innovation“ („gesellschaftliche Innovation“) balanciert den rein technologisch betrachteten Innovations begriff aus beziehungsweise integriert und erweitert diesen. Im Feld der ICT gehen wir beispielsweise bewusst über die technischen Features einer Applikation hinaus und platzieren die Anwendung im gesellschaftlichen Kontext. Hier steht im Fokus, wie sehr die ICT unser gesellschaftliches Leben bereits verändert hat und auch weiterhin verändern wird. Die Überlegungen zu gesellschaftlichen Innovationen weiten den Blick für neue gesellschaftliche Formen, die technologische Innovationen durchaus nutzen, sie aber nur als Mittel und nicht als Zweck gebrauchen. Gesellschaftliche Innovationen haben immer den gesellschaftlichen Wohlstand beziehungsweise die Erhöhung von Lebensqualität zum Ziel. Die Ausrichtung im Innovationsprozess ist entscheidend. In der heutigen Zeit mangelt es weniger an technischen Machbarkeiten („technisch ist fast alles möglich“) als an den gesellschaftlichen Rahmenbedingungen. Und diese sind von uns selbst geschaffen – können aber auch von uns wieder geändert werden. Ein wenig komplexes und greifbareres Beispiel aus der Mikroebene ist die Einführung von neuen Medien im Unternehmen: Wenn die Technologie eingeführt ist, die sozialen Prozesse im Unternehmen aber die gleichen bleiben, dann entfalten die neuen Technologien nicht ihr Potenzial für Veränderung, Kreativität, Vernetzung, Querdenken, Kollaboration und letztendlich für eine neue Organisationsform. „Social Innovation“ zielen zusammenfassend auf neue soziale Formen ab, die den aktuellen Bedürfnissen der betroffenen Menschen besser entgegen kommen als die Vorgängerformen. Das erfordert jedoch ein Umdenken beziehungsweise ein Denken über traditionelle Grenzen hinaus. Verfolgt man bisherige Umsetzungen von Social Innovations, kommt man zu dem Ergebnis, dass oft kleine Start-ups sowie Einzelpersonen oder Haushalte eine zentrale Rolle gespielt haben. Beispiele aus der heutigen Zeit für neue Organisationsformen sind Facebook 32 Detecon Management Report • 1 / 2011 oder Wikipedia beziehungsweise viele andere ICT-basierte Anwendungen. In den meisten Fällen ist das am Anfang stehende Motiv für Social Innovation nicht die Profitmaximierung. Oft werden erst im Nachhinein wirtschaftlich erfolgreiche Modelle abgeleitet. In erster Linie steht der soziale Wandel auf der Mikro- oder Makroebene. In der klassischen Welt der Ökonomie finden bislang diese Art von Social Innovations wenig Platz. Oftmals ist es ein „schöner Nebeneffekt, der für die Marketingstory gut ist“. Doch im vorherrschenden wirtschaftlichen Paradigma resultiert das Handeln nicht aus dem Motiv heraus, die Gesellschaft zu verändern. In Zukunft werden die Grenzen zwischen gesellschaftlichen und technologischen Innovationen weiter verschwimmen. Einige Unternehmen beginnen, diese Entwicklung aufzugreifen und für sich zu nutzen. Konzeptioneller Rahmen für Corporate Social Innovation (CSI) Unserem Unternehmensumfeld liegen ökonomische Prinzipien zugrunde. Ziel eines wirtschaftlichen Unternehmens ist der Gewinn, und Unternehmen werden nach ihrer Eigenschaft zur Erzielung von Gewinn bewertet. Der ökologische und soziale Einfluss ist – wenn überhaupt – bislang nur sekundär. Es besteht kein Zweifel, dass dies langfristig nicht nachhaltig sein kann. Interessanterweise gibt es ein anderes System, das bereits teilweise in einer Art Parallelwelt existiert und strukturell anders organisiert ist. Dieses System ist die postindustrielle Gesellschaft – für die es bereits viele Namen gibt, je nachdem aus welcher Perspektive sie gesehen wird. Die neue gesellschaftliche Form wird geprägt von Menschen und Netzwerken, die auf anderen, sogenannten postmodernen Werten basierend leben, denken und arbeiten. Aus unserer gegenwärtigen Perspektive integriert dieses neue Paradigma zwei Erfordernisse des zukünftigen Überlebens: die nachhaltige Entwicklung zum einen und die Organisation im Einklang mit den Netzwerkprinzipien zum anderen. Wenn wir über eine bewusste Mitgestaltung einer neuen Gesellschaft reden, dann besteht die Hauptforderung darin, gesellschaftliche und ökologische Nachhaltigkeit in die Gedanken und Konzepte zu integrieren. Nachhaltigkeit ist der qualitative Aspekt eines neuen Paradigmas und schafft einen Wertbeitrag sowie eine klare Ausrichtung für die Gesellschaft als Ganzes. Social Innovation Wir glauben, dass Unternehmen sich so wandeln können, dass sie in dem neuen Paradigma eine Funktion haben. Um die realistischen Schritte besser in Angriff nehmen zu können und die organische Umwandlung, auf die wir abzielen, stärker zu betonen, ziehen wir es vor, über „nachhaltige Entwicklung“ als Prozess und nicht über das „nachhaltige Unternehmen“ als Zustand zu sprechen. Wir haben bereits damit begonnen, praktische Beispiele als „Samen“ zu konstruieren, wobei jeder Samen ein neues nachhaltiges Ökosystem hervorbringt, welches in dem, aus dem und für das Unternehmensumfeld sowie gesellschaftliche Umfeld arbeitet. Die folgenden Handlungsfelder können als Beispiele betrachtet werden: • Bildung: Bereitstellung von Bildungsplattformen, das heißt jedem die Teilhabe an Bildung durch Bildungsdienstleistungen zu ermöglichen. • Demografische Entwicklung: Bereitstellung von Plattformen, die sich an den Bedürfnissen der steigenden Anzahl älterer Menschen (Deutschland) orientieren. • Gesundheit: Entwicklung von Märkten, die einen gesunden Lebensstil fördern und einen gleichberechtigten Zugang zur gesundheitlichen Versorgung ermöglichen. • Klimawandel: Entwicklung von Märkten, die die Umwelt schützen und verbessern. • Digitale Kluft: Entwicklung von integrierten Technologien, die es allen Gesellschaftsschichten ermöglichen, jede dieser Kluften effektiver zu überbrücken. • Finanzwesen – Verteilung der Ressourcen: Den Mittellosen dazu verhelfen, bankfähig, versicherungsfähig und unternehmerisch zu werden. • Bewusstseinsentwicklung: Entwicklung eines planetarischen Bewusstseins, das stärker auf einen verantwortlichen Lebensstil abstellt, weil der Mensch sich nicht nur mit seiner eigenen Kultur, sondern mit der Weltgesellschaft identifiziert. Darüber hinaus sollten wir den „Wert“ der Nachhaltigkeit und das stärker technisch und organisatorisch interpretierte Netzwerk und Wissen als zwei Seiten einer Medaille sehen. Das Internet im Allgemeinen sowie das Web 2.0 und die sozialen Medien im Besonderen ändern die Art und Weise, wie wir leben, arbeiten und uns selbst organisieren. Wir sehen, wie die diversen sozialen Netzwerke für den privaten, geschäftlichen und öffentlichen Sektor zunehmend an Macht und Bedeutung Abbildung: Corporate Social Innovation: Übergang zwischen zwei Paradigmen Einfluss Moderne Industriegesellschaft Corporate Social Innovation Neue Wege des geschäftlichen Handelns in der Gesellschaft, nachhaltige Entwicklung Postmoderne Postindustrielle Gesellschaft „Business as usual“ führt zu einem negativen Fußabdruck Agrargesellschaft Zeit Heute Quelle: Inspiriert von Marc Luyckx Ghisi 33 Detecon Management Report • 1 / 2011 Strategy gewinnen. Die Netzwerkgesellschaft basiert auf Beziehungen. Immaterielle Vermögenswerte, zum Beispiel Beziehungen zu Kunden und Lieferanten, nehmen stark an Bedeutung zu. Ein wesentlicher Faktor für die Gestaltung von Beziehungen und damit für die Erhöhung der immateriellen Vermögenswerte ist die Kreativität und die Fähigkeit der Menschen, sich um der Sachen willen zu verbinden und vernetzen, und damit ein Teil eines größeren Mitgestaltungsprozesses zu sein. Der Austausch von Wissen und Ideen leistet den wichtigsten Beitrag. Dies ist eine echte Herausforderung für das alte Denken, das aus dem Management knapper Ressourcen resultiert. Knappe Ressourcen werden durch den Austausch noch knapper. Wissen und Ideen vermehren sich durch den Austausch. Manager müssen ihre Rolle überdenken. Eine wertvolle Inspiration liefert das „Management“ von Wikis. Hier gibt es einen Wiki-Gärtner, der Inhalte und Ideen sät, jätet, umpflanzt, auslöst und befruchtet. Manager müssen sich als Wegbereiter für selbstorganisierende Wissensbildungsprozesse verstehen. Der Manager ist eher ein Förderer und Unterstützer als jemand, der plant und kontrolliert. Wettbewerb erlangt somit eine andere Bedeutung. Diejenigen mit den besten Beziehungen und dem optimalen Weg, Ideen und Wissen auszutauschen, sind diejenigen, die am besten mit der Gesellschaft interagieren und innerhalb der Gesellschaft eine klar definierte Rolle einnehmen. Interdisziplinäres Denken und Handeln sind hierfür unumgänglich. CSI erforscht, wie man von einem veralteten Paradigma zu einem neuen und angemesseneren gelangt. Wir haben innerhalb unseres Unternehmens sowie bei Kunden Initiativen ausgelöst, die die gesellschaftliche Innovation in den Vordergrund stellen. Die hervorgebrachten Ideen bauen auf unseren und den Kernkompetenzen der Kunden auf, sind finanziell nachhaltig, zielen aber nicht primär auf die Erzielung von Gewinn ab, sondern auf gesellschaftliche oder ökologische Beiträge. Von Beginn an haben Kollegen und Kolleginnen aus den unterschiedlichsten Bereichen die Initiativen aus eigener Motivation vorangetrieben und nicht aufgrund materieller Anreize. 34 Detecon Management Report • 1 / 2011 Diese Initiativen mitsamt ihren Ergebnissen wären nie zustande gekommen, wenn wir nach dem Prinzip „business as usual“ und in den bestehenden formalen Strukturen gearbeitet hätten. Diese Form der Selbstorganisation bringt die versteckten Energien zum Vorschein, die mit dem Prinzip des „business as usual“ nicht freigesetzt werden konnten. Wir sind jetzt an einem Punkt angelangt, an dem wir das „unusual business“ in unsere bestehenden Strukturen und die neuen oder bislang versteckten Energien in einen organisatorischen Kontext integrieren. CSI-Lab: Ideen- und Umsetzungsschmiede Um für soziale Innovation einen geschützten Raum in Unternehmen verfügbar zu machen, schlagen wir vor, Raum für interne „Social Intrapreneurs“ zu schaffen. Dies ist ein Raum für den Wandel, für eine organische Transformation in ein Unternehmen, das die nachhaltige Entwicklung unserer Gesellschaft bewusst mitgestaltet. Dies ist ein Raum zum Experimentieren: Was würde denn passieren, wenn Teile des Unternehmens sich bewusst für ökologische und soziale Ziele einsetzen und nicht primär auf Gewinn ausgerichtet wären? Im „CSI-Lab“ werden projektbasierte Business Cases entwickelt, die eigenständig ablaufen, also in der Lage sind, die Gewinnschwelle zu erreichen („schwarze Null“, die Investitionsausgaben sind abgedeckt). Gleichzeitig ist der soziale und ökologische Einfluss positiv. Denn die „schwarze Null“ kann auf unterschiedliche Weise erreicht werden: Aufgrund geringer Komplexität und keines zusätzlichen Bedarfs an Ressourcen und/oder der kostenfreien Verwendung bestehender Plattformen fallen für diese Cases keine zusätzlichen Ausgaben an. Andere Cases hingegen erfordern Investitionen, können aber die Investitionsbeträge selbst beisteuern, und zwar durch Umsatzgenerierung, zusätzliche Kosteneinsparungen oder durch die Ersetzung anderer Maßnahmen eines ähnlichen Bereichs Social Innovation mit einem größeren Einfluss. Die Beteiligungen der Anteilseigner werden durch die ersten Schritte nicht beeinträchtigt. Doch während der weiteren Schritte muss zumindest ein Anstieg des immateriellen Werts nachgewiesen werden. Der Raum zum Experimentieren kann sich ausweiten, wenn die immateriellen Vermögenswerte weiter an Bedeutung zunehmen und wenn die Anteilseigner und der Markt sowie die Gesellschaft die Bedeutung der CSI-Cases bestätigen. Wir gehen davon aus, dass hierdurch die Beziehungen zu den Kunden verbessert werden können, was letztlich eine Änderung der Wahrnehmung seitens der Anteilseigner hervorruft. Darüber hinaus kann beispielsweise die Innovationskraft eines Unternehmens steigen, da „um andere Ecken gedacht“ wurde und Ideen auch im „business-as-usual“ verwertet werden können. Ebenfalls haben wir die Erfahrung gemacht, dass Mitarbeiter durch dieses Thema ihren Job aus der Sinn-Perspektive neu definieren, was auf die Mitarbeitergewinnung und Mitarbeiterbindung positive Auswirkungen hat. Und nicht zuletzt besteht ein Zusammenhang zwischen zufriedenen Mitarbeitern und der Kundenzufriedenheit. Unser Konzept für Social Innovation geht weit über den gegenwärtig vorherrschenden CSR-Ansatz der Unternehmen hinaus. Trotz der Inspiration durch Muhammad Yunus‘ Ansatz des Social Business unterscheidet sich dieses Konzept erheblich von der eher engen Definition des „Social Business“, da der Unternehmer innerhalb des Unternehmens verbleibt. Wir schlagen vor, das Veränderungspotenzial kreativer Geschäftsmodelle für den Wandel der Unternehmen und ihrer kreativen Position in der Gesellschaft zu nutzen. iteratur „Integral Enterprise“.2 Allerdings gibt es bislang wenig L oder Erfahrungen, die den Weg vom alten zum neuen Paradigma beschreiben. Ziel des CSI-Labs ist die Entwicklung neuer Management-Methoden, -Tools und -Begriffe, die das gegenwärtige Management-Dilemma besser adressieren und bewusst über das Prinzip „business as usual“ hinausgehen. D iese Entwicklungen bilden den Katalysator für neue Geschäftsmodelle, die nach dem neuen Denkmuster einer nachhaltigen Wissensgesellschaft arbeiten. Viel Raum für Neues Wie könnte eine Zukunftsgesellschaft aussehen? Und woraus würde der Beitrag der Geschäftswelt bestehen? Was wäre der Beitrag des zukünftigen Beraters? Es gibt viele offene Fragen und wir behaupten nicht, dass wir für alle Fragen die erforderlichen Kenntnisse und Antworten haben. Wir bewegen uns in Richtung eines neuen Paradigmas, das die Rolle der Unternehmen innerhalb der Gesellschaft neu definiert („Business-in-Society“). Hierzu erstellen wir eine Studie, die gemeinsam mit und für die Geschäftswelt und Gesellschaft verfasst wird. Wir möchten Mitgestalter eines Dialogs darüber sein, wie unsere Zukunft aussehen könnte und was die Geschäftswelt zu einer nachhaltigen Entwicklung beitragen könnte. Wir wollen einen neuen Weg des geschäftlichen Handelns eröffnen, der auf gesellschaftliche Innovationen abzielt und den Herausforderungen standhält, mit denen wir im 21. Jahrhundert konfrontiert sind. Sollten Sie interessiert sein, sich an diesem sozialen Innovationsprozess zu beteiligen, freuen wir uns auf das Gespräch mit Ihnen. Neuer Wissensfundus für “Social Innovation“ Das CSI-Lab sollte sich allerdings nicht nur der Entwicklung neuer Cases widmen, die alternative Ergebnisse hervorbringen und uns allmählich in Richtung Nachhaltigkeit führen, sondern ganz bewußt die Schaffung eines neuen Wissensfundus zum Ziel haben. Eine konstante Spirale, die sich von der Aktion zur Reflektion und zurück bewegt, kann neues Wissen generieren, das für Unternehmen einen großen Wettbewerbsvorteil darstellen wird. 2 Trans4m Institute for Social Innovation, Genf. Diese neue Ausrichtung ermöglicht das Ausbalancieren des geschäftlichen und technologischen mit den sozialen, ökologischen und kulturellen Beiträgen. Es gibt bereits viele Beschreibungen oder Vorstellungen von Unternehmen, die nach dem neuen Denkmuster arbeiten – zum Beispiel das Konzept [email protected] Tanja Misiak ist Senior Consultant im Center of Excellence for Corporate Responsibility. Sie arbeitet seit 2005 für Detecon und hat die Schwerpunkte Projektkommunikation und Corporate Responsibility. Parallel ist sie Research Associate am Trans4m Institute for Social Innovation mit Sitz in Genf. Sie hat Betriebswirtschaft mit Schwerpunkt Unternehmensführung und Marketing studiert und zuvor bei der Deutschen Telekom eine Ausbildung zur Industriekauffrau absolviert sowie als Marketing-Referentin gearbeitet. Die Autorin bedankt sich herzlich bei Renata Zmrzla, Reza Moussavian und Philipp Weiser für die konstruktive Unterstützung bei der Erarbeitung dieser Publikation. 35 Detecon Management Report • 1 / 2011 Strategy Falk Wöhler-Moorhoff, Dr. Britta Cornelius Connected Energy Innovationstreiber ICT – eine Branche vor dem Umbruch Die Neuausrichtung auf regenerative Energien und die steigende Abhängigkeit der Energiewirtschaft von informations- und kommunikationstechnologischen Lösungen stellen Energieversorger und ICT Unternehmen gleichermaßen vor akuten Handlungsbedarf. 36 Detecon Management Report • 1 / 2011 Connected Energy o wie Larry Hagman alias J.R. Ewing vom prominenten S Fiesling der Fernsehserie ‚Dallas’ und Gesicht der amerika nischen Ölindustrie zum Besitzer der angeblich größten privaten Solaranlage der USA geworden ist, werden immer mehr Menschen auf der ganzen Welt zu Erzeugern von regenerativer Energie. Statt also Öldollar auf die Bank zu bringen, könnte Hagman vielleicht in Zukunft den über den eigenen Bedarf hinaus erzeugten Strom auf sein Energiekonto legen. Seine Energiebank würde ähnlich dem Prinzip einer herkömmlichen Bank kleine Energiemengen von privaten Erzeugern einsammeln und zum Beispiel den Verkauf an einer Strombörse übernehmen oder Transaktionsgeschäfte mit Finanzderivaten betreiben. Hagman könnte dann an den Gewinnen der Bank beteiligt werden, was in etwa der Zinszahlung bei klassischen Geschäftsbanken entspricht. Das Konto fungiert gleichzeitig als Verwahrungsort für den bedarfsweisen Abruf, ähnlich einem klassischen Girokonto. Hagman könnte beispielsweise sein Elektroauto betanken, wenn die Sonne bei ihm nicht scheint. Das Auto wiederum bezieht er von einem Energieunternehmen auf Basis eines zeitlich be fristeten Vertrages und einer monatlichen Mobilitätsrate, die pauschal alle Leistungen wie Stromverbrauch, Instandhaltung und Versicherung beinhaltet. Die Parallele zu Tarifmodellen aus der Telco-Branche drängt sich hier auf. Und das ist nicht das einzige Szenario aus dieser Welt, das in die Energiewirtschaft Einzug halten könnte. Denn Informations- und Telekommunikationstechnologien (ICT) sind ein Schlüssel zur Beantwortung einer der dringlichsten und am meisten diskutierten Fragen unserer Zeit: Wie versorgen wir uns in der Zukunft mit Energie? Branchentransformation in der Energiewirtschaft ist unumkehrbar Der aktuelle World Energy Outlook der International Energy Agency macht die gewaltige Herausforderung der zukünftigen Energieversorgung deutlich: Geht man von plausiblen Annahmen über die wirtschaftliche Entwicklung aus, so wird der Primärenergieverbrauch weltweit bis zum Jahr 2030 um 45 Prozent zunehmen. In Asien und dem Mittleren Osten wird sogar eine Verdopplung des Primärenergieverbrauchs erwartet (IEA 2008). Mit stetiger Verknappung der fossilen Brennstoffe, die heute noch über 80 Prozent des Energiebedarfs decken, steigen die Kosten für deren Erschließung, Transport und Umwandlung der Reserven – und damit auch die Endenergiepreise. Zusätzlich wird es immer wahrscheinlicher, dass der größte Teil des beobachteten Temperaturanstiegs auf der Erde durch die erhöhte Konzentration von Treibhausgasen in der Atmosphäre zurückzuführen ist. Maßgeblich dafür verantwortlich ist die Verwendung von fossilen Brennstoffen. Behalten sie ihre dominante Stellung in unserem Energiemix, gelten eine Temperatur erhöhung von 2-4°C und eine Erhöhung des Meeresspiegels um 20-60 cm bis zum Jahr 2100 als wahrscheinlich (IPCC 2007). Damit drohen dramatische Folgen, die von der Verschlechterung der Luft- und Wasserqualität, zerstörten Ernten, Insektenplagen und Zunahme von Infektionskrankheiten über das Aussterben unzähliger Tierarten bis hin zu sozialen Unruhen im Kampf um knappe Ressourcen reichen. Als eine Alternative zu fossilen Brennstoffen wird oft die Nutzung von Nuklearenergie gesehen. Doch wären die in den nächsten Jahrzehnten entstehenden Kosten der nuklearen Energieerzeugung, zum Beispiel für die Aufbereitung, Lagerung oder eventuell Wiederverwertung von Atommüll oder den Rückbau von Atomkraftwerken, im heutigen Energiepreis enthalten, wäre diese Energiequelle wahrscheinlich nicht konkurrenzfähig. Insgesamt sind damit über 85 Prozent der im Moment genutzten Energiequellen als problematisch einzuschätzen. Künftig werden deshalb erneuerbare Energien, beispielsweise aus Wind-, Solar- oder Wasserkraft, den Hauptanteil im Energiemix übernehmen müssen. Struktur und Mechanismen unserer Energieversorgung werden sich dadurch drastisch verändern: Sie wird volatiler und dezentraler. Zum einen ist nicht sicher prognostizierbar, wann der Wind weht oder die Sonne scheint. Zum anderen sind Anlagen zur Stromerzeugung aus erneuerbaren Energien im Vergleich zu den heute zentral betriebenen Großkraftwerken entweder kleiner und örtlich verteilt oder weit von den Verbrauchszentren entfernt, wie etwa OffshoreWindenergieanlagen oder auch solarthermische Kraftwerke in sonnenreichen Gegenden. Außerdem steht die Energie weniger gleichmäßig zur Verfügung. Dies führt zu einer wesentlich höheren Komplexität im Bereich der Lastregelung und Aufrechterhaltung der Netzstabilität. Nötig wird ein Stromnetz, das flächendeckend mit Informations- und Kommunikationstechnik ausgestattet ist, um damit Angebot und Nachfrage von Energie wirtschaftlich, zuverlässig und nach ökologischen Gesichtspunkten steuern zu können. Die Digitalisierung von Informationen und damit das Internet als Übertragungsprotokoll zur Verbreitung und Verarbeitung 37 Detecon Management Report • 1 / 2011 Strategy dieser Informationen werden mittelfristig zu einem wesentlichen Teil der Wertschöpfung von Energieunternehmen. In zehn Jahren wird dieser Prozess der digitalen Vernetzung der Energieversorgung in den meisten Industrienationen weit fortgeschritten sein – „Connected Energy“ ist dann Realität. Innovationsdilemma der Energiewirtschaft und Wachstumsoption für die ICT Branche Damit steht die Energiewirtschaft vor einem Innovationsschub. Innovation bedeutet Veränderung: Sie bietet Raum für Neugeschäft, kann aber auch eine Bedrohung darstellen. Insbesondere disruptive Innovationen, und dazu zählen Digitalisierung und Internet, können weitreichende Folgen haben. Denn sie führen nicht zu einer inkrementellen Verbesserung und damit berechenbarem Status Quo, sondern substituieren es typischer Weise durch Neues. Die Digitalisierung der Energiebranche ist deshalb als disruptiv anzusehen, weil sie zu einer Erodierung beziehungsweise Verlagerung bestehender Wertschöpfungsstrukturen führt: Weg von der linearen und zentral orientierten Transportleistung hin zur flexiblen, dezentralen organisierten Steuerung von Energieangebot und -nachfrage. Das Tückische dabei: Solche Innovationen kündigen sich lange an, entfalten ihre Wirkung aber oft schlagartig und unvorhergesehen. Aus Sicht etablierter Energieunternehmen kann das einem Schwelbrand ähneln: Über lange Zeit ist nur leichter Rauch erkennbar, aber wenn das Feuer sichtbar hervortritt, ist es zu spät und der Brand ist nicht mehr zu löschen. Mit anderen Worten: Kommt die Branchentransformation etwa durch einen externen Impuls plötzlich in Fahrt (zum Beispiel Änderung der Gesetzes lage), bleibt nicht mehr ausreichend Zeit, um sich an die neuen Marktbedingungen anzupassen. Die Liste der Firmen, die Opfer einer falschen Einschätzung von Innovationen geworden sind, ist lang. Darunter befinden sich prominente Beispiele wie die tradierte Enzyklopädie Britannica, die nach über 200 Jahren erfolgreicher Firmengeschichte die Auswirkungen der Digitalisierung unterschätzt hat und nur im letzten Moment durch einen privaten Investor gerettet wurde. Heute hat Britannica viele Prinzipien der Internet-Enzyklopädie Wikipedia übernommen, womit aus dem Marktführer ein Marktfolger geworden ist. Natürlich möchten Energieunternehmen einem solchen Schicksal entgehen. Hinweise darauf, welche Herausforderungen auf die Energiebranche zukommen, liefert die ICT Industrie selbst. Denn sie durchläuft bereits seit mehreren Jahren einen Transfor- 38 Detecon Management Report • 1 / 2011 mationsprozess wie er vom Grundprinzip auch in der Energie branche erwartet werden kann. Ausgangspunkt hierbei sind die vielen Gemeinsamkeiten der ICT- und der Energiebranche, die einen Branchenvergleich rechtfertigen: • Traditionell herrschen in beiden Branchen investitions intensive Infrastrukturunternehmen mit regionaler beziehungsweise nationaler Prägung vor. • Die Liberalisierung des Marktes führt zu steigender Wettbewerbsintensität; aus Anbieter-dominierten Märkten werden Käufermärkte. • Das Prinzip der Virtualisierung setzt sich durch, das heißt die Abstraktion von Netz und Dienst als Folge von Digitalisierung, Deregulierung und Standardisierung (Internet als offener Industriestandard). • Dezentralisierung beziehungsweise ‚Demokratisierung’ kennzeichnen die Märkte; der Prosumer entsteht, das heißt Konsumenten werden gleichzeitig zu Produzenten von Energie (zum Beispiel eigene Solarzellen) oder von Medieninhalten (zum Beispiel Videos auf Youtube). Es waren im Wesentlichen diese Faktoren, die das Gesicht der ICT Branche grundlegend verändert haben und noch weiter verändern werden. Telko-Unternehmen werden aus ihrem ureigenstem Kerngeschäft, der Kommunikation, mehr und mehr von Internetfirmen verdrängt. Die Kommunikation verlagert sich immer mehr auf Internet-basierte soziale Netzwerke. An diesem Geschäft sind die Telekommunikationsunternehmen nur noch indirekt beteiligt, indem sie die Internetanschlüsse verkaufen. Auf der anderen Seite hat das Internet der ICT Branche zu neuen Marktchancen verholfen, wie das Beispiel Unterhal tungsmedien zeigt: Alle führenden Telko-Unternehmen nutzen heute die internetbasierte Netz- und Übertragungstechnologie, um als TV-Plattformanbieter zu agieren. Damit konkurrieren sie mit Kabelnetz- und Satellitenbetreibern, also den bisherigen Größen der Medienindustrie. Diese Beispiele machen drei wesentliche Punkte deutlich: (1) Die klassischen Branchengrenzen verschwimmen. Dadurch werden Wettbewerbspositionen undeutlicher. Sogenannte Co-opetition-Modelle bilden sich heraus, bei denen zwei Connected Energy Marktteilnehmer in bestimmten Bereichen konkurrieren, während sie in anderen partnerschaftlich zusammenarbeiten. Im Fall der ICT- und Energiebranche haben Vertreter beider Gruppen die Möglichkeit, in Geschäftsbereiche des jeweils anderen einzudringen. Bereits heute bieten Energieunternehmen Smart Home-Lösungen an, die im originären Marktumfeld der Telekommunikationsunternehmen liegen. Umgekehrt lancieren Telekommunikationsunternehmen eigene Smart MeteringAngebote, die je nach Leistungsumfang in die Wertschöpfung der Energiebranche hineinreichen können. (2) Die Markteintrittsbarrieren sinken. Branchenfremde Wettbewerber erhalten plötzlich einen Marktzugang und greifen mit Alternativangeboten, die relativ zur Leistung kostengünstiger sind, das Geschäft der etablierten Firmen an. Internet firmen könnten beispielsweise versuchen, ihre erfolgreichen Geschäftsmodelle auf die Energiebranche zu übertragen. Google ist mit dem ‚Power Meter’, einer Art Portallösung für Energieverbrauchsdaten, bereits am Markt aktiv. Das ist zurzeit noch harmlos. Doch sollte Google eines Tages auf die Idee kommen, durch Werbung quersubventionierte Energieprodukte über den Vertriebsweg Internet selbst zu vermarkten, entsteht eine direkte Konkurrenz zu den etablierten Energieversorgern. Ein solches Szenario scheint heute vielleicht unwahrscheinlich. Aber Google würde nicht zum ersten Mal die Strategien führender Unternehmen auf spektakuläre Weise demontieren. So musste beispielsweise Nokia eine milliardenschwere Investition in digitales Kartenmaterial abschreiben, als Google einen eigenen Geodatendienst kostenlos, weil werbefinanziert, zur Verfügung stellte. Nokia’s klassisches Bezahlgeschäftsmodell wurde damit nur Monate nach der Investition schlagartig ausgehebelt. (3) In der künftigen Connected Energy-Wertschöpfungskette wird sich die Aggregationsfunktion als feste Größe etablieren. Was das bedeutet, zeigt wiederum ein Vergleich mit der ICT Branche. Der phänomenale Erfolg selbstproduzierter Videos wäre nicht ohne internetbasierte Aggregationsplattformen wie Youtube möglich gewesen. Auch Facebook übernimmt dem Prinzip nach eine Aggregationsfunktion – nur dass sie nicht Medieninhalte, sondern Einzelbeiträge der sozialen Interaktion an zentraler Stelle bündelt. Übertragen auf die Energiewirtschaft sind Gegenstand der Aggregation kleinteilige Energiemengen, die nur dann einem weiteren Verwendungszweck sinnvoll zugeführt werden können, wenn sie ein bestimmtes Volumen erreichen. Im Zuge der Dezentralisierung der Energiewirtschaft wird es an verschiedenen Stellen zu diesen verteilten Energiemengen kommen: Bei der Eigenenergieerzeugung privater Haushalte oder im Rahmen der aufkommenden Elektromobilität, wenn zukünftig mittels ICT die Energie in A utobatterien zu einem großen Stromspeicher virtuell verknüpft werden; die eingangs erwähnte Energiebank verfolgt natürlich ebenfalls das Prinzip der Aggregation, indem sie die Energieguthaben privater ‚Anleger’ akkumuliert. Angesichts der beschriebenen Szenarien stehen Unternehmen beider Branchen vor wichtigen strategischen Fragestellungen. Für die Energiebranche ist die Vorstellung über Ausmaß und Reichweite der Wirkung von Digitalisierung und Internet oft noch schwer greifbar. Dabei verleitet der bislang eher mäßige Erfolg von Konzepten wie Smart Metering zu der Annahme, dass man die Marktentwicklung zwar im Auge behalten muss, unmittelbarer Handlungsbedarf jedoch nicht besteht. Zusätzlich sind insbesondere bei den kleineren Energieversorgern die Ressourcen für eine intensivere Beschäftigung mit der innovativen Thematik oft nicht ausreichend vorhanden. Es besteht also die Gefahr, dass strategische Weichenstellungen nicht früh genug erfolgen. Insofern ist es zunächst wichtig, die Veränderungsdynamik und die damit einhergehende Marktreife besser zu verstehen. Für ICT Unternehmen geht es weniger um existentielle Herausforderungen. Im Vordergrund steht die Frage, inwieweit die Konvergenz von ICT- und Energiebranche neue Wachstumschancen bietet. Beispielsweise ist heute noch gänzlich unklar, wer sich in den neu entstehenden Märkten der oben beschriebenen Aggregationsfunktion durchsetzen wird. Für Telko-Unternehmen wäre diese Rolle naheliegend, da sie beispielsweise als IPTV-Anbieter schon als Aggregator fungieren. Auch Internetfirmen werden sich berufen fühlen. Amazon hat zum Beispiel neben seinem Online Shopping Portal ein lukratives Zweitgeschäft im Bereich des Cloud Computing aufgebaut, indem sie die Nachfrage nach Rechenleistung bündeln und die eigene unausgelastete Rechenzentrumsleistung über das Internet zur Verfügung stellen. Das dabei erworbene Know-how ähnelt den Kompetenzen, die für das Geschäftsmodell einer Energiebank erforderlich wären. Einschätzung der Marktdynamik wird zum Erfolgsfaktor Die Notwendigkeit zur Neuausrichtung auf regenerative Energien und die steigende Abhängigkeit der Energiewirtschaft von ICT Lösungen sind ein Faktum. Für Energieversorgungs- und ICT Unternehmen gleichermaßen stellt sich daher nicht die Frage, ob Handlungsbedarf besteht, sondern wann der rich- 39 Detecon Management Report • 1 / 2011 Strategy tige Zeitpunkt zum Handeln ist. Aufgrund der regional zum Teil sehr unterschiedlichen Rahmenbedingungen lässt sich eine solche Einschätzung allerdings nicht pauschalisieren. Eine Betrachtung der relevanten Einflussgrößen hilft aber bei der Beurteilung. Zu den regional abhängigen Parametern zählen vor allem der regulatorische Rahmen, die Gesetzeslage und damit zusammenhängend die vorherrschende Marktstruktur. In nicht liberalisierten Märkten kann die Marktentwicklung unter Umständen beschleunigt werden, da Maßnahmen ‚von oben’ angeordnet werden können. Die flächendeckende Einführung von Smart Metering in Italien ist ein solches Beispiel. Andererseits beflügeln die Marktkräfte Innovationen überall dort, wo Wettbewerb herrscht. Nur die auf Dauer kommerziell tragfähigen Lösungen setzen sich durch. Smart Metering beispielsweise hat sich bislang schwer getan, diesen Nachweis zu liefern. Hauptgrund sind die vergleichsweise geringen Kosteneinsparungen, die ungenügend Anreiz für die Mehrinvestition in digitale Zähler bieten. Der Business Case wird sich jedoch dann positiv verändern, wenn die Energiekosten steigen, und dadurch das Einsparpotenzial stärker ins Gewicht fällt. Dieser Trend ist in vielen Ländern deutlich erkennbar, denn auch indirekte Energiekosten, die zum Beispiel durch die Umlage von Kosten einer energieeffiziente Gebäudesanierung oder der Erhöhung des Anteils erneuerbarer Energien entstehen, rücken immer stärker ins Blickfeld. Weiterhin erkennen immer mehr Länder, dass Energiesparen nicht nur aus Gründen des Umweltschutzes notwendig ist, sondern auch wirtschaftliches Potenzial birgt. Zum Beispiel hat Russland gesetzlich festgeschrieben, den Energieverbrauch bis 2020 um 40 Prozent gegenüber dem Jahr 2007 zu senken. Denn trotz der reichlich verfügbaren Rohstoffe im eigenen Land steht eingesparte Energie als kommerziell vermarktbares Exportgut zur Verfügung. So ist davon auszugehen, dass der politische Wille zur Erhöhung der Energieeffizienz zu gesetzlichen Anordnungen und zu mehr Marktanreizen zwecks Schaffung kommerziell tragfähiger Lösungen führt. Bei Letzterem kommt es vor allem auf die Wirksamkeit dieser Regelungen an, die zum Beispiel in Deutschland noch verbesserungswürdig sind, um Voraussetzungen für eine beschleunigte Marktentwicklung im Sinne der ambitionierten Klimaschutzziele zu schaffen. 40 Detecon Management Report • 1 / 2011 Neben den aufgezeigten inkrementellen Entwicklungen kann es auch zu kaum vorhersehbaren Einzelereignissen kommen, die zur Beschleunigung der Marktentwicklung führen. Als Beispiel aus der ICT Branche sei das iPhone genannt, welches den Markt für Mobiltelefone und insbesondere für das mobile Internet revolutioniert hat. Ein weiteres Beispiel aus dem Bereich der Medien sind dreidimensionale Bewegtbildformate. Obwohl als Technologie seit Jahren bekannt, hatte 3D erst durch den Kinohit ‚Avatar’ seinen Durchbruch. Auch Voice-over-IP (Internet telefonie) war als Technologie Jahre zuvor bekannt, bevor es eine nennenswerte Verbreitung im Markt erfuhr. Diese Beispiele zeigen, dass die Adaption einer Innovation nicht nur vom jeweiligen Kundennutzen abhängt, sondern auch von den Kontextfaktoren. Internettelefonie setzt beispielsweise voraus, dass eine ausreichende Anzahl von Anwendern über einen Internetanschluss verfügt, was wiederum von den Kosten für Internetanschlüsse abhängt. Wenn dann eine kritische Masse erreicht ist, kann ein sich selbst verstärkender Prozess in Gang kommen, der die Geschwindigkeit der Marktentwicklung exponentiell erhöht. Derartige Verläufe sind auch in der Energiebranche in der Zukunft wahrscheinlich, berücksichtigt man die Parallelen der beiden Industrien. Maßgebliche Einflussfaktoren sind außerdem das Kundenverhalten und die Technologieentwicklung. Sie wirken prinzipiell additiv zu den übrigen Faktoren. Entscheidend ist an dieser Stelle: Die eigentliche Innovation, Digitalisierung gepaart mit dem Internetprotokoll, ist bereits da. Wie schnell sie sich durchsetzt, hängt von vielen Faktoren ab. Bei günstigen Bedingungen kann es sehr schnell gehen. Nichtstun ist keine Option Vorbereitung ist also das Gebot der Stunde. Nichts zu tun, wäre fahrlässig, besonders aus Sicht der Energieunternehmen, bei denen es langfristig um nicht weniger als die Sicherung des Kerngeschäfts geht. Andererseits sollte blinder Aktionismus vermieden werden, der zu kostspieligen Fehlinvestitionen führen kann. Ratsam ist stattdessen eine ausreichend tiefe Analyse des Marktes, die eine Prognose wahrscheinlicher Marktszenarien und deren Auswirkungen auf das Unternehmen zulässt. Zur laufenden Beobachtung der Marktentwicklung können erprobte Verfahren wie Innovationsradare eingesetzt werden, die neue Markt-, Produkt- oder Technologieentwicklungen Connected Energy 41 Detecon Management Report • 1 / 2011 Strategy Die Stadtwerke Münster mit smartOPTIMO sind ein Best Practice-Beispiel. Die Relevanz des Themas wurde frühzeitig erkannt und zog die Gründung von smartOPTIMO nach sich. Hierdurch steht ein flexibles Unternehmenskonstrukt zur Verfügung, das Innovation im Zusammenhang mit Smart Energy auf Basis einer gewissen Eigenständigkeit (GmbH & Co. KG) weiterentwickelt und neue Geschäftsbereiche erschließt. Die Energiewelt wird sich im Verlauf der kommenden zehn Jahre zu einer neuen Energiewelt, genannt Smart Energy, wandeln. Smart Meter, ein Teil dieser Energiewelt, sollen den Energieverbrauch bewusst machen und gleichzeitig die Möglichkeit schaffen, diesen zu beeinflussen. Während ein Smart M eter Basis unter anderem bei Neuanschlüssen gemäß § 21b EnWG einzubauen ist, setzen Smart Meter Mehrwertprodukte auf den Funktionen eines Basiszählers auf: Detaillierte Visualisierungen oder weitere Mehrwertdienstleistungen für Web-Portal, iPhone oder Fernseher auch für eigenerzeugte Energie. Neben der Einbauverpflichtung für Smart Meter müssen Energieversorger seit 2010 Tarife anbieten, die Anreiz zum Energiesparen oder zur Energieverbrauchsverlagerung geben (§ 40 EnWG). Im ersten Schritt kommen zeitvariable Tarife zur Anwendung. Mit dem Ausbau einer bidirektionalen Fernanbindung sind auch lastvariable Tarife denkbar. Frühzeitig und erfolgreich vermarkten die Stadtwerke Münster bereits seit dem 2009 ein Mehrwertprodukt „Münster: transparent“. Der Kunde hat die Möglichkeit, in einem Web-Portal detailliert seine Energieverbräuche zu analysieren, er hat mehrere Tarifzeiten, die einen intelligenten Einsatz der Hausgeräte attraktiv machen sowie weitere Zusatzfunktionen. Partner der Stadtwerke Münster ist das Unternehmen smartOPTIMO, welches im Jahr 2009 zusammen mit den Stadtwerken Osnabrück mit rund 70 Mitarbeitern gegründet wurde. Diverse weitere Versorgungsunternehmen aus mehreren Bundesländern sind inzwischen Gesellschafter beziehungsweise Kunden geworden. Die Vernetzung mehrerer partizipierender Stadtwerke bietet deutliche Wettbewerbsvorteile, die allein nur schwer erzielt werden könnten. Die Idee von smartOPTIMO ist das Angebot zukunftsfähiger, individueller Lösungen und Geschäftsmodelle für die Anforderungen des Zähl- und Messwesens unter Einsatz effizienter Kompetenz- und Technologieplattformen in einem Netzwerk kommunaler Partner der Energiewirtschaft. So arbeitet smartOPTIMO durch die enge operative und strategische unternehmensweite Abstimmung mit den Vertrieben und Netzen praxisnah in der Entwicklung und Umsetzung von Geschäftsmodellen und Konzepten rund ums klassische und smarte Messwesen. Aus Sicht des Gesamtunternehmens erlaubt Smart Metering Effizienzsteigerungen und bietet – richtig verstanden und eingesetzt – die Chance, die Kundenbindung zu erhöhen und die eigene Wettbewerbsposition zu verbessern. Mit einem starken Partner wie smartOPTIMIO reduzieren sich die Risiken wie zum Beispiel hohe erforderliche Einmalinvestitionen für IT, Datenübertragung und Vertriebskonzepte. Gleichzeitig können Erfahrungen bezüglich des neuen Mediums, Schnittstellen, Prozessen und Erfolgsfaktoren – gerade auch an der Schnittstelle zum Kunden – ausgetauscht werden. Es ist zu erwarten, dass das „Smart Energy“ die Energiewelt ähnlich stark beeinflussen wird, wie das Internet die Informations-, Geschäfts- und Freizeitwelt. Es ist daher wichtig, sich mit dem Thema Smart Metering frühzeitig zu befassen, um nicht den Entwicklungen hinterher zu laufen. So wird zum Beispiel mit dem 3. EUEnergiemaßnahmenpaket ein Anteil an intelligenten Messsystemen (Strom) in Höhe von 80 Prozent bis zum Jahr 2020 angestrebt. 42 Detecon Management Report • 1 / 2011 Connected Energy systematisch zeitlich erfassen und nach definierten Kriterien strukturieren. Auf die antizipierte Marktentwicklung kann sich das Unternehmen dann durch geeignete Maßnahmen vorbereiten. Zum Beispiel können eigenständige Geschäftseinheiten gegründet werden, die weitgehend losgelöst von den bestehenden Unternehmensprozessen flexibel agieren können, um innovative Geschäftsansätze ohne Beeinträchtigung des Stammgeschäfts weiterzuentwickeln. Da das Neugeschäft typisches ICT Know-how wie Software-Entwicklung oder Datenverarbeitung erfordert, was außerhalb der Kernkompetenzen der Energieunternehmen liegt, wird das Partnering künftig einen größeren Stellenwert einnehmen. Dabei sollte es in der Zusammenarbeit auch mit branchenfremden Unternehmen keine Berührungsängste geben. Insbesondere Energieunternehmen sollten Vorbereitungen für den Umgang mit Nutzer- und Nutzungsinformationen treffen. Das betrifft die technischen und organisatorischen Anforderungen, die aus der Verarbeitung der stetig wachsenden Datenmengen resultieren. Das betrifft aber vor allem auch die kommerzielle Verwertung des neuen Rohstoffs ‚Information’. Die Aufmerksamkeit sollte sich zum einen auf die Evaluierung neuer Geschäftsmodelle richten. Dabei sollten vor allem werbefinanzierte Ansätze geprüft werden. Denn neben der Werbung hatte bislang kaum eine andere Form der Monetarisierung im Internet nachhaltig Erfolg. Zum anderen lassen Nutzungsdaten interessante Rückschlüsse auf das Kundenverhalten zu. Energieunternehmen wissen heute in der Regel kaum etwas über ihre Kunden. Doch dieses Wissen ist Gold wert. Wenn es systematisch generiert und genutzt wird, können differenzierte Kundensegmente bedarfsorientiert angesprochen werden. In diesem Zusammenhang sind aktives Customer Relationship Management (CRM), Innovations- und Produktmanagement sowie Marktsegmentierung Themen, mit denen sich Energieunternehmen in der Zukunft intensiv auseinandersetzen müssen. gelingt, den ICT Energiekonvergenzmarkt als Partner der Energiewirtschaft zu bedienen, beispielsweise in der Rolle des Enablers mit Angeboten in den Bereichen Datenmanagement und -kommunikation, möglicherweise auch Abrechnung und Inkasso. Kooperationsmodelle sind im Bereich Smart Home denkbar: Telekommunikationsunternehmen könnten beispielsweise neben den eigenen Endkundenangeboten auch Energie unternehmen gegen Entgelt eine Plattform für deren Angebote zur Verfügung stellen. Inwieweit es für Telekommunikationsunternehmen sinnvoll ist, tiefer in die originäre Wertschöpfung des Energiesektors zu integrieren, muss vor dem Hintergrund der eigenen Unternehmensstrategie und einer dynamischen Prognose über die Anzahl der Larry Hagmans dieser Welt beurteilt werden. Falk Wöhler-Moorhoff ist als Managing Consultant im Bereich Strategy & Marketing mit den Schwerpunkten Geschäftsinnovation und Industrie konvergenz tätig. Bevor er 2001 zu Detecon kam, arbeitete er drei Jahre für ein deutsches Unternehmen in Singapur und zwei Jahre für ein Internet Start-Up. Herr Wöhler-Moorhoff hält einen MBA. [email protected] Dr. Britta Cornelius ist Consultant im Bereich Strategy & Marketing. Ihre Beratungsschwerpunkte umfassen die Bereiche Business Innovation, Marketingstrategie und quantitative Marktforschung. Vor ihrer Tätigkeit bei der D etecon studierte sie Betriebswirtschaftslehre und promovierte an der Johann-Wolfgang-Goethe Universität in Frankfurt im Bereich Marketing zu den Themen Wettbewerbspositionierung und kundenorientierte Neuproduktentwicklung. [email protected] Wir danken Herrn Dr. Fritz Wengeler, Geschäftsführer der smartOPTMO GmbH & Co. KG, für die Unterstützung bei diesem Beitrag. ICT Unternehmen haben den Vorteil, dass sie bereits auf Erfahrungen mit der Digitalisierung und der damit verbundenen Branchentransformation zurückgreifen können. Diesen Vorteil gilt es zu erkennen und konsequent zu nutzen. Ihr Geschäftserfolg wird maßgeblich davon abhängen, inwieweit es ihnen 43 Detecon Management Report • 1 / 2011 Organization Chin-Gi Hong, Rajat Mukherjee Im Auge des Betrachters Zukunftsszenarien für unser Leben in Augmented Realities Die futuristischen Visionen, die vor Jahrzehnten von Science-Fiction-Autoren entworfen wurden, sind kurz davor, Realität zu werden. Auch wenn das Konzept der Augmented Reality zur Zeit noch in den Kinderschuhen steckt, schreitet die Entwicklung in großen Schritten voran und hat bei Software-, Content-, Hightech- und Telco-Playern begeisterten Anklang gefunden. Augmented Reality verspricht, die Welt, wie wir sie kennen, neu zu formen und die Art, wie wir in dieser Welt sehen, handeln und leben, auf Dauer radikal zu ändern. 44 Detecon Management Report • 1 / 2011 Rationale Partnerwahl ir befinden uns in Los Angeles und schreiben das Jahr W 1995. Zuckende Blitze schlagen zwischen zwei auf einem dun- klen Parkplatz stehenden LKW-Anhängern ein. Eine Art zirkulierender Energiestrahl schießt in die Luft und entlädt sich in Donnerschlägen. Die elektrische Energie verpufft und wir sehen einen muskulösen Mann, der nackt auf der Erde kniet. Er wurde offensichtlich durch ein Energie-Tor in unsere Welt teleportiert. Als der Mann sich aufrichtet und emotionslos seine Umgebung sichtet, merken wir, dass unser Blick nicht auf ein menschliches Wesen, sondern auf einen Cyborg gerichtet ist: der T-800 oder besser bekannt als Terminator. Der Terminator startet seinen <acquire transport>-Modus und läuft in Richtung Trucker-Bar. Vor der Bar entdeckt er Motor räder und die Applikation liefert ihm die gewünschte Information über die Modelle und sonstige technische Spezifikationen. Beim Betreten der Bar schaltet der Terminator in den Betriebsmodus <size assessment> und scannt die an ihm vorbeigehenden Personen. Schließlich entdeckt er einen kantigen Biker mit denselben Körpermaßen und die Applikation liefert ihm das gewünschte Ergebnis: <initial match suitable: match probability 99>. Er richtet sich in voller Größe vor dem Typen auf und bringt seine Forderung hervor: „Gib mir deine Klamotten, deine Stiefel und dein Motorrad“. Hasta la Vista, Baby – Wenn aus Science Fiction (augmentierte) Realität wird Weltweit werden sich die Zuschauer an diese berühmte Szene aus dem aktionsgeladenen Hollywood-Blockbuster „Terminator 2: Tag der Abrechnung“ erinnern. Im Nachhinein fragt sich vielleicht manch einer verwundert, ob die Drehbuchautoren William Wisher Jr. und James Cameron jemals im Traum daran gedacht haben, dass ihre fiktionale Vision davon, wie der Terminator seine Umgebung wahrnimmt und interpretiert, eines Tages tatsächlich Realität werden könnte. Und die beginnt in der Tat jetzt. Als ein zentraler Fokus innerhalb der ICT und benachbarter Branchen ist das Konzept der Augmented Reality (AR) – der offizielle Begriff des zuvor beschriebenen Konzepts – kurz davor, allgegenwärtige Marktrealität zu werden und bewegt sich in großen Schritten auf den etablierten Bereich kommerzieller Anwendungen zu. Das häufig verwendete Disney-Zitat „Wenn du es dir vorstellen kannst, kannst du es auch machen“ scheint sich einmal mehr zu bewahrheiten – und überraschend für die meisten, wenn nicht für alle, ist die Tatsache, wie weit die Menschheit in dieser zunehmend vernetzten und digitalisierten Welt vorangekommen ist. Die möglichen Anwendungsfälle und Anwendungen, die auf AR basieren, sind potenziell endlos und das zugrunde liegende Markt- und Geschäftspotenzial ist dementsprechend vielversprechend. Laut Gartner werden bis 2014 mehr als 30 Prozent der „Mobile Worker“ AR-Anwendungen nutzen. Für dasselbe Jahr schätzen die Analysten von ABI Research, dass AR einen Umsatz von fast 350 Millionen US-Dollar generieren wird. Ein Blick auf diese Zahlen zeigt, dass es sich bei AR nicht nur um ein Modethema, sondern um eine disruptive Technologie handelt, bei der davon auszugehen ist, dass sie den kommerziellen Markt stark durchdringen und grundlegende Änderungen innerhalb unserer Informationsgesellschaft bewirken wird. Abbildung 1: Auswahl von Internet-Videos über Augmented Reality-Technologien und -Anwendungen Wer Was Video-Titel auf YouTube Layar AR-Browser Layar, worlds first mobile Augmented Reality browser World Lens AR-Übersetzung Introducing Word Lens BMW AR-Mechanismus BMW augmented reality Fujikawa AR-Brillen AWESOME Augmented reality Glasses „StarkHUD 2020“ from FUJIKAWA GM AR-Windschutzscheibe GM previews augmented-reality windshield Touch AR-basiertes POS-Marketing Tissot Augmented Reality IKEA AR-basierter Produktkatalog IKEA augmented reality demo TUM Medizinische AR MAR: Volume Rendering in High Quality Visualization Keine Angabe AR-Gaming Augmented Reality Game Example – Future of Augmented Reality Gaming Keine Angabe AR-Mode Life Size Augmented Reality Fashion Show Quelle: Detecon 45 Detecon Management Report • 1 / 2011 Organization „Context is King“ lautet das neue Mantra Der Begriff „Augmented Reality“ wurde 1990 von Thomas Caudell geprägt, der zu diesem Zeitpunkt bei Boeing beschäftigt war. Im Gegensatz zu dem Konzept der virtuellen Realität, die per definitionem als vollständig künstlich bezeichnet wird, kombiniert AR die virtuelle Welt mit der realen Welt durch semantische Überlagerungen computergenerierter Informa tionen und Inhalte in Echtzeit, und zwar in Form von Texten, Grafiken, Bildern, Audio und Video. Mit AR wird die physische Umgebung digital angereichert beziehungsweise manipuliert. Durch die Überlagerung einer digitalen Schnittstelle und die Bereitstellung interaktiver Mittel werden virtuelle Elemente in einen Kontext zur Realität gesetzt. Die von AR derzeit ausgehende Dynamik ist größtenteils auf technologische Fortschritte zurückzuführen, zum Beispiel das verstärkte Aufkommen einer neuen Generation leistungsstarker Mobilgeräte mit höheren Rechenleistungen, hochentwickelten Displays, Sensor- und Kamera-Technologien sowie verbesserten Netzwerkfähigkeiten in puncto Bandbreite aufgrund neuer Standards und Protokolle. Obwohl Konzept der AR und erforderliche Technologien schon eine Weile existieren, hat sich die kommerzielle Umsetzung bislang als schwierig erwiesen. Das liegt in erster Linie daran, dass die mobilen Grafikprozessoren (GPUs) bislang nicht leistungsstark genug waren, um die Bildverarbeitung durchzuführen (zum Beispiel Rand- und Kan- tendetektion), die für die Entwicklung immersiver AR-Anwendungen erforderlich ist. Hinzu kommt, dass AR-Anwendungen Standort- und Orientierungsdaten benötigen und dass die Sensoren, die diese Daten liefern, nämlich GPS-Empfänger, digitale Kompasse, Accelerometer, erst seit Kurzem zur Standardausrüstung der Smartphones gehören. Erst jetzt werden diese Engpässe allmählich beseitigt. Mit AR bewegen wir uns unweigerlich in Richtung einer digitalisierten Welt. Die ständig steigende Vernetzung persönlicher, beruflicher und öffentlicher Räume wird sich in den nächsten 20 Jahren gravierend auf unser Leben auswirken, wobei die Wegbereitung für als auch das Schaffen von Vertrauen und Möglichkeiten in einer digitalen Gesellschaft 2032 durch die richtigen regulatorischen Rahmenbedingungen ermöglicht und gefördert werden müssen. Das AR-Ecosystem und die zugrunde liegenden Technologien Das AR-Ecosystem ist gegenwärtig stark fragmentiert und besteht aus vielen relativ kleinen und unabhängigen Playern, deren Aktivitäten sich auf Nischenbereiche konzentrieren. Generell lässt sich das Ecosystem in vier Kategorien unterteilen: AR-Hardware-Anbieter, AR-Toolkit-Anbieter, AR-Anwendungsentwickler und AR-Publisher/Content Provider (siehe Abbildung 2). Abbildung 2: Ecosystem Map der Player, die eine Vorreiterrolle in AR einnehmen Hardware-Anbieter Content Provider und Publisher Quelle: Detecon 46 Detecon Management Report • 1 / 2011 Toolkit-Anbieter Augmented Reality Ecosystem Entwickler Rationale Partnerwahl Die Anbieter-Kategorie „AR-Hardware“ besteht aus solchen Playern, die sich auf unterschiedliche Typen und Aspekte der AR-Display-Technologie und -Hardware spezialisiert haben. Zu diesen gehören Display-Komponentenanbieter als auch Display-Lösungsanbieter. Der Markt wird zur Zeit von drei zentralen AR-Display-Technologien beherrscht. Bei der ersten Variante handelt es sich um das Head-Mounted Display (oder HMD), das mit verbesserten Displays ausgestattet ist, die als Teil eines Helms auf dem Kopf getragen werden. Zur zweiten Variante zählen die Verbraucher-Displays, die bei Smartphones oder Tablets gängig sind. All diese portablen Geräte oder Handhelds sind mit videobasierten Technologien – dem sogenannten Video-See-Through – ausgestattet, bei denen man durch eine Kamera schaut, um die reale, physische Welt mit Informationen zu überlagern. Und künftig kann es durchaus möglich sein, dass die AR über die Handhelds oder Head-Mounted Displays hinausgeht. Es ist durchaus vorstellbar, dass große Glasoberflächen wie große Fenster oder Windschutzscheiben künftig entweder mit Optical-/Video-See-Through oder modernen visuellen Projektionssystemen ausgestattet sind, um unsere reale Umgebung mit Informationen zu überlagern. General Motors arbeitet zur Zeit an der Idee einer mit HUD (Head-Up-Display) kombinierten AR-Windschutzscheibe. Die zweite Player-Kategorie bilden die AR-Toolkit-Anbieter, deren Software-Entwicklungs-Kits eine hochqualitative Entwicklung von AR-Anwendungen ermöglichen, ohne dass der Entwickler selbst über Fachkenntnisse der AR-Technologie verfügen muss. Dadurch, dass diese Toolkits typischerweise Bildverarbeitung und Vision-Algorithmen kombinieren, überlagern sie die reale Welt mit virtuellen Elementen. Das zur Zeit bekannteste Toolkit ist das ursprünglich in 1999 entwickelte ARToolKit. Es gibt viele kommerzielle Implementierungen des ARToolKit einschließlich FLARToolKit (bei dem es sich um einen Port des ARToolKit für Flash 9+ handelt), SLARToolKit (ein Silverlight Port) und AndAR (nativer Port des ARToolKit für das Android-Mobilbetriebssystem). Ein weiterer führender AR-Toolkit-Anbieter ist Total Immersion, dessen Software D‘Fusion Studio AR-Design-Lösung in Kombination mit verschiedenen Einsatzlösungen, beispielsweise für Flash oder mobil, unter anderem von Verizon, McDonald’s, Intel und BMW für diverse Digital-Marketing-Anwendungen genutzt wird. Die dritte Kategorie besteht aus Entwicklern, die die Implementierungen von AR vorantreiben (AR-Anwendungsentwickler). Diese Liste ist äußerst vielfältig und enthält anerkannte führende Unternehmen wie Layar, ein niederländisches Unternehmen, das den Mobilbrowser Layar entwickelte, Mobilizy, das österreichische Unternehmen, das den Wikitude Mobilbrowser entwickelte, und Ogmento, ein amerikanischer Entwickler und Publisher von AR-Games, bis hin zu kleineren Software-Entwicklern spezieller Anwendungen wie Quest Visual, Entwickler von Word Lens (eine Instant-AR-Offline-Übersetzungs-App). Die letzte Kategorie besteht aus den Content Providern und Publishern, die AR zur Generierung von Mehrwert für ihre bestehenden Services nutzen. Content Provider nutzen AR vorrangig zur Verbesserung ihres bestehenden Contents und profitieren von den durch AR bereitgestellten Möglichkeiten. Dazu zählen unter anderem Anbieter von Karten, zum Beispiel UrbanMapping, Wetterdiensten wie Foreca und Auskunftsdiensten wie Yell.com. Publisher wie Yelp und die Werbeagentur AKQA hingegen nutzen AR in erster Linie, um neue Vertriebskanäle für ihre Dienste zu erschließen. Beispiele von gegenwärtigen und Near-Future Hauptanwendungsbereichen Die Hauptanwendungsbereiche, in die AR bereits Eingang gefunden hat oder bei denen das während der nächsten zwei oder drei Jahre der Fall sein wird, beinhalten die Bereiche G aming, Marketing, Militär, Information-on-the-Go, Schulung und Social Networking. Es wird zum Beispiel davon ausgegangen, dass AR in unmittelbarer Zukunft für Werbung – Schau fensterbummel – und Online Shopping genutzt werden wird, um das herkömmliche Einkaufserlebnis zu steigern. Das Londoner Kaufhaus Selfridges ist mit einem neuen AR-Schaufenster ausgestattet, das den Kunden ermöglicht, die gesamte Armbanduhrenkollektion von Tissot an ihren Handgelenken auszuprobieren, ohne dafür das Geschäft betreten zu müssen. Gaming ist eine andere populäre AR-Anwendung, die zunehmend Anklang findet. Sony hat das erste AR-Game – Eye of Judgment – auf seiner PS3-Plattform herausgebracht. Es nutzt das Peripheriegerät PlayStation Eye-Camera als Teil eines größeren Card-Battle-Spiels. Eine unmittelbare und praktische Anwendung ist die für Schulungen. AR (oder häufiger Virtuelle Realität) wird schon seit Langem für Militärflugsimulatoren und Cockpits verwendet. Jedoch könnten AR-Brillen oder HUDs für kommerzielle Schulungsanwendungen schon bald zum Standard werden. Ein gelungenes Beispiel in diesem Kontext ist eine Demo von BMW, in der ein Mechaniker mit einer AR-Brille zu sehen ist, der gerade lernt, wie man einen Motor repariert. 47 Detecon Management Report • 1 / 2011 Organization Der Blick in die Kristallkugel – AR und die Entstehung des Outernets Die Beispiele bereits verfügbarer oder bald verfügbarer Anwendungen zeigen deutlich auf, dass AR ein universell anwendbares Konzept ist. Aber wie weit wird oder kann es gehen? Mit Blick auf die aktuellen Diskussionen und wissenschaftlichen Aktivitäten lässt sich mit Gewissheit feststellen, dass das Ziel der Reise noch nicht sobald erreicht sein wird, sondern eher noch in den Anfängen steckt. Wenn es darum geht, was AR uns für die Zukunft bringen wird, dann ist die Antwort darauf unmittelbar mit der Entstehung des Outernets verknüpft – dass das Internet aus dem traditionellen Bereich computerbasierter Netze in die reale Welt führt. Dies hat zur Folge, dass sich unsere Beziehung und Interaktion zu den Objekten der realen Welt grundlegend ändern wird. Das Outernet als Konzept ist keine singuläre Technologie, sondern basiert auf einer Kombination aus verschiedenen technologischen Entwicklungen. Auch wenn sich die Mehrzahl dieser Technologien noch in den frühesten Entwicklungsphasen befinden und äußerst kostenintensiv sind, ist davon auszugehen, dass sie bis 2032 die Marktreife erlangt haben werden. Nach diesen Vorhersagen geben wir nachstehend einen Ausblick über die wichtigsten Technologien, die AR auf die nächste Evolutionsstufe bringen. AR Tech-Prognose #1: Ultra High-Speed Breitbandnetze: Die Entwicklung von neuen Ulta High-Speed Kommunikationsstandards läutet das Ende der Trennung zwischen offline und online ein. Bis zirka 2032 wird sich die Always-On-Konnektivität zu einem unverzichtbaren Grundbedürfnis entwickelt haben – egal ob für Zuhause, unterwegs oder am Arbeitsplatz und ohne Überlegungen im Hinblick auf die Art der Bandbreite oder Nutzung von Zeit oder Volumen. Diese Entwicklung bildet die ultimative Grundlage, die den Weg zu der Ära einer vollständig digitalisierten Welt bereitet. AR Tech-Prognose #2: Erweiterte M2M-Kommunikation und semantische Intelligenz. Die Ausweitung der Machine-to-MachineKommunikation (M2M) geht einher mit der durch Cyberspace voranschreitenden Eroberung der realen Welt, in der physische Objekte zunehmend miteinander verbunden sind und als partizipative Hubs des Outernets miteinander Daten austauschen. Maschinen werden zunehmend intelligenter und helfen uns, die Überfülle an Informationen in den Griff zu bekommen. Basierend auf Verhaltens- und Nutzungsmustern werden Maschinen in der Lage sein, intelligente Annahmen und Prognosen auf 48 Detecon Management Report • 1 / 2011 der Grundlage von Profiling-Mechanismen zu treffen und uns ausschließlich personalisierte Informationspakete zu liefern, die unseren Bedürfnissen und Interessen entsprechen. AR Tech-Prognose #3: Hochentwickelte Displays und Mensch-Maschine-Interaktion. Hochentwickelte Display-Technologien und intuitive Mittel zur Mensch-Maschine-Interaktion befinden sich bereits in der Entwicklung. Holografische Schnittstellen, Formen oder Objekte, die auf realen Flächen – generisch, gruppenspezifisch oder personalisiert – erscheinen, werden alles Analoge beziehungsweise Materielle wie Plakatflächen, Verkehrsschilder oder Schaufensterdekorationen ersetzen. Desweiteren wird es Kontaktlinsen geben, die uns personalisierte 360°-Screens zur Interaktion mit unserer unmittelbaren Umgebung. Im Hinblick auf Maschine-Interaktions- und Usability-Konzepte werden künftige Technologien sprach-, augen-, gesten- und sogar gedankenbasierte Methoden zur Nutzersteuerung beinhalten. AR Tech-Prognose #4: Moderne Lokalisierungs- und Erkennungstechnologien. Um die vielversprechenden AR-Potenziale voll ausschöpfen zu können, müssen Objekte der realen Welt erkannt werden, damit sie Interaktionen mit der virtuellen Welt auslösen können, und daher sind die modernen automatisierten Lokalisierungs- und Erkennungstechnologien der Schlüssel zu AR. Einige leistungsstarke Systeme haben sich bereits etabliert, zum Beispiel GPS oder GSM zur Lokalisierung und Tag-basierte RFID- oder NFC-Technologien zur Erkennung. Bis zum Jahr 2032 werden objekt- oder gesichtsbasierte Technologien an Präzision gewonnen haben, technologisch ausgereift sein und die vollständige Marktdurchdringung erreicht haben. Weiterhin wird AR die Art und Weise, wie wir mit der Welt und miteinander interagieren, grundsätzlich ändern. In den folgenden Absätzen stellen wir einige mutige Prognosen dahingehend auf, wie der AR-Markt und die Welt in 2032 aussehen könnten. AR Markt-Prognose #1: Pre-Authored Introductions. Die Verbindung von pervasiven sozialen Netzwerken mit AR-Sonnenbrillen, AR-Kontaktlinsen oder AR-Smartphones bewirkt, dass Personen etwas über andere Personen in ihrem Umkreis erfahren, ohne dass es einleitender Worte bedarf. AR-Sonnenbrillen, die mit Kameras ausgestattet sind und eine Gesichtserkennung der Person durchführen, die Sie gerade anschauen, diese mit den öffentlich zugänglichen Informationen der besagten Person auf den Websites der sozialen Netzwerke wie Facebook oder LinkedIn abgleichen und diese öffentlich zugänglichen Daten, zum Beispiel Name, Interessen, dann mit ihrer Ansicht von dieser Rationale Partnerwahl Person überlagern, könnten sich künftig durchsetzen und eventuell großer Beliebtheit erfreuen. AR Markt-Prognose #2: „Dumb“ AR-Endverbrauchergeräte. ARGeräte werden unter die Kategorie „dumb“ (unintelligent) fallen; sie werden aus vernetzten Displays und Kameras bestehen und für die Bildverarbeitung auf eine Cloud-basierte Plattform zugreifen; und AR-Rendering – ähnlich wie Laptops/Tablets – wird lediglich ein Display und eine Netzanbindung beinhalten und für die Mehrzahl der Dienste auf die Web-Cloud zugreifen. Diese AR-Geräte lassen sich an eine Cloud-basierte Plattform anschließen, sofern sie nicht über ein geeignetes, lokal zwischengespeichertes AR-Visual-Set für das Rendering oder über eine Netzwerkverbindung verfügen und auf den „Offline-Modus“ zurückgreifen müssen. AR Markt-Prognose #3: Entstehung eines dominanten AR-Plattform-Players. Ähnlich wie Google mit seiner Suchtechnologie und Facebook mit seinem sozialen Netzwerk-Ecosystem Berühmtheit erlangt haben, gehen wir davon aus, dass irgendwo am Horizont ein AR-Gigant lauert, der das AR-Ecosystem dominieren wird. Dieser Gigant wird in der Lage sein, visuellen und Positionierungs-Input, beispielsweise von HUDs, vernetzten Kameras, GPS und Sensoren, über das Web weltweit aufzunehmen, diesen Input kontextgemäß in der Cloud zu verarbeiten und in geeigneter AR-Ansicht, das heißt mit der richtigen Information und im richtigen Ansichts-Verhältnis für den entsprechenden Display-Typ, über pervasive, superschnelle Breitbandnetze in Echtzeit wiederzugeben. Der zentrale Wettbewerbsvorteil eines solchen Players besteht aus seiner leistungsstarken Cloud-basierten Plattform, die es ihm ermöglicht, seine proprietäre kontextuelle Bildverarbeitungstechnologie auf einen riesigen Bilddatensatz anzuwenden, mittels der er diese Funk tionen besser als jeder andere auszuführen kann. Der „Business Imperativ“ – auf das Unvorhergesehene vorbereitet sein Aus geschäftlicher Sicht müssen Unternehmen sich künftig das Credo „auf das Unvorhergesehene vorbereitet sein“ zu eigen machen. Wichtig ist für Unternehmen, dass sie ihre strategischen Planungs- und Innovationszyklen erhöhen, ihre Makroumwelt kontinuierlich scannen und die Aktivitäten der Wettbewerber und die in diesem Bereich aufstrebenden Technologien akribisch beobachten. Nachstehend zeigen wir einige Beispiele, wie AR die Art und Weise, in der Unternehmen ihre Geschäfte betreiben, verändern wird: AR Geschäftsprognose #1: Omnipräsenz der Marke. AR ist ein brandneuer Vertriebskanal, der ihre Kunden adressiert, die immer die Möglichkeit haben, mehr über ihr Unternehmen, ihre Standorte und Produkte und Services zu erfahren. AR Geschäftsprognose #2: Virtualisierte Präsenz und Kooperation. AR ist ein weiterer Faktor, der die Virtualisierung der Büroumgebung ermöglicht, so dass die Mitarbeiter oder Partner an jedem Ort arbeitsmäßig kooperieren und Meinungen austauschen können. AR Geschäftsprognose #3: Personifizierte Dienste. AR ermöglicht es Unternehmen, ihre Dienste gegenüber Kunden, Partnern und Mitarbeitern zu personifizieren, indem sie der Stimme ein Gesicht verleihen, das Schulungen oder Kundendienst anbietet und den Nutzer über ein die Sinne stimulierendes Erlebnis unmittelbar miteinbezieht. Die Unternehmen aller Branchen sind daher gefordert, Strategien für ein digitales Marken- und Produktmanagement zu entwickeln und zu etablieren. Chin-Gi Hong ist als Management-Berater in der Process & Product Lifecycle Management Group tätig und Mitglied des Detecon Center of Excellence „New Media“. Als eTOM-zertifzierter Prozessexperte liegt sein fachlicher Schwerpunkt hauptsächlich in den Themen Telco-Prozessdesign, Enterprise Effectiveness Management sowie Product Lifecyle Management und Innovationsmanagement – insbesondere in Bezug auf die Entwicklung neuer konvergenter Produkt- und Servicekonzepte. Er ist Co-Autor zahlreicher P ublikationen und hat ein Diplom in Medienwirtschaft sowie einen Master of Science (MSc) in Information and Communication Sciences. Er hat erfolgreiche Projekte in Europa, Asien, den USA und in der MENA-Region durchgeführt. [email protected] Rajat Mukherjee arbeitet bei Detecon, USA, in der Strategy & Innovation Group. Er ist Mitglied des Mobile Internet Center of Excellence. Der Schwerpunkt seiner Tätigkeit liegt gegenwärtig auf Best Practices im Hinblick auf Produkte und Services Launch Management sowie auf Innovationsstrategien für zukünftige Telekommunikationsnetze. In seiner vorherigen Tätigkeit in der ICT Branche war er schwerpunktmäßig mit NGA- und Konvergenztechnologien befasst. Er ist Co-Autor zahlreicher, vor dem US-Patent- und Markenamt schwebender Patente über verschiedene Aspekte der ICT Technologie. Er hat einen Bachelor-Abschluss in Elektrotechnik (mit Auszeichnung) von der McGill University in Montreal, Kanada, und einen Master-Abschluss in Wirtschaftsingenieurwesen (Management Science and Engineering) von der Stanford University in Palo Alto, USA. [email protected] 49 Detecon Management Report • 1 / 2011 Organization Nicole Panchyrs, Dr. Philip Hucke, Dr. Stefan Wygoda Auf zu neuen Ufern Foto: Objekt, Amely Spoetzl Warum die Suche nach der perfekten Organisationsstruktur niemals endet Organisationsstrukturen müssen die Lösung komplexer Probleme in immer kürzerer Zeit unterstützen. Noch nicht ausgeschöpftes Potenzial bietet hier der Netzwerkgedanke. 50 Detecon Management Report • 1 / 2011 Auf zu neuen Ufern ie Telekommunikationsbranche hat eine eindrucksvolle D Entwicklung hinter sich. Ein Beispiel: Wer vor 20 Jahren er- reichbar sein wollte, der benötigte ein Endgerät von der Größe eines Benzinkanisters und dem Gewicht eines vollen Bierkastens. Dieses Endgerät war der erste Schritt in Richtung „Mobil“-funk. 20 Jahre später besitzen Mobiltelefone die Größe einer Zigarettenschachtel, wiegen 150 Gramm, bieten uneingeschränkte Erreichbarkeit und die Fähigkeit zum Telefonieren unabhängig vom Aufenthaltsort stellt seit Langem einen Hygienefaktor dar. Immer neue Konsumentenwünsche stellen hohe Anforderungen an Netzbetreiber und Entwickler. Dieser einfache Beleg für die digitale Revolution lässt erahnen, welche technologischen Quantensprünge in den nächsten 20 Jahren bevorstehen und welche hohen Erwartungen Kunden in Zukunft an ihre Provider richten werden. Netze einer noch unbekannten Generation, weitestgehende Konvergenz und Connected Live & Work sind sicher nur einige Themen, die uns in der fernen Zukunft begleiten werden. Alle Entscheider sind natürlich brennend daran interessiert zu wissen, welche konkreten Entwicklungen kommen werden. Wer dahingehend motiviert diesen Artikel liest, kann die Lektüre nun beenden. Wer wissen möchte wie er sich nichtsdestotrotz optimal organisatorisch vorbereiten kann, sollte dagegen weiter lesen. Denn es gibt sehr wohl Möglichkeiten, sich zu wappnen. Man muss nur wissen, wie. Experten wie Mike Kelly vom TM Forum halten es zu Recht für fraglich, inwieweit die traditionellen Geschäftsmodelle von Telekommunikationsunternehmen in Zukunft noch Bestand haben werden*. Angesichts der Tatsache, dass vermutlich kein Entscheidungsträger auch nur annährend prognostizieren kann, wie sich Märkte, Kundenbedürfnisse oder sogar Geschäftsmodelle in den nächsten Jahrzehnten entwickeln werden (die Anzahl plausibler Szenarien wäre schlicht zu groß), gewinnen Organisationsstrukturen eine völlig neue Bedeutung. In den Mittelpunkt rücken dann Organisationsmodelle, die nicht unbedingt gewährleisten, ein bestimmtes Geschäftsmodell optimal zu unterstützen, sondern solche Strukturmodelle, mit denen aus der Zukunftsunsicherheit Kapital geschlagen werden kann. Hierfür muss jedoch mit tradierten Denkweisen gebrochen werden. Stillstand ist der Tod Eine der wenigen belastbaren und konsensfähigen Aussagen über die ferne Zukunft dürfte diese sein: Das Ausmaß an umweltinduzierten Veränderungen wird in qualitativer, quantitativer, räumlicher und zeitlicher Dimension zunehmen. Ein wesentlicher Grund hierfür könnte die Entgrenzung zwischen einzelnen Branchen sein. Die Telkobranche könnte in Zukunft in bisher unbekanntem Ausmaß mit anderen Branchen wie zum Beispiel Medizin, Automotive oder Bildung verwoben sein. Zauberworte, welche bereits in diese Richtung gehen, lauten zum Beispiel Konnektivität oder Virtualität. Aus diesem Grund sind zukünftig vielfältige Geschäftschancen zu erwarten, die jedoch von ICT Unternehmen identifiziert und genutzt werden müssen. Die zentrale Schwierigkeit dürfte in Zukunft nicht darin bestehen, dass die Aufgaben noch komplexer werden oder dass Dinge einfach nur noch schneller erledigt werden müssen. Vielmehr wird es darauf ankommen, Lösungen zu finden, wenn für immer komplexere Aufgaben immer weniger Zeit zur Verfügung steht. Das ist beileibe nichts Neues, seit Jahrzehnten diskutiert die Wissenschaft die zunehmende Dynamik sowie daraus resultierende Konsequenzen für Unternehmen und ihre Art zu wirtschaften. Um mit diesen Entwicklungen Schritt halten zu können, muss es Unternehmen gelingen, die anstehende Komplexitätsflut zu bändigen und gewinnbringend zu nutzen. In den nächsten 20 Jahren werden organisatorische Strukturen erforderlich, die trotz aller technologischen Entwicklungen die zuverlässige Befriedigung von Kundenbedürfnissen garantieren. In den Mittelpunkt rücken dann Organisationskonzepte, die vor allem ein Ziel haben: Die Sicherstellung eines adäquaten Problemlösungspotenzials. Nichtsdestotrotz: Ein Blick in die * Siehe Interview mit Mike Kelly Interview in dieser DMR-Ausgabe, Seite 56 ff. 51 Detecon Management Report • 1 / 2011 Organization Realität zeigt, dass sich erschütternd wenig verändert hat. Wo ist eigentlich das grenzenlose Unternehmen (Picot 2003), wo die Netzwerkorganisation (Williamson 1975) oder die lernende Organisation (Senge 1990)? Tatsächlich neue Arten der Organisation entstehen anscheinend nur durch zufällige Mutationen in Form von erfolgreichen Start Ups. Aber auch diese ähneln, sobald sich ihr Erfolg in ihrer Unternehmensgröße widerspiegelt, oft sehr stark dem klassischen hierarchisch organisierten Großkonzern mit den damit einhergehenden Ineffizienzen. Treiber für diese Ineffizienz ist der klassische Unternehmensbegriff: Gemeinhin wird ein Unternehmen als Zusammenschluss von arbeitsteilig organisierten Menschen betrachtet, um einen bestimmten Zweck zu verfolgen, den Geschäftszweck. Dieses Verständnis führt dann aber nicht mehr weiter, wenn nicht mehr sicher ist, ob dieser Geschäftszweck auch in Zukunft noch tragfähig ist. In Zukunft wäre deshalb zu erwarten, dass Unternehmen grundsätzliche Problemlösungskompetenzen und Ressourcenpools aufbauen und diese situationsadäquat nutzen müssen. Starres Festhalten am historischen Geschäftszweck führt schnell zur Frühverrentung. Nur der ständige Abgleich von eigenen Kompetenzen („Lösungen“) mit Kundenbedürfnissen („Problemen“) sichert langfristig das erfolgreiche Überleben. Einen ersten Schritt in diese Richtung geht auch die Idee der „produktunspezifischen Kernkompetenzen“ von Hamel und Prahalad. Unter „Kern“ wird ein abstrakt gewählter, unspezifischer gemeinsamer Nenner verstanden, von dem aus unterschiedliche Probleme gelöst werden können. Die Einsicht, dass die Problem/Ressourcen-Perspektive das traditionelle Zweck/MittelDenken ersetzen wird, dürfte einer der ersten Schritte in die richtige Richtung sein. Zusammen sind wir stark Diesen neuen Herausforderungen kann auf verschiedene Weisen begegnet werden. Entweder dem Unternehmen – oder eines Teils davon – gelingt es, die Herausforderungen (Aufbau eines angemessenen Ressourcenpools) aus eigener Kraft zu stemmen. Denkbar wäre auch der Kauf von anderen Unternehmen, um so die eigene Ressourcenbasis zu erweitern. In diesem Fall wird eine dauerhafte Bindung eingegangen. Problematisch bei diesem Vorgehen erscheint, dass eben diese Dauerhaftigkeit zu riskanten Festlegungen führen kann. Machen langfristige Bin- 52 Detecon Management Report • 1 / 2011 dungen in einer kurzlebigen Umwelt Sinn? Außerdem ist dieser Prozess zur vollständigen Integration oft langwierig und problembehaftet. Ein anderer Weg zum Aufbau der erforderlichen Ressourcenbasis wäre organisches Wachstum. Auch hierbei wird aber die Schwierigkeit offenbar, dass der interne Aufbau von Knowhow einen langfristigen Prozess darstellt. Systemisch gesprochen bedeutet steigende Komplexität, dass einer Zunahme der Elemente ein geometrisch progressiver Anstieg der Beziehungen folgt. Formal lässt sich die Komplexität (K) vereinfacht darstellen als K = (N² - N)/2, wobei N die Anzahl der Elemente bezeichnet. Die Zeitknappheit potenziert die Schwierigkeit der Komplexitätshandhabung, denn nur wenn unendlich viel Zeit zur Verfügung steht, kann alles mit allem abgestimmt werden. Es ist damit quasi ausgeschlossen, dass äußerst komplexe Probleme allein gelöst werden können. Erforderlich wird daher ein Umdenken in Richtung Kooperation und organisatorischer Vernetzung. Entsprechende kooperative Verhaltensweisen zwischen Unternehmen zeichnen sich bereits in der Bildung von strategischen Allianzen oder in implizit abgestimmtem Entscheidungsverhalten ab. Passt, sitzt und hat Luft Organisationsstrukturen müssen dazu beitragen, dass in kurzer Zeit komplexe Probleme gelöst werden können. Diese Forderung kann nur eingelöst werden, wenn es gelingt, zur rechten Zeit alle für die Problemlösung erforderlichen Ressourcen bereitzustellen und einzubinden. Es deutet sich ein Organisationskonzept an, dass zwar schon seit langem bekannt ist, dessen Potenzial aber bei weitem noch nicht voll ausgeschöpft wurde: Die Netzwerkorganisation. Im vorliegenden Kontext kann der Netzwerkgedanke zum einen auf das eigene Unternehmen bezogen werden. Gemeint ist dann der Übergang hin von konventionellen (Ein)Linienorganisationen (Pyramide) hin zu einer Struktur, die über eine Vielzahl an Schnittstellen zwischen einzelnen Bereichen verfügt. Oder aber es wird von Netzwerken zwischen Unternehmen gesprochen. In diesem Fall ist das eigene Unternehmen in ein System von Unternehmen eingebunden, die in wechselseitigen Beziehungen zueinander stehen. Das Leistungspotenzial der Netzwerkorganisation speist sich (analog zum menschlichen Gehirn) aus der Fülle der Beziehungen zwischen den Netzwerkteilnehmern. Das System ist eben mehr als die Summe seiner Teile. Auf zu neuen Ufern Bei organisatorischen Netzen erfolgt eine „Verwebung“ bislang getrennter Unternehmensteile, indem gemeinsame Problemformulierungs- und Problemlösungsbereiche entstehen. Das Modell geht über solche Ansätze hinaus, bei denen Unternehmensbereiche lediglich kommunikativ oder logistisch verbunden werden, da mit Verwebung vielmehr eine weitgehende Integration gemeint ist. In Anlehnung an ähnliche Erscheinungsformen in der Gesellschaft, zum Beispiel soziale Netzwerke, geht es bei diesem Organisationskonzept darum, dass sich die Netzwerkteilnehmer gegenseitig bei der Versorgung mit den lebensnotwendigen Ressourcen unterstützen. Damit unterscheiden sich so verstandene Netzwerke auch von strategischen Allianzen, bei denen weniger die gemeinschaftliche Mittelversorgung als die Erreichung eines gemeinsamen Zwecks (Marktführerschaft etc.) sichergestellt werden soll. Die weitergehende Netzwerksicht ist eher auf den Erhalt der Teilsysteme und damit des Gesamtsystems (Überlebensgemeinschaft) angelegt. Im Kontext der Netzwerkorganisation spielt der Gedanke der Modularisierung eine entscheidende Rolle. Module können hierbei als relativ autonome Subsysteme begriffen werden. Im Unterschied zu „Ab-teilungen“ sind Module nicht Teile eines vorgegebenen Ganzen und aus bestimmten Zwecken abgeleitet sondern verkörpern grundsätzliche Leistungen wie zum Beispiel Forschung oder Datenverarbeitung. Derartige Module können dann als Mittel in immer neuen Funktionszusammenhängen und für wechselnde Zwecke verwendet werden. Ihre Autonomie liegt darin begründet, dass sie eine aktive und selbstbestimmte Rolle bei der Entstehung von Systemen übernehmen können. Von zentraler Bedeutung für die Systembildung ist dabei die Schaffung der Schnittstellenkompatibilität zwischen den Modulen (z. B. technisch oder kommunikativ). Der Vorteil der modularen Organisation kann insbesondere an der effizienten Anpassbarkeit an neue Umweltbedingungen gesehen, da in Abhängigkeit der Problemlage eine angemessene Unternehmensstruktur gebildet werden kann. Insbesondere im Rahmen unternehmensübergreifender Zusammenarbeit liefert das Konzept der virtuellen Organisation weitere Anknüpfungspunkte zur Operationalisierung des Netzwerkgedankens. Hierbei schließen sich rechtlich unabhängige Unternehmungen virtuell für die Dauer zur Lösung eines gemeinsamen Problems zusammen. Jedes Unternehmen verfügt dabei über bestimmte Kompetenzen, die isoliert betracht jedoch nicht das Problem zu lösen vermögen. Erst über den Zusammenschluss erfolgt die erforderliche Zusammenführung aller notwendigen Ressourcen zur Problemlösung beziehungsweise Leistungserbringung. Von der Fremd- zur Selbstorganisation Der Erfolg einer Netzwerkorganisation oder modularen Organisation wird entscheidend davon abhängen, inwiefern es den Mitarbeitern der Zukunft gelingt, mit derartigen Strukturen Abbildung: Gegenüberstellung Linienorganisation und Netzwerk Statische Zweckorientierung „Zweck/Mittel-Pyramide“ Dynamische Problemorientierung „Ressourcengemeinschaft“ Quelle: Detecon 53 Detecon Management Report • 1 / 2011 Organization umzugehen. Da ex ante keine feste Struktur mehr vorgegeben werden können (Fremdorganisation), wird es daher in Zukunft verstärkt auf die Fähigkeiten zur Selbstorganisation ankommen Mit Selbstorganisation wird eine Organisationsweise bezeichnet, bei welcher die Mitarbeiter ihre Rollen und damit die Organisationsstruktur mehr oder weniger selbst erschaffen, indem zum Beispiel Probleme identifiziert, Ansprechpartner gesucht und gemeinsam Lösungen generiert werden. Bedingung für die effektive Selbstorganisation der Mitarbeiter ist deren Emanzipation, das heißt die Aufhebung der Einbettung in klassische Befehl-Ausführung-Strukturen. Die Führungskraft allein wird nicht mehr in der Lage sein alle Umweltinforma tionen aufzunehmen und zu Lösungen zu verarbeiten. Es wird notwendig sein Teile dieser intellektuellen Arbeit den operativen Mitarbeitern anzuvertrauen. Die Führungskraft hat hier weniger die Rolle des Befehlenden als vielmehr des Coaches. Es liegt in seiner Verantwortung, den Mitarbeiter kompetent in Methoden zu machen, die diese strategische Arbeit erfordert. Während es zum Beispiel in klassischen Unternehmensorganisationen eine zentrale Strategieabteilung gibt, hat die Netzwerkorganisation viele dezentrale Strategiezellen. Aufgabe des Managements ist es hierbei, den dezentralen Bereichen vorzugeben, wie weit reichend ihr Gestaltungsspielraum sein soll, und kontinuierlich auf neue Synergien und Innovationspotenziale zwischen verschiedenen Unternehmensbereichen hin zu prüfen. Veränderung braucht Mut Bleibt noch die Frage zu klären, warum bereits seit Jahrzehnten in Wissenschaft und Praxis bekannte Konzepte nicht wirklich umgesetzt werden. Eine erste Antwort wäre, dass der Mensch Veränderung per se scheut. Oftmals muss der Leidensdruck erst so stark werden, dass es keine andere Möglichkeit gibt. Darüber hinaus ist aber zu bedenken, dass gerade die Dezentralisierung 54 Detecon Management Report • 1 / 2011 von Verantwortung Angst vor der Abgabe von Macht und Einfluss bedeutet. Jeder Entscheider, der sich mit dieser Angst konfrontiert sieht, sollte sich aber vor Augen führen, dass er weitaus wichtigere Arbeit leistet, indem er seinen Mitarbeiter die generelle Richtung und Methoden zur Hand gibt. Je mehr Spielraum er den Mitarbeitern gewährt, die operative Arbeit zu leisten, desto mehr Freiraum hat er, die Qualität der flankierenden Strukturen und Prozesse zu steigern. Organisationsentwicklung im Sinne von Methodenkompetenz und K onzeptkenntnis wird damit in Zukunft vielleicht zu der zentralen Schlüsselkompetenz einer jeden Führungskraft. Nicole Panchyrs ist Expertin für Organisation. Sie berät Unternehmen ins besondere zu Themen der Restrukturierung/Turnaround und strategischer Organisationsentwicklung. Vor ihrer Tätigkeit bei Detecon war sie am Fraunhofer IPK im Bereich Unternehmensmanagement beschäftigt. Nicole.Panchyrs @detecon.com Dr. Stephan Wygoda ist Experte für Organisation. Seine Beratungsschwerpunkte liegen in der Organisationsanalyse, Organisationsdesign, Prozessorganisation, Prozessanalyse und Design. Zuvor war er als wissenschaftlicher Assistent am Lehrstuhl für Organisation und Management der Universität Bayreuth tätig. [email protected] Dr. Philip Hucke ist Experte für Organisation. Er berät Unternehmen insbesondere zu Themen der Restrukturierung und strategischer Organisationsentwicklung. Zuvor war er als wissenschaftlicher Assistent am Lehrstuhl für Organisation und Management der Universität Bayreuth tätig. [email protected] Knowledge@Detecon Mission Zukunft: ICT 2032 45 Thesen für den Weg ins Morgen In 22 Jahren wird es die IT in klassischer Form nicht mehr geben. Doch welche Konsequenzen leiten sich daraus ab? Wie wirken sich die ICT-Entwicklungen auf die Gesellschaft, Individuen und Unternehmen aus? Wie beeinflussen nichttechnologische F aktoren die ICT-Landschaft 2032? Welche Nutzen bieten diese technologischen und nichttechnologischen Veränderungen? Und wo liegen die Chancen und Risiken? 45 Thesen umreißen – mal provokant, mal überraschend – wie die Informations- und Kommunikationstechnologie Leben, Gesellschaft und Wirtschaft im Jahre 2032 beeinflussen wird. Anwendungsbereiche wie Automotive, Energiewirtschaft, Finanzdienstleistungen, Leben und Wohnen sowie Gesundheit werden sich unter dem Einfluss von ICT radikal verändern und weiterentwickeln. ICT für jeden und überall, in nahezu jedem Gegenstand, das ist das charakteris tische Merkmal der Welt von Morgen. Online-Bestellung: Die Publikation erscheint im April 2011. Sie können bereits jetzt schon ein Buch-Exemplar kostenfrei unter folgender Adresse bestellen: [email protected] Organization Interview mit Mike Kelly, Senior Technical Manager des TM Forums Wird es in der Zukunft überhaupt so etwas wie ein Telekommunikationsunternehmen geben? Mike Kelly ist seit den frühen Gründungstagen für das TM Forum tätig und gehört seit acht Jahren zum Mitarbeiterstamm. Schwerpunkte seiner Tätigkeit sind das technische Kollaborationsprogramm und das Business Process Framework (bekannt als eTOM), an dem er während der gesamten Entwicklung beteiligt war. Er ist seit mehr als dreißig Jahren in der Telekommunikationsbranche tätig und hat sich unter anderem auf die Bereiche Software- und Systementwicklung sowie Marketing- und Produktmanagement spezialisiert. Darüber hinaus arbeitete Mike Kelly zwei Jahre als Berater für den wissenschaftlichen Leiter des Cabinet Office für Telekommunikations- und IT-Richtlinien der britischen Regierung. Er bietet unabhängige Schulungen und Beratungen für Organisationen an, in denen die Arbeit des TM Forums und den damit verbundenen Gremien praktische Anwendung findet, und wird häufig als Sprecher zu Konferenzen und Events eingeladen, um über seine Arbeit zu berichten. 56 Detecon Management Report • 1 / 2011 Interview mit Mike Kelly, eTOM In diesem Interview äußert Mike Kelly seine persönliche Ansichten über die Vision eines zukünftigen Telko-Unter nehmens, die Rolle der Governance, Standards und Business Process Management. Darüber hinaus skizziert er die Herausforderungen, die mit der Implementierung einer künftigen Unternehmensstruktur einhergehen. Die von Mike Kelly in diesem Interview geäußerten Ansichten sind nicht als Darstellung der Leitlinien des TM Forums aufzufassen. DMR: Können Sie Ihre Vision eines zukünftigen Telekommunikationsunternehmens im Hinblick auf Produkte, Struktur, Prozesse und IT beschreiben? M. Kelly: Die Frage müsste eher lauten „Wird es in der Zukunft überhaupt noch so etwas wie ein Telekommunikationsunternehmen geben?“ Bestehende Unternehmen werden an so vielen Fronten herausgefordert. In der aktuell schwierigen wirtschaft lichen Situation müssen sie neue Technologien und Services einführen. Gleichzeitig sind sie gefordert neue Geschäftsmodelle zu erkunden und zu erproben, um wirtschaftlich überlebensfähig zu bleiben, denn die traditionelle Festnetztelefonie als Umsatzbringer wird verschwinden. Die Wertschöpfungskette – oder jetzt das Wertschöpfungsnetzwerk – wird ständig komplexer und viele Unternehmen übernehmen N ischenpositionen oder unterstützen singuläre Aktivitäten durch lückenfüllendes Outsourcing, Insourcing und Partnerschaften. Unternehmen positionieren sich in ungewöhnlichen Bereichen. So bietet zum Beispiel BT (British Telecom) im Vereinigten Königreich jetzt Fuhrparkmanagement-Services für Automobilklubs an, nur weil BT in der Vergangenheit Fähigkeiten in diesem Bereich für seine eigenen Kraftfahrzeuge entwickelt hat. Das ist kein „Telekommunikationsunternehmen“, wie wir es bisher gekannt haben. Ich glaube, dass die Entwicklung der Wertschöpfungskette diese zentralen Veränderungen bewirkt. Die taktische und strategische Ausrichtung der Unternehmen wird zunehmend enger. Sie sind gezwungen, schneller auf die geschäftlichen und sich am Markt vollziehenden Änderungen zu reagieren. Auf den ersten Blick wirken sie in ihren Aktivitäten formlos oder gar opportunistisch. Aber eine Grenzlinie um diese Unternehmen oder gar die gesamte Branche zu ziehen, wird zunehmend schwieriger. Möglicherweise werden in der Zukunft Telekommunikationsunternehmen sogar in mehreren Branchen aktiv sein, und nur ein Teil des Unternehmens beschäftigt sich noch mit Telekommunikationsservices. Innerhalb des TM Forums beobachten wir diese Änderungen in Bezug auf unsere Mitgliedschaft und den sich ausweitenden und entwickelnden Schwerpunkt. Wir befassen uns mit vielen Bereichen, die zuvor „nicht im Fokus waren“. DMR: Wie würden Sie die Rolle der Governance innerhalb künftiger Telko-Unternehmen beschreiben? M. Kelly: Anknüpfend an meine Antwort zu der vorhergehenden Frage ist es überlebenswichtig, den Mitarbeitern und dem Unternehmen in diesem sehr volatilem Geschäftsumfeld eine Richtung zugeben. Seitens des Top-Managements muss es klare Vorgaben geben, die den Scope festlegen, der Strategie eine Richtung geben und über klare Steuerungsvorgaben in diesem Kontext von den operativen Bereichen Profitabilität fordern. In Bezug auf die Wertschöpfungskette bekräftigt dies die Bedeutung eines internen und natürlich auch externen Handlungsrahmens mit deutlichem Fokus auf Lieferabkommen, Zusagen und Qualitätsmetriken etc. Für die Erstellung des Handlungsrahmens empfehle ich eine Iteration aus TopDown und Bottom-Up-Ansatz und die frühzeitige Einbindung der Betroffenen. Ich habe bei meinen eigenen Tätigkeiten in der Prozessmodellierung beobachtet, dass Prozessverbesserungen in den Unternehmen am besten umgesetzt werden, wenn es auf der einen Seite Top-Down-Leadership gibt und auf der anderen Seite bereitwillige und begeisterte Unterstützung durch die operativen Bereiche. DMR: Können Sie die Notwendigkeit und den Nutzen der Verwendung von Standards wie TOGAF, NGOOS-Framework und ITIL für die Entwicklung und Umsetzung der Vision eines künftigen Telko-Unternehmens beschreiben? M. Kelly: Standards sind hervorragend. Es gibt diesen alten Witz, dass man ja aus so vielen Standards wählen kann. Standards haben eine bedeutende Rolle. Jedoch ist es wichtig, dass Standards überschneidungsfrei und nicht konkurrierend eingesetzt werden. Man sollte auch darauf achten, dass Standards nur in den Bereichen eingesetzt werden, in denen sie ein Segen und kein Fluch sind. 57 Detecon Management Report • 1 / 2011 Organization Bei meiner Arbeit habe ich erlebt, wie wertvoll es ist, in einer aufgeschlossenen Umgebung tätig sein zu dürfen und sorgfältig darauf geachtet, das „Not-Invented-Here-Syndrom“ zu meiden. Es ist äußerst wichtig, eine positive Einstellung gegenüber Arbeiten zu haben, die an anderen Stellen, zum Beispiel in einem Industrieforum, einem offiziellen Gremium oder auch in einem Privatunternehmen oder einer Ad-hoc-Gruppe, entstanden sind. Es ist ebenfalls wichtig – auch wenn es manchmal sehr arbeitsintensiv ist –, etwas aufeinander abzustimmen und zu integrieren, so dass Nutzer nicht die Zeit und Mühe aufwenden müssen, um konkurrierende Optionen zu bewerten. Es ist wesentlich besser, eine abgestimmte Zielrichtung anzubieten. Natürlich passt nicht immer eine Lösung für Alle. Doch das Chaos auf wenige Optionen, wenn auch nicht auf eine, reduzieren zu können, geht in die richtige Richtung. Bei der Verwendung von Standards muss man also beachten, dass sie nur in den Unternehmensbereichen eingesetzt werden, in denen die Vorteile aus Vereinheitlichung die Vorteile aus D ifferenzierung überwiegen. Typischerweise fällt ein erheblicher – wahrscheinlich der größte – Teil der Bereiche eines Unternehmens unter diese Rubrik. Wenn wir diese Bereiche korrekt identifizieren und uns auf die Standards verständigen, die eine unnötige und unwirtschaftliche Differenzierung reduzieren, können wir die dadurch frei werdende Energie auf die Bereiche konzentrieren, in denen einzelne Unternehmen wirklich etwas bewegen und auf vernünftige Art und Weise konkurrieren können – zumindest in Bezug auf Innovationen. Um das noch mal zu betonen: Meiner Meinung nach müsste sich der Wettbewerb auf Angebot und Preis konzentrieren, aber das ist die Idealvorstellung. DMR: Wie schätzen Sie den steigenden Einfluss IT-gesteuerter Telko-Unternehmen in Bezug auf die Bedeutung von ITIL ein? M. Kelly: Da sprechen Sie eine ganz wichtige Sache an. Ich glaube, es gibt inzwischen Unternehmen, denen die strategische Bedeutung der Zusammenführung ihrer IT und ihrer Fachseite bewusst ist. Diese Unternehmen haben erkannt, dass ein hohes Maß an Ineffizienz durch die Trennung von IT und F achseite verursacht wird. Aber bei vielen Unternehmen wird es noch dauern, bis sie aufwachen und diesen Zusammenhang erkennen. Unternehmen, die das Problem in den Griff bekommen, werden in der Zukunft erfolgreicher sein und sich positiv von ihren Wettbewerbern absetzen. 58 Detecon Management Report • 1 / 2011 Die gegenwärtige Position ist fast so wie die „Kluft der zwei Kulturen“, die C. P. Snow beschreibt, wenn er von den U nterschieden zwischen Geistes- und Naturwissenschaft spricht, und ihre Bedeutung ist für die Entwicklung der Unternehmen entscheidend. In einer idealen Welt würden wir vermutlich das „ideal“ zusammengefügte Unternehmen der Zukunft analysieren und dann entscheiden, wie dass zu modellieren ist. Aber das ist ein Luxus, den der gegenwärtige Druck nicht zulässt, so dass wir uns vorerst damit begnügen müssen, einen Blick auf die verfügbaren Tools zu werfen, die uns bei der Gestaltung der Vision eines integrierten Unternehmens helfen. Aus meiner eigenen Arbeit liegt uns das eTOM Business Process Framework als eine Geschäftssicht vor, die in den vom TM Forum adressierten Bereichen breite Unterstützung findet und die Bereiche Kommunikation, Medien, Unterhaltung, Information, Verteidigung etc. umfasst. Wir sind eine äußerst erfolgreiche Verbindung mit itSMF als Gremium, dessen Mitglieder ITIL entwickeln, eingegangen und haben zusammen effektive und funktions fähige Mechanismen zur Integration dieser beiden Frameworks definiert. Diese können auf jeden Fall eine Referenz oder sogar das Modell eines integrierten Unternehmens sein, in dem die geschäftliche Seite und der IT-Support zusammenarbeiten. DMR: Können Sie die Rolle des Business Process Manangement in zukünftigen Telko-Unternehmen beschreiben? M. Kelly: Business Process Management offeriert eine äußerst nützliche architektonische Perspektive als auch einen Design- und Implementierungsrahmen zur Entwicklung von Management-Lösungen. Insbesondere die Trennung der Prozessorchestrierung von der Anwendungsfunktionalität machen dies zur idealen Wahl hinsichtlich des wachsenden Interesses an einem serviceorientierten Ansatz für Architektur und Design. Auf dieser Grundlage können modifizierte Prozesse auf dieselbe zugrundeliegende Funktionalität, jedoch organisiert in einer Vielzahl von Workflows, zurückgreifen, ohne dass eine kostenintensive und zeitaufwendige Neuentwicklung erforderlich ist. Obgleich das nicht der einzige Weg zur Realisierung von Vorteilen in diesem Bereich ist, erscheint er besonders gut geeignet für Managementsysteme. Interview mit Mike Kelly, eTOM DMR: Wie sollte Ihrer Meinung nach die Prozess-Ownership in Bezug auf die Integration von Prozessen und IT zugeordnet werden? DMR: Haben Sie einen Vorschlag, wie Führungskräfte diesen Herausforderungen begegnen können? M. Kelly: Wie schon zuvor ausgeführt ist es wichtig, dass es hierfür einen Architektur-Ansatz gibt, der beide Perspektiven integriert und bei dem alle beteiligten Gruppen ein Mitsprache recht haben. Doch letztendlich muss es eine klare Prozess- Ownership geben und diese muss aus der Geschäftstätigkeit abgeleitet werden. M. Kelly: Es wäre einfach zu sagen, die Aufstellung von Strategie und Planung wäre die Lösung des Problems. Die Frage, die ich mir stelle, ist, ob wir uns in einer Zeit befinden, die in einem fast mathematischen Sinne „chaotisch“ ist, so dass die Bestimmung des Endzustands unmöglich ist, auch wenn man hervorragende Kenntnisse über die gegenwärtigen Bedingungen hat – was natürlich nicht realistisch ist, weil Verhaltensregeln in einer „chaotischen“ Welt nicht deterministisch sind. DMR: Können Sie uns eine kurze Beschreibung der Methode geben, die Telko-Unternehmen einsetzen können, um Ihrer Vision zu entsprechen? M. Kelly: Business Transformation ist ein weites Feld in Anbetracht der stetigen Änderungen. Meiner Meinung nach ist es ein Thema, das man, abhängig von der jeweiligen Art der Transformation, in viele Rubriken unterteilen kann. In Bezug auf Prozesstransformation haben zum Beispiel die Erfahrungen aus vielen Bereichen gezeigt, dass sich ein maximaler Nutzen dann ergibt, wenn der gesamte Prozess von Anfang bis Ende berücksichtigt und neu gestaltet wird. Dies muss jedoch durch das Managen der relevanten Risiken ausbalanciert werden. Auch wenn ein umfassender Bedarf für zügige Verbesserungen vorliegt, ist es ratsam, in kleinen Schritten vorzugehen, Vertrauen aufzubauen und Erfahrungen zu sammeln. DMR: Welches sind Ihrer Ansicht nach die drei wichtigsten Herausforderungen bei der Implementierung einer zukunftsfähigen Unternehmensstruktur? M. Kelly: Darauf sind wir ja schon kurz eingegangen. Eine Herausforderung ist das zunehmend komplexe wirtschaftliche Umfeld und die Geschwindigkeit, mit der es sich verändert, einhergehend mit der daraus resultierenden Fragmentierung der Wertschöpfungskette und der Herausforderung, innerhalb dieses Umfelds effektiv zu arbeiten. Die zweite Herausforderung liegt in der Fähigkeit der Unternehmen, hierauf zu reagieren und interne Zwänge und Hindernisse zu überwinden, die sich der Integration von IT und Fachseite entgegenstellen. Aus meiner Sicht ist die dritte wirklich große Herausforderung die Art und Weise, wie der Markt zukünftig gestaltet sein wird – auf welche Produkte wird sich ein Unternehmen konzentrieren können und müssen? Vor wenigen Jahren war die Antwort noch eindeutig. Mittlerweile hat sich der Markt in eine Richtung entwickelt, die mehrere Antworten möglich macht. Wenn wir davon ausgehen, dass das stimmt, dann müssen wir schnell und reaktionsfähig sein, da es in der Natur der U mstände liegt, dass diese sich ändern. Wir müssen diese Änderungen aufspüren und dort, wo es möglich ist, vorwegnehmen. In diesem Rahmen brauchen wir strategische Richtlinien und Führung innerhalb der Unternehmen und für die Branche insgesamt. Auf einem Konsens aufzubauen ist nicht perfekt, aber ich glaube, dass es unsere Fähigkeit, eine gemeinsame Vision zu entwickeln und daraufhin zu wirken, maximiert. Eventuell besteht die Gegenposition aus der Verteilung der Last, indem Unternehmen Partnerschaften eingehen, um sich auf ihre eigenen Stärken zu konzentrieren und Nutzen aus den Stärken der anderen ziehen. Sinnvolle Kooperationen einzugehen und Industrieverbände wie TM Forum zu nutzen, ist ebenfalls eine Option. In der Hoffnung, dass das Ganze mehr ist als die Summe seiner Teile und auch wenn der Druck auf die Unternehmenswelt heutzutage vergleichsweise mächtig ist, hält die Zukunft für uns hervorragende Chancen bereit. DMR: Vielen Dank für das Interview! Das Interview führten Georg Vitt und Frank Lorbacher, Detecon International GmbH. 59 Detecon Management Report • 1 / 2011 Organization Tobias Kress, Andreas Penkert, Carsten Schulz Keine Musik mehr in der Warteschleife Self-Service prägt die Servicekultur 2032 In der Servicevision 2032 wird sich der Kunde vor allem selbst helfen können. Die Herausforderung für Unternehmen besteht im intelligenten Zusammenspiel von Multikanal-Optionen. 60 Detecon Management Report • 1 / 2011 Keine Musik mehr in der Warteschleife itte haben Sie einen Moment Geduld – Sie werden „B gleich mit dem nächsten freien Mitarbeiter verbunden….“ Wer kennt nicht diese oder ähnliche automatische Ansagen, die den Anrufern von Service-Hotlines die Zeit in der Warteschleife verkürzen sollen? Doch das Warten wird im Kundenservice von übermorgen Geschichte sein. Produkte und Prozesse werden qualitativ immer hochwertiger, zuverlässiger und auch selbsterklärender. Gleichzeitig ist der Kunde autonomer geworden: Die vielfältigen Möglichkeiten des Internets und die zunehmende Verbreitung hochleistungsfähiger, mobiler Multimedia-Endgeräte machen Informationen unabhängig von Zeit und Ort verfügbar. Mit fortschreitender technologischer Innovation wird sich der Grad der Automatisierung von Serviceleistungen deutlich erhöhen bei gleichzeitig immer flexibleren und sich erweiternden Zugangsmöglichkeiten des Kunden. Insbesondere die einfachen, standardisierten First-Level-Anfragen werden über intelligente Self Service-Angebote durch den Endverbraucher selbständig abgewickelt werden können. Diese Entwicklungen revolutionieren die Serviceleistung der Unternehmen in der Zukunft – der Kundenservice in seiner ursprünglichen Form, das klassische Call Center als zuständige organisatorische Serviceeinheit mit der Funktion des exklusiven „Nadelöhr“ im direkten Kontakt zwischen Kunde und Unternehmen, wird es so sicher nicht mehr geben. Service 2032 wird ein ganzheitlicher Prozess sein, der an vielfältigen Touchpoints praktiziert wird und in völlig veränderter Kommunikationsform stattfindet. mehr und mehr „den Ton angibt“. Dabei profitiert er vor allem von der rasanten Entwicklung des Web 2.0, die ihn insgesamt informierter und kritischer in seiner Entscheidung für oder gegen ein Produkt oder eine Dienstleistung macht. Mobile Technologien erlauben dem Kunden zudem einen nahezu permanenten Zugang zu benötigten Informationen – egal wann und wo er sich gerade befindet. Mit Web 2.0 haben sich neue Dimensionen der Kommunika tion herausgebildet. Dies liegt vor allem in der prägnanten Ausweitung der Social Media – Blogs, Communities, Foren, Wikies und natürlich Social Networks – begründet. Entstanden sind Informationsumschlagsplätze mit grenzenloser Reichweite, und in dieser Eigenschaft werden sie von Nutzern zunehmend auch als Foren für Beschwerden über und die Bewertung von Unternehmensleistungen genutzt. Der Kunde kann seine Meinung zu einem Unternehmen oder einer Leistung in Sekundenschnelle mit einer unüberschaubaren Anzahl anderer Kontaktpersonen teilen, indem er diese im Internet in einem beliebigen Forum veröffentlicht. Gleichzeitig kann er auf demselben Wege die Meinungen einer breiten Masse anderer User empfangen. Die „Weisheit der Vielen“ („Wisdom of the crowd“) beeinflusst seinen eigenen Standpunkt mit hoher Wahrscheinlichkeit nicht unwesentlich mit, noch bevor die eigentlich betroffene Instanz, das zuständige Unternehmen, überhaupt damit konfrontiert wurde. Autonomere Kunden und verändertes Kommunikationsverhalten In der Konsequenz bedeutet das: Die übliche „1:1-Kommunikation“ wird immer mehr hinter die Kommunikation zwischen den Massen („Many-to-many“) zurücktreten. Von einer „neuen Autonomie des Kunden“ kann mit Recht gesprochen werden, weil das Web 2.0 die Fähigkeit zu einem intensiveren Austausch und einer viel höheren Einflussnahme verleiht, als man das bis dato kannte. Die Position des Konsumenten im Zusammenspiel der K räfte zwischen Angebot und Nachfrage hat sich in den vergangenen Jahren gravierend und nachhaltig verändert. Der Verbraucher sieht sich einem Überangebot von Produkten und Dienstleistungen gegenüber, die technisch hoch entwickelt, in steigendem Maße standardisiert und substituierbar geworden sind. Es sind Käufermärkte entstanden, in denen der Kunde Mit den Möglichkeiten, die der Kunde schon heute hat und noch stärker in der Zukunft nutzen kann, wird er zwangsläufig höhere und komplexere Serviceerwartungen entwickeln: Er möchte Service-Transaktionen, sofern sie denn überhaupt erforderlich sind, in höherem Maße selbständig durchführen, zu einem selbstgewählten Zeitpunkt und unter geringstmöglichem Aufwand. 61 Detecon Management Report • 1 / 2011 Organization Für die Unternehmen bedeutet dies, dass kundenfreundliche und gleichzeitig effiziente Self Service-Lösungen in der Zukunft immens ausgebaut werden müssen, um die Erwartung des Kunden mit einem entsprechenden Serviceerlebnis zu beantworten. Dazu gehört, dass bei höherem Schwierigkeitsgrad im Bedarfsfall nach wie vor eine persönliche Beratung für den Kunden bereit steht. Im intelligenten Zusammenspiel solcher Multi kanal-Optionen besteht eine wesentliche Herausforderung der Servicevision 2032. spektive und der Umbau zu kundenzentrierten Organisationen werden die Prozessfehler auf ein Minimum reduzieren und Durchlaufzeiten steigern. The Best Service is no Service! Der Bearbeitungsfortschritt von Anfragen und Beschwerden wird bereits von einigen Unternehmen aktiv über alle relevanten Kontaktkanäle ebenfalls in Echtzeit kommuniziert. Auch hier ist der Kunde genauso informiert wie der Servicemitarbeiter und benötigt keinen Kontakt mehr – es sei denn, die Bearbeitung erfolgt zu langsam und erfüllt nicht die Erwartungen. Der freundliche, immer erreichbare und kompetente Kundenservice ist ein Differenzierungsmerkmal, um im Wettbewerb die Nase vorn zu haben. Die Sichtweise, dass Service nicht nur ein notwendiges Übel darstellt, ist richtig und wichtig – doch welche Gründe gibt es tatsächlich für Kunden, den Kundenservice in Anspruch zu nehmen? In den meisten Fällen sind es keine Anlässe, mit denen sich Unternehmen differenzieren können! Die persönliche, individuelle Beratung ist eine wesentliche Leistung, die Vertrauen bildet und Kundenverhalten beein flusst. Die Beratung reduziert die Komplexität für den Kunden und dient als Navigator durch den Informationsüberfluss von Produktvielfalt, Serviceleistungen, Kundenbewertungen und Preisvergleichen. Hier setzen bereits neue technologische Verfahren an, um die Informationsvielfalt zu bündeln und deren Komplexität mit Web 2.0-Techniken und intelligenten Services zu reduzieren, damit für den Kunden persönlich relevante Informationen leichter zugänglich werden. Im Zuge dieser neuen Autonomie des Kunden kann der Kundenservice nur dann punkten, wenn die Beratung als Mehrwert und als vertrauensvoll wahrgenommen wird. Der überwiegende Teil aller derzeitigen Kundenkontakte resultiert aus unternehmensinternen Prozessproblemen und einer mangelnden Transparenz beziehungsweise Nachvollziehbarkeit für den Kunden. Mit der weiteren Optimierung und Professionalisierung der internen Ablaufprozesse, die auch aus Effizienzgründen und der notwendigen Agilität für Unternehmen vital ist, werden viele Kundenanfragen einfach obsolet. Die konsequente Ausrichtung der Kernprozesse auf die Kundenper- 62 Detecon Management Report • 1 / 2011 Hinzu kommt die gesteigerte Transparenz gegenüber dem Kunden. Kunden vollziehen bereits den Bearbeitungsstatus in der gesamte Logistikkette in Echtzeit nach. Hier ist kein Service mehr erforderlich, da der Kunde alle Informationen selbst vorliegen hat. Technologischer Fortschritt wird Produkten und Endgeräten nicht nur ein formschöneres und ästhetischeres Design geben, sondern gravierend die Installation und Bedienung verbessern. Die Innovationen werden nicht nur erweiterte Funktionen ermöglichen, sondern ebenfalls die Komplexität reduzieren – und somit Anfragen zur Produktbedienung im Kundenservice überflüssig machen. Zusätzlich werden verbesserte Produktionsmethoden in Verbindung mit gesteigerten Qualitätskontrollen – auch in den Niedrigpreis-Segmenten – die Defektanfälligkeit reduzieren. Im Defektfall kommen innovative Analyse und Diagnosemethoden zum Einsatz, sodass auch hier die Kundenkontaktintensität reduziert wird. Diese Entwicklungen werden entscheidend zur Reduktion des Volumens in den heute betriebenen Kundenserviceeinheiten führen. Damit werden die notwendigen Freiräume zur Konzentration auf die wesentlichen Mehrwert stiftenden Kundeninteraktionen geschaffen. Self Service – besser als der persönliche Kontakt! Die Idee ist weder neu noch innovativ: Den Kunden in die Wertschöpfungskette einzubeziehen, damit er seine Fragen selbst beantworten kann oder Probleme und Anfragen selbständig löst. Keine Musik mehr in der Warteschleife Self Service-Angebote sind in allen Kanälen, in denen Kunden mit den Unternehmen in Interaktion treten, bekannt und auch bereits auf recht breiter Ebene akzeptiert. Dennoch sind die Lösungen nur begrenzt einsetzbar. Automatische, dynamische FAQ-Listen oder natürlichsprachliche IVR-Systeme – sie alle eint die Voraussetzung, dass der K unde sein Problem möglichst präzise beschreiben kann. Dies ist eine erfolgreiche Umsetzungsstrategie in Situationen, in denen die Anfrage immer die gleiche ist und folglich auch die Lösung einer einheitlichen Struktur folgt – eine Einschränkung, die sehr limitiert. Zukünftig werden Kunden jedoch nicht nur einfache Anliegen mittels intelligenter Sprachdialogsysteme lösen können oder sich durch FAQ-Listen wühlen. Nein, Self Service-Lösungen werden den heute durch die Interaktion mit Mitarbeitern geprägten Service weitestgehend ersetzen – auch für komplexe Fragestellungen und Transaktionen. Der permanente Zugang und die Nutzung konvergenter Medien und entsprechender Endgeräte einerseits und die technologische Entwicklung andererseits ermöglichen Self ServiceFunktionen, die bisher nur durch Menschen erbracht werden konnten. Die Grundlagen der relevanten Technologien durchdringen den Alltag durch intelligente Anwendungen. Virtual Agents wie VirtuOz [www.virtuoz.com] demonstrieren bereits, wie die Kunde-Maschine-Interaktion im Support und Sales-Bereich funktioniert. Kunden kommunizieren die Probleme in unstrukturierter Form und erhalten basierend auf den Ergebnissen der semantischen und syntaktischen Analyse die entsprechende Antwort oder Information. Die weiteren Entwicklungen zeigen persönliche Smart Agents auf. Entgegen der heute praktizierten und bekannten Vorgehensweise, Informationen zu suchen, werden Kunden verändert Serviceleistungen der Unternehmen in Anspruch nehmen. Smart Agents übernehmen anstelle des Kunden die Aufgabe, komplexe Sachverhalte zu adressieren und die Bearbeitung bis zur Lösung zu überwachen. Somit wird der Kunde nicht mehr direkt mit dem Unternehmen in Kontakt treten, sondern überträgt diese Aufgabe seinem eigenen intelligenten Agenten. Smart Agents wie SIRIs [www.siri.com] personal Assisstant verstehen diese Anfragen, können diese auf Basis der umfangreichen Informationen und Erfahrungen mit ihrem Besitzer in den entsprechenden Kontext setzen und liefern nicht nur relevante Informationen, sondern Lösungen. Der Kunde nutzt keine Self Service-Angebote der Unternehmen, sondern erhält eine völlig autonome Lösungsfindung – ohne sein Zutun oder seine Interaktion mit dem Unternehmen. Diese Delegation von Informationsbeschaffungsaufgaben und Problemlösungen wird auch die Entscheidungsfindung und das Konsumentenverhalten beeinflussen. Unternehmen werden gezielt die noch verbleibenden direkten Interaktionen nutzen müssen, um Kundenloyalität durch Service zu etablieren. Nichts bleibt, wie es war – es wird viel mehr durch Augmented Reality! Augmented Reality verknüpft die realen optischen Eindrücke mit den Informationen aus dem Web oder den Social Networks und reichert somit jede Alltagssituation mit weiteren, umfangreichen Daten an. Dazu legen die Augmented Reality-Applikationen [www.junaio.com; www.layar.com] diese ergänzenden Informationen über das Kamerabild. Die notwendigen Voraussetzungen finden sich bereits in den meisten mobilen Endgeräten – Kamera, GPS, Kompass, Barcode-Scanner und der entsprechende Breitband Zugang. Dies wird nicht nur die kundenindividuelle Ansprache im Sinne des Segment-of-one-Ansatzes in Verbindung mit dem Location Based Marketing verändern. Es bietet auch neue Chancen für den Kundenservice – an allen Kunden-Touchpoints. Die Anreicherung der sichtbaren Realität bietet im Besonderen deutlich erweiterte Möglichkeiten zur Lösungsunterstützung bei technischen Problemen und Installationen: Kunden müssen sich nicht mehr durch komplexe, unverständliche Anleitungen kämpfen oder den technischen Support bemühen. Das Problem oder die Störung wird durch das sichtbare Bild automatisch analysiert und die Lösung oder entsprechende Installationsanweisung Schritt für Schritt auf dem Bildschirm angezeigt. 63 Detecon Management Report • 1 / 2011 Organization Umfangreiche Abstimmungen und komplexe Erläuterungen entfallen, ebenso wie weiterstgehend der Einsatz von Kundendienst-Technikern entweder remote per Telefon oder direkt vor Ort. Augmented Reality ermöglicht neue Formen des Self Services. Mit dieser Technik wird es zukünftig möglich sein, die Produkte mit den Augen eines Servicetechnikers zu sehen. Man hält sein mobiles Endgerät einfach über das entsprechende Produkt und aktiviert die Videokamera. Die Anzeige des Videobildes wird dann mittels Augmented Reality um Serviceinformation oder Installations- und Handlungsanweisungen angereichert. Dadurch erfährt der Kunden genau, wie er sein Gerät anschließen oder reparieren muss. Neue Organisationsformen: Service als „Wissensarbeit“ im gesamten Unternehmen Die beschriebenen Entwicklungen werden sich entscheidend auf die Aufgaben der Call Center auswirken. Call Center wurden ursprünglich aufgebaut, um Kundeninteraktionen in großem Umfang abwickeln zu können. Die Komplexität der bearbeiteten Anfragen und Aufträge ist dabei gering. Dieses ermöglicht einen hohen Grad an Standardisierung, welche die Grundlage für eine kostengünstige und effiziente Leistungserbringung darstellt. Als weitere Funktion stellen Call Center die ausschließliche Schnittstelle zwischen Unternehmen und Kunden dar. Die große Masse der Kundenanfragen wird in diese eigenständigen Organisationseinheiten geleitet, um die Gesamtorganisation nicht mit dem Arbeitsaufwand der vielen Kundenanfragen zu belasten. Der überwiegende Teil dieser Anfragen wird in den beiden typischen Kompetenzstufen eines Call Centers, dem 1st und 2nd Level, fallabschließend bearbeitet. Nur die sehr geringe Anzahl an Anrufern mit komplexen Fragestellungen wird vom Call Center in die entsprechenden Fachabteilungen der Unternehmung geleitet. Durch die beschriebenen Entwicklungen wird der überwiegende Teil der einfachen Serviceanfragen, welche heute in Call Centern bearbeitet werden, wegfallen. Ein Großteil der Kundenanfragen resultiert aus Prozess- oder Produktfehlern sowie aus der unverständlichen Handhabung von Produkten. Verbesserte Prozesse und Produkte werden daher deutlich zum Rückgang des Servicevolumens beitragen. Die noch verbleibenden Aufgaben können die Kunden zukünftig schneller und bequemer per Self Service erledigen. Werden zusätzliche Informationen benötigt, so stellt das „wisdom of the crowd“ des Internet diese überall verfügbar bereit. Mit dem Wegfall der großen Masse an einfachen Serviceanfragen entfällt das hauptsächliche Aufgabengebiet der Call Center. 64 Detecon Management Report • 1 / 2011 Call Center als eingeständige, dem Unternehmen vorgelagerte Unternehmenseinheiten werden nicht mehr benötigt. Die wenigen verbleibenden, komplexen Kundenanfragen werden ohne manuelle Weiterleitung von den Kunden direkt an das Unternehmen gerichtet. Durch die zunehmende Vernetzung – intern wie extern – werden Unternehmen transparenter. Kunden sind durch neue Technologien in der Lage, ihr spezifisches Serviceanliegen selbstständig an die jeweils zuständigen Bereiche eines Unternehmens zu richten. Dieses bietet den Kunden einen direkten Zugang zu den gewünschten kompetenten Ansprechpartnern und Informationen und führt zu einer Verbesserung der Servicequalität. Für Unternehmen bietet diese organisatorische Veränderung die Chance, wieder näher an ihre Kunden zu kommen. Die produzierenden und produktbezogenen Einheiten eines Unternehmens erhalten direktes Kundenfeedback über ihre Leistungserbringung und können ihre Wertschöpfung besser an den Bedürfnissen der Kunden orientieren. Zu den Aufgaben eines jeden Mitarbeiters wird zukünftig auch der Kundenservice, die direkte Dienstleistung am Kunden gehören. Der wichtige Unterschied zum heutigen Kundenservice besteht in der Art der erforderlichen Serviceerbringung. Service entwickelt sich von der einfachen Standardtätigkeit zur anspruchsvollen Wissensarbeit. Spezifisches Wissen zur schnellen Lösung des individuellen Kundenanliegens ersetzt die heute bekannten einheitlichen Standardprozesse. Dieses bedeutet in der Konsequenz nicht, dass jeder Mitarbeiter zukünftig durch Kundenanrufe an einer ungestörten Ausübung seiner Tätigkeit gehindert wird. Die Wissensabfrage erfolgt nicht mehr zwangsläufig one-to-one, sondern durch eine many-to-many-Kommunikation in Netzwerken. Für den zukünftigen Wissensarbeiter wird der Austausch mit anderen Menschen, das Teilen von Informationen, zwingend notwendig sein. Wissensaustausch findet innerhalb der Unternehmen zur optimalen Leistungserbringung statt – und mit dem Kunden als permanenter Feedbackpartner. Dieses führt zu einem besseren Kundenverständnis, bedarfsorientierteren Produkten und Dienstleistungen, höherer Kundenzufriedenheit und damit steigenden Umsätzen. Die steigende Komplexität erzeugt zusätzlich den Bedarf nach einer neuen Form der Kundenservicedienstleistung. Concierges werden auf Wunsch die Navigation durch das Informationsnetzwerk übernehmen. Die Funktion von Concierges wird das Verknüpfen von Wissensträgern und Informationen sein. Dabei folgen sie keinem Standardprozess, sondern sind ausschließlich am Ziel der optimalen Kundenzufriedenheit orientiert. Die Bereitstellung von Concierges ist eine optionale Dienstleistung, die anders als heutige Call Center nicht zwingend für die Leistungserbringung am Kunden notwendig ist. Damit stellen die Concierges ein Differenzierungsmerkmal für Unternehmen dar. Bei immer homogeneren Produkten und Dienstleistungen Keine Musik mehr in der Warteschleife können sich Unternehmen durch zusätzliche Dienstleistungen wie die eines Concierges von ihren Wettbewerbern abheben. Durch den fallbezogenen und individuellen Charakter dieser Dienstleistung werden die Kosten dafür deutlich höher sein als für die heutigen, standardisierten Call Center-Leistungen. Lediglich Premiumanbieter werden diese Dienstleistung aufgrund ihrer Ertragsstruktur kostenlos anbieten können. Anbieter aus niedrigeren Preissegmenten werden diesen Service als zusätzliches, kostenpflichtiges Angebot ihren Kunden zur Verfügung stellen, so dass Kunden fallweise entscheiden, ob sie diesen Service in Anspruch nehmen wollen oder nicht. Concierge. Diese Dienstleistung erlaubt dem Kunden weiterhin einen Single Point of Contact zu einem Unternehmen – aber auf einem qualitativ höheren Niveau als heute. Der Concierge als Single Point of Contact – Dienstleistung auf hohem Niveau [email protected] Der Kundenservice wird bis zum Jahr 2032 gravierende Veränderungen erfahren. Die Kundenserviceeinheiten werden in ihrer derzeitigen Form nicht mehr existieren. Da das Bedürfnis der Kunden zur one-to-one-Kommunikation mit den Unternehmen drastisch sinken wird, entfällt der Großteil der heutigen Aufgaben eines Call-Centers. Direkte Kommunikation zwischen Kunden und Unternehmen wird nur noch zu hochspezifischen Themen stattfinden und dann durch eine Vernetzung von Kunden und Fachexperten. Dies schafft eine Herausforderung für die Unternehmen, da der direkte Kundenkontakt weitestgehend verloren geht und somit die Chance auf Loyalisierung durch emotionale Erlebnisse im direkten Kontakt. Doch schafft dies ebenfalls den erweiterten Freiraum für die noch verbleibenden Aufgaben und die zentrale Rolle im Service: Den Tobias Kress arbeitet als Senior Consultant im Global Compentence Team CRM, Sales & Service und ist Spezialist für den Bereich Financial Services. Seine mehr als zehnjährige Berufserfahrung sammelte er bei Banken und Unternehmensberatungen. Seine Themenschwerpunkte sind CRM und Customer Care-Strategien sowie kundenwertdifferenzierte Service- und Vertriebsstrategien. Er ist Autor verschiedener Publikationen zum Thema Kundenservice und CRM. Andreas Penkert arbeitet seit 2008 als Senior Consultant im Global Competence Team CRM Sales & Service. Vor seinem Wechsel in die Beratung war er mehrere Jahre als Projekt- und Business Manager im CRM- und Customer Care-Umfeld tätig. Der Schwerpunkt seiner Beratungsexpertise liegt auf den Themen Customer Service Management, Konsolidierungsstrategien sowie CRM-Innovationen. Er ist Autor verschiedener Publikationen zum Thema Kundenservice und CRM. [email protected] Carsten Schulz ist Partner und leitet das Global Competence Team CRM, Sales & Service. Mit mehr als zehn Jahren Erfahrung als Unternehmensberater für CRM und Call Center liegen seine Schwerpunkte auf innovativen CRM- und Servicestrategien, Customer Care-Organisation und O utsourcing. Er entwickelte verschiedene Loyalitätskonzepte und baute ein führendes Multipartner Bonusprogramm auf. Er ist Autor verschiedener Publikationen zum Thema Kundenservice. [email protected] 65 Detecon Management Report • 1 / 2011 Technology Gregor Kaczor, Johannes Ewers Intelligente Helfer erobern die Welt Die Renaissance der künstlichen Intelligenz Künstliche Intelligenz – nach euphorischen Erwartungen vor 20 Jahren und vielen Rückschlägen steht eine Renaissance bevor. Automatische Spracherkennung, regelbasierte Systeme, neuronale Netze und Mustererkennung haben sich schon jetzt in Internet-Suchmaschinen, Einkaufsportalen oder Computerspielen etabliert. Die wachsende Vernetzung, beinahe unlimitierte Rechenleistung in der Cloud, Lernalgorithmen und innovative Programmierverfahren schaffen in Zukunft ein neues Eco-System für die Umsetzung intelligenter Schnittstellen und Dienste. 66 Detecon Management Report • 1 / 2011 Intelligente Helfer erobern die Welt ernen Sie noch Fremdsprachen? Das ist vielleicht schon L bald eine unnötige Anstrengung. In Zukunft übersetzt das Mobiltelefon für Sie simultan. Und das nicht nur in einer Sprache, sondern in allen Sprachen, die global eine Bedeutung haben. Ihre chinesischen Geschäftspartner werden sich freuen. Forschungseinrichtungen und Firmen wie Google arbeiten bereits heute an den ersten praktischen Applikationen1. Das ist nur ein Beispiel für einen neuen Abschnitt des digitalen Zeitalters, in dem der digitale Assistent tatsächlich persönlich wird. PDAs (Personal Digital Assistant) sind spätestens nach dem Erfolg des iPhones und des Blackberrys in jedem Haushalt zu finden. Die tragbaren Computer, die Anfang der 90er Jahre von verschiedenen Herstellern wie Palm, Apple oder RIM eingeführt wurden, haben nach der Verschmelzung mit Mobiltelefonen den Durchbruch geschafft. Die kleinen Helfer versorgen uns überall mit Email, Internetzugang und schließen den Medienbruch zwischen der Terminverwaltung auf dem Bürorechner und dem tragbaren Papierkalender. Ladbare „Apps“ erweitern den Funktionsumfang täglich in neue Richtungen. Noch ist die Leistung der persönlichen Assistenz auf einfache Aufgaben beschränkt. Diese Schranke wird fallen. In den nächsten 20 Jahren werden digitale Systeme zu tatsächlichen Assistenten des Benutzers werden. Sie werden ihm nicht nur helfen, sprachliche Barrieren zu überwinden, sondern entwickeln sich zum individuellen Ratgeber und Agenten. Der Schlüssel zu dieser Entwicklung ist der Einsatz der künstlichen Intelligenz – kurz KI. Erste Forschungsvorhaben unterschätzten Komplexität Was kann man sich unter dieser Bezeichnung vorstellen? Bis heute fällt es schwer, das Wort „Intelligenz“ im menschlichen Kontext zu definieren, denn darunter fallen ganz verschiedene Aspekte menschlichen Verhaltens vom logisch-mathematischen Planen bis zur Emotionalen Intelligenz. Unter künstlicher Intelligenz verstehen wir eher ein selbstständiges, planvolles Handeln eines Computer-Systems, das über eine einfache Abarbeitung eines Algorithmus weit hinausgeht und das selbstständiges 1http://googleblog.blogspot.com/2011/01/new-look-for-google-translate-for.html 67 Detecon Management Report • 1 / 2011 Technology Lernen und ein vorgegebenes oder teilweise von der KI selbsterzeugtes Abbild der Umwelt voraussetzt. KI-Technologie umgibt uns bereits heute in vielen Anwendungen Die systematische Erforschung der künstlichen Intelligenz hat ihren Anfang in den 50er Jahren mit der ersten Konferenz zu diesem Thema am Dartmouth College. Die Erwartungen waren enorm. Die Forscher glaubten, innerhalb einer Generation eine Maschine zu bauen, die nach allen menschlichen Maßstäben intelligent sein würde. Durch diese Hoffnungen getrieben wurden sehr viele Forschungsprogramme aus öffentlicher und privater Hand finanziert. Bald stellte sich heraus, dass die Komplexität einer intelligenten Maschine hoffnungslos unterschätzt wurde. Die Forschungsziele waren für den damaligen Stand der Technik zu hoch gesetzt. Von dieser Perspektive ausgehend waren die Forschungsergebnisse enttäuschend, sodass die Finanzierung der Forschungsvorhaben immer wieder stockte. Ob künstliche Intelligenz, die mit menschlicher Intelligenz konkurrieren kann, sich jemals in einer Maschine schaffen lässt, bleibt noch abzuwarten, zumal die Definition von Intelligenz nicht eindeutig geklärt ist. Was aber in den nächsten 20 Jahren möglich ist, ist wohl ein kognitives System, das mit dem Menschen oder auch anderen kognitiven Systemen interagieren kann. Wo ist der Unterschied? Nun, ein kognitives System muss nicht intelligent sein. Niemand würde bei Fruchtfliegen von Intelligenz sprechen, doch die kognitiven Leistungen, wie Flug, Koordination in einem dreidimensionalen Raum, das Aufspüren und Nutzen von Futterquellen, Partnerwahl sind unbestritten. Man könnte die kognitive Leistung zusammenfassend als Überleben in einer komplexen Umwelt bezeichnen. Die ersten Ansätze zur KI beruhen auf der Konstruktion von Regelsammlungen, zum Beispiel medizinische Diagnoseregeln. Durch Suche optimaler Kombination von Regeln kann eine Diagnose oder ein Plan abgeleitet werden. Damit ließen sich durchaus leistungsfähige Diagnosesysteme, auch für andere Gebiete wie technische Fehlersuche, aufbauen. In sehr fokussierten und gut beschreibbaren Fachgebieten wie dem Schachspiel sind Computer inzwischen in der Lage, jeden menschlichen Gegner zu schlagen. Um diese Regelwerke zu konstruieren, sind allerdings erst einmal menschliche Experten notwendig, die ihr Wissen abgeben. Aber welcher Experte macht sich schon gerne überflüssig? Die KI-Technologie umgibt uns bereits. Auf dem militärischen Sektor sind es autonom fliegende Drohnen oder der InfanterieRoboter BIGDOG3, welcher mehr als das eigene Gewicht an Gepäck im unzugänglichen Gelände tragen kann. Die Automobilindustrie forscht an völlig neuartigen Fahrer-AssistenzSystemen. BMW arbeitet an einem Fahrzeug, das eine Notfallsituation des Fahrers erkennt4. Fällt der Fahrer aus, manövriert es in Abhängigkeit vom Verkehr an den rechten Fahrstreifen, stoppt und informiert währenddessen den Leitstand über den Vorfall. Volvo hat Mitte Januar 2011 automatisches Kolonnenfahren getestet. Volkswagen arbeitet an einer automatischen Erkennung von Verkehrsteilnehmern wie Fußgänger und Fahrradfahrer. IBM ließ im Februar 2011 seine Software „Watson“ gegen amtierende Jeopardy Champions antreten. Jeopardy ist ein bekanntes Quiz, bei dem den Spielern Antworten aus verschiedenen Wissensgebieten präsentiert werden. Es gewinnt der Spieler, der am schnellsten die passende Frage zu der Antwort formulieren kann – zum Beispiel Vorgabe: Aquamanile; Antwort: Was ist eine Handwaschschale, die bei liturgischen Handlungen benutzt wird? Watson erhält die Antworten als Textdatei, um innerhalb von etwa drei Sekunden aus zirka 100 GB Daten basierend auf Wikipedia, Enzyklopädien, Wörterbüchern, Biographien und so weiter eine Frage zu formulieren Watson hat sich gegen die beiden Jeopardy-Champions erfolgreich durchgesetzt. Damit hat IBM ein state-of-the-art Produkt, das natürliche Sprachverarbeitung und Ausgabe, Information Retrieval, Wissensrepräsentation und Interferenz sowie maschinelles Lernen in einem bestimmten Kontext kombiniert. Dabei liegt die eigentliche Leistung in der Kombination der unterschiedlichen Ausgangsdaten zu einer konsistenten Wissensbasis. Regelwerke mit wenigen hundert Regeln konnten noch von Experten kontrolliert werden. Bei 10.000den von Regeln waren der Rechenleistung und der Programmierbarkeit Grenzen gesetzt. Es wurde deshalb nach neuen Methoden gesucht, die KI-Systemen selbstständiges Lernen ermöglicht. Ein Lösungsweg führte zu „neuronalen Netzen“, die die Arbeitsweise von Nervenzellen nachahmen. In den 90er Jahren war die auf dem Markt verfügbare Rechenleistung ausreichend, um in der Medizintechnologie moderne Analyseverfahren einzuführen, die dreidimensionale Abbildungen des Gehirns erzeugen. Mithilfe der Magnetresonanztomographie konnte man Gehirne von Menschen und Tieren ohne großen Aufwand bei einfachen kognitiven Aufgaben beobachten. Diese Technologien eröffneten neue Perspektiven auf die Arbeitsweise des Gehirns und befeuerten die Entwicklung moderner mathematischer Hirnmodelle, die am Computer simuliert werden können2. Zudem verabschiedete man sich von dem Vorhaben, eine komplette intelligente Maschine zu bauen und fokussierte sich auf Teil aspekte der kognitiven Informationsverarbeitung, wie Objekterkennung, Spracherkennung sowie Datenklassifikation. 68 Detecon Management Report • 1 / 2011 2 Blue Brain Project http://bluebrain.epfl.ch/ 3 BigDog video http://www.youtube.com/watch?v=W1czBcnX1Ww 4http://www.heise.de/autos/artikel/BMW-entwickelt-automatischenNothalteassistenten-455648.html Intelligente Helfer erobern die Welt Ein weiteres wichtiges Anwendungsfeld der KI ist die Finanzwelt. Die Europäische Union hat Ende 2010 das Forschungsprojekt „FIRST“ – „Information Extraction and Integration Infrastructure for Supporting Financial Decision Making“ (http://project-first.eu/) zu diesem Thema gestartet. Ziel ist die Entwicklung eines Informationssystems für Marktüberwachung und Risiko-Management, Online-Retail-Banking und Brokerage. Zielgruppe sind Finanzexperten und interessierte Benutzer, die auf Finanzinformationen „on demand“ zugreifen möchten. Die Datengrundlage stellen textbasierende Quellen wie Nachrichten, Blogs oder Online-Newsletter. Mit Hilfe von KI-Algorithmen wird aus ihnen das Wissen extrahiert, das Entscheidungen am Finanzmarkt unterstützen soll. Entwicklung von Lehr- und Lernalgorithmen rückt in den Forschungsfokus Das ist mit einem überschaubaren Modell machbar. Später fasst der persönliche Assistent aber nach und nutzt dazu ein komplexes Verhaltensmodell, das Initiativen erlaubt: KI: „Du warst heute im Finanzamt, aber nur kurz. Bewegungsprofil über GPS Hatte es nicht auf?“ Angaben auf der Website waren nicht aktuell Mensch: „Nein. Es war bereits geschlossen.“ KI: Stellt fest, dass Benutzer innerhalb der angegebenen Öffnungszeit da war. „Ich sende eine E-Mail an die Kontaktadresse und frage nach den aktuellen Öffnungszeiten.“ Diese Beispiele zeigen auf beeindruckende Weise, was heute bereits möglich ist und bald den normalen Stand der Technik darstellen wird. Die Erwartungen an ein KI-System in der einfachen Interaktion mit dem Menschen sind mit den heute zur Verfügung stehenden Technologien schon zu bewältigen. Das ideale Medium der Mensch-Maschine-Kommunikation ist die Sprachsteuerung. Während das Problem der Spracherkennung bereits zufriedenstellend gelöst ist, gibt es bisher keinen funktionierenden Ansatz, das Gesprochene von einer Maschine „verstehen zu lassen“. Zurzeit lassen sich nur Kommando-getriebene Maschinen realisieren, die auf bestimmte Kommandos oder andere Trigger aus der Umwelt reagieren und vordefinierte Aktionen mit geringem Spielraum ausführen. Mensch: „Gerne. Vielen Dank.“ Das Beispiel einer einfachen Recherche und einer komplexeren Reaktion soll das mögliche Verhalten einer KI zeigen: Ein weiteres Hindernis auf dem Weg zur KI ist die Programmierung der KI-Systeme. Der klassische Ansatz der Definition von Regelsystemen ist nur für eine beschränkte Zahl von Regeln manuell machbar. Der innovative Schritt ist die Entwicklung von Lehr- und Lern-Algorithmen, so dass die KI wie ein Kind, unter Anleitung aber auch selbstständig, sinnvolles Verstehen und Verhalten lernt. Zentrales Element ist der Aufbau einer Wissensbasis, die Verbindungen zwischen Objekten der realen Welt speichert. Das Internet bietet heute strukturierte und unstrukturierte Daten in unbegrenzter Menge, die dazu verwendet werden können. Eine einmal generierte Wissensbasis kann dann beliebig kopiert werden. Mensch: „Ich muss zum Finanzamt, wie lange hat es heute offen?“ KI: „Finanzamt IV in Bonn?“ Vorschlag ermittelt aufgrund der Adresse des Nutzers Mensch:„Ja.“ KI: Besucht die entsprechende Seite, extrahiert die Öffnungszeiten „Mo-Fr 8:00h bis 17:00h Ich habe auch eine Wegbeschreibung“ Mensch: „Nicht nötig. Vielen Dank!“ Code für abgeschlossenen Kommunikationsprozess Das zweite Beispiel ist als initiatives, planerisches Handeln noch Zukunftsmusik. Bisher waren hohe Rechenleistung und großer Speicherbedarf noch einschränkende Faktoren beim Einsatz von KI-Programmen. Nach dem MoorschenGesetz verdoppelt sich die Rechenleistung von Prozessoren (genau: die Dichter der Bausteine auf einem Computer-Chip) alle 18 Monate. Führende Mikroprozessorhersteller wie Intel und AMD glauben, dass dieses Gesetz – wie in den letzten 30 Jahren - noch mindestens 20 Jahre Bestand haben wird. Damit sind die wichtigsten Voraussetzungen für den Einsatz fortgeschrittener KI-Technologie, die Verfügbarkeit von enormer Rechenleistung und von autonomen Lernalgorithmen in der Zukunft gegeben. 69 Detecon Management Report • 1 / 2011 Technology Was erwartet uns in 20 Jahren? Was passiert, wenn man sich diese beschriebenen Technologien eine Größenordnung ausgereifter vorstellt und diese miteinander kombiniert Dinge, die wir erwarten können, sind: • KI-basierte Persönliche Assistenten oder Agenten werden ähnlich gehandelt wie heute Apps auf Mobiltelefonen. Diese Assistenten werden einen „Charakter“ haben und sich an das Verhalten des Benutzers anpassen. • Die Interaktion zwischen Mensch und Maschine wird die emphatische Ebene erreichen. Durch die Sprachsteuerung werden an den Agenten nicht nur Aufgaben übermittelt, sondern auch die emotionale Verfassung des Menschen. Aus der Stimmlage, der Sprechgeschwindigkeit und der Betonung wird ein emotionales Abbild des Menschen in der Maschine berechnet, wodurch das Verhalten der Maschine beeinflusst und an die Stimmungslage des Menschen angepasst wird. Visuelle Reize wie die Gesichtsmimik werden das emphatische Verhalten der Maschine unterstützen. • Komplexe Dienstleistungen in regulierten und gut dokumentierten Bereichen werden in Form von KI-basierten Ratgebern angeboten, zum Beispiel Rechtberatung, Steuerberatung, Finanzberatung, Einkaufsberatung oder medizinische Diagnose. • Markteintrittsbarrieren auf internationalen Märkte sinken, da der Kommunikations- und Übersetzungsaufwand sich verringert. Der kulturelle Anpassungsaufwand bleibt bestehen, kann aber durch einen persönlichen KI-Berater verbessert werden. • Verträge können zwischen zwei KI-Assistenten ausgehandelt, Risiken und Vorteile bewertet und zur finalen Entscheidung vorgelegt werden. Komplette Geschäftsmodelle, Leistungsbeziehungen und virtuelle Firmen lassen sich so bei entsprechender Standardisierung in kurzer Zeit realisieren. • Software-Entwicklung von Applikationen wird möglich, die alleine aus fachlichen Anforderungsdokumenten (Geschäftsregeln) gesteuert wird. Entwickler werden immer weniger für die technische Realisierung zuständig sein, sondern zunehmend für die Beschreibung von Nutzungsmodellen in einer fachlichen Domäne. Die Kosten individueller Softwareentwicklung werden sinken. Es wird mehr Software entwickelt denn je. • Erste KI-basierte Kunstwerke in Form von Musik, Text und Video werden auftauchen. Bei Filmen wird nicht nur die Grafik, sondern auch die Dramaturgie von einer Maschine entwickelt. Abbildung: KI-basiertes Sprechen Guten Tag Spracherkennung Sprachsynthese Syntaxanalyse Syntaxsynthese Semantisches Modell Regelsystem Lernalgorithmus KI-Cloud Internet Wkipedia Quelle: Detecon 70 Detecon Management Report • 1 / 2011 Blogs News Intelligente Helfer erobern die Welt • In Online-Computerspielen sind menschliche Benutzer von den Computer-Avataren im Verhalten nicht zu unterscheiden. Der Einsatz der KI-Technologie wird die Computerspielindustrie revolutionieren. Heute wird das intelligente Verhalten in Computerspielen nur simuliert, weil es weder ein zufriedenstellendes KI-Modell der Umwelt gibt, noch ausreichend Ressourcen, um so ein Modell neben den oft Ressourcenhungrigen Spielen ablaufen zu lassen. In der Zukunft wird es möglich sein real anmutende Welten zu schaffen, mit individuellen Charakteren und Verhalten. Die KI-Charaktere werden in der Lage sein aufeinander zu reagieren, auf eine kreative Weise eigene Ziele zu verfolgen und ermöglichen somit eine bis heute unbekannte Spieltiefe. Beispiel im „Terminator“oder in „Matrix“. Hinter diesen Science Fiction-Szenarien stehen reale Ängste vor der Technologieentwicklung. Mit jeder neuen Technologie gibt es in der Gesellschaft Berührungsängste. Beispiele sind in der Geschichte oft dokumentiert worden: Der Dampflokomotive sprach man einen negativen Einfluss auf die Milchleistung von Kühen zu und hohe Geschwindigkeiten sollten zu gesundheitlichen Beeinträchtigungen beim Menschen führen. Diese, heute irrational anmutenden Ängste sind zu erwarten, wenn der Einfluss neuer Technologien auf die Umwelt und Gesellschaft nicht überschaubar ist und vielleicht ganz anders ausfällt als erwartet. Die Frage lautet in solchen Fällen oft: Was geht verloren, wer wird verlieren und was gewinnen wir als Individuen und als Gesellschaft? • Die in 3D real erlebbaren Simulationen werden völlig neue Wege nicht nur des Spiels, sondern auch des Lernens eröffnen. Die Entwicklung der KI-Technologie wird zudem Einfluss auf das Bildungswesen haben. Ebenso, wie es heute üblich ist, Schülern den Umgang mit der Informationstechnologie zu vermitteln, wird es in Zukunft nötig sein, bereits im Schulalter den Umgang mit der KI-Technologie zu erlernen. Die KI-Technologie hat ihren Siegeszug bereits vor langer Zeit angetreten. Die Frage ist nicht mehr, ob sie in der globalen Produkt- und Dienstleistungswelt ihren Platz findet - sie ist bereits da. KI heute lässt sich mit dem DARPANET vergleichen, dem Vorläufer des Internets. Das Konzept eines verteilten Netzes weckte die Neugier der Militärs, anschließend der Wissenschaftler, der Informatiker und Tüftler, um dann innerhalb weniger Jahre zur Grundlage der Informationsgesellschaft zu werden. Die für die KI-Technologie benötigte Rechenleistung wird in den nächsten Jahren noch keinen Platz in einem PDA oder Mobiltelefon finden. Daher ist die Entwicklung von KI-Clouds wahrscheinlich, die global KI-spezifische Dienstleistungen onDemand anbieten werden. Cloud ist ein breit verwendeter Begriff in der Informationstechnologie. Er bezeichnet die Bereitstellung einer Informations-Dienstleistung über das Internet durch einen Anbieter, bei der die genaue Lokalität dem Nutzer nicht bekannt sein braucht. Auf diese Weise lassen sich komplexe Anwendungen, wie die automatische Sprachübersetzung, auch auf einfachen mobilen Endgeräten global nutzen. Ängste besiegen, Herausforderungen annehmen Die Implikationen einer neuen Technologie sind komplex. Ein Beispiel hierfür ist die Echtzeitkommunikation auf Social Networking-Plattformen wie Twitter und Facebook. Sie wird aktuell zur Koordination von Großdemonstrationen eingesetzt, wie die Beispiele aus Tunesien, Ägypten und Jemen zeigen. Dieses Feature war mit ziemlicher Sicherheit nicht darauf hin geplant worden, hat sich aber als Werkzeug einer breiten Masse durchgesetzt. Die Risiken der KI sind ein häufiges Thema in Science F iction Literatur oder Filmen. Meist geht es um den Verlust der Selbstbestimmung der Menschen gegenüber den Maschinen, zum KI wird in den nächsten 20 Jahren unser Leben ähnlich verändern, wie es das Internet in den vergangenen 20 Jahren getan hat. Das ist eine Herausforderung. Noch ist der Markt für KI überschaubar und wenig strukturiert. Doch wie beim Internet wird sich die Geschichte wiederholen: Nur die Unternehmen werden den Markt erobern und neue Geschäftsmodelle etablieren, welche die Herausforderungen auf diesem Feld frühzeitig identifizieren und meistern. Johannes Ewers leitet die Gruppe „Telco Application Strategy“. Er hat lang jährige Erfahrung als Projektmanager und Systemarchitekt. Dabei beschränkt sich das Thema System-Architektur für ihn nicht auf technische Konzepte, sondern beginnt bei der strategischen und wirtschaftlichen Ausrichtung eines Systems. Der Schwerpunkt seiner Arbeit liegt in der Entwicklung von Lösungen für Telekommunikationsunternehmen, darunter OSS-/BSS-Anwendungen, Internet Services und Business Intelligence Systeme. [email protected] Gregor Kaczor hat Wirtschaftsinformatik an der Universität Duisburg-Essen studiert und schließt gerade eine Doktorarbeit ab. Er hat nach einer Zeit als Wissenschaftlicher Mitarbeiter an der Goethe Universität Frankfurt/Main für Accenture Technology Solutions im Bereich Incident-, Problem und Changemanagement für Retail-Informationssysteme gearbeitet. Zu seinen fachlichen Schwerpunkten gehören Systemanalyse und -modellierung, Open Source Frameworks und die Simulation neuronaler Netze. [email protected] 71 Detecon Management Report • 1 / 2011 Technology Dr. Hans-Peter Petry, George Salisbury, Dr. Kai Grunert Spiel mit Grenzen Die Zukunft der Netze Anwendungswelten der Informations- und Kommunikationstechnologie (ICT) sind im Rahmen globaler Trends auch längerfristig vorhersagbar. Von einer hohen Warte aus gesehen handelt es sich um ein komplexes Problem mit einer zunehmenden Zahl von Randbedingungen. Die Anzahl der möglichen Lösungen nimmt dann in der Regel ab – wenn es überhaupt noch welche gibt. In dieser Situation befinden wir uns, wenn wir über die Zukunft von Zugangstechniken nachdenken. Zum einen ist zu untersuchen, was die Technik überhaupt leisten kann und wo die physikalischen und informationstheoretischen Grenzen liegen, zum anderen ist diese Leistungsfähigkeit auf bekannte und zukünftige Randbedingungen abzubilden. D iese kennen wir schon: Sie sind technischer, wirtschaftlicher und politischer Natur. 72 Detecon Management Report • 1 / 2011 Spiel mit Grenzen Foto: Gemälde, Michael Sistig ie wohnen nicht zufällig in Friedrichshafen? Dann können S Sie Familie Bachmann über die „digitale Zukunft“ befragen. Familie Bachmann gehört zu einer Reihe von sogenannten „Zukünftlern“ im Rahmen des Projektes T-City Friedrichshafen der Telekom. Sie dürfen nach Herzenslust in die Zukunftswelt der Telekommunikation eintauchen, ohne sich Gedanken über die Randbedingungen wie Kosten machen zu müssen. T-City ist ein breit angelegtes Projekt, welches auf modernster ultraschneller Glasfaserinfrastruktur und Mobilfunk basiert und über einen Zeitraum von fünf Jahren zur Erprobung neuer Informations- und Kommunikationstechnik ausgelegt ist. Unter diesen ausgezeichneten Randbedingungen wurden zahlreiche Innovationsprojekte angestoßen, die alle unter dem Oberbegriff „smart“ gesehen werden können. Angefangen vom persönlichen Umfeld im Haus oder der Wohnung, dem beruflichen Umfeld, bei Behördengängen, vielfältigen medizinischen Anwendungen – dem Erfindungsreichtum sind keine Grenzen gesetzt. Sicher sind viele dieser Dinge schon bekannt, viele sind auch nur technische Spielerei und werden sich nicht durchsetzen, allein die Vielfalt der möglichen Applikationen lässt aber erwarten, dass sich diejenigen durchsetzen, die uns das Leben leichter machen und eben nicht Zeit stehlen, sondern mehr Freiräume schaf- fen. Hinzu kommt der Spaßfaktor: Nicht alles muss permanent Effizienzkriterien erfüllen oder Kosten einsparen. Wir kennen schon einige dieser Innovationen aus den letzten 20 Jahren. Derartiges wird einem sogar schmerzhaft bewusst, wenn – in gottseidank sehr seltenen Fällen – ein Mobilfunknetz einmal ausfällt. Jeder wundert sich, wie er vor 20 Jahren ohne auskommen konnte. Wir gewöhnen uns schnell an diese Innovationen und richten unser Verhalten danach aus; eine Tatsache, die sich mit hoher Wahrscheinlichkeit auch für die nächsten 20 Jahre extrapolieren lässt. Dienste- und applikationsseitig reden wir daher in der Tat von einem Spiel ohne Grenzen. Beobachten wir allerdings die aktuelle Telekommunikationslandschaft, sind jedoch einige Zweifel angebracht, ob die Entwicklung der letzten Jahrzehnte sich einfach so fortsetzt oder fortsetzen kann. Die aktuell überblickbare Entwicklung der Dienste- und Endgerätevielfalt sowie weitere, oft diskontinuierliche Effekte führen zu einem stark nichtlinearen Anstieg der Datenraten. Schon heute zeigen sich in vielen Bereichen Überlastungseffekte in Netzen, die nicht mehr durch schnelles Nachbessern bereinigt werden können. Es stellt sich daher zu Recht die Frage, wohin bei den Netzin- 73 Detecon Management Report • 1 / 2011 Technology frastrukturen langfristig die Reise geht. Was kann die Technik in Zukunft leisten, gibt es überhaupt irgendwelche Grenzen und wo liegen diese, gelten Bildungs- und Wachstumsgesetzte weiterhin oder liegt die Beschränkung eher bei den ökonomischen und/oder politischen Randbedingungen? Das bekannteste Bildungsgesetz ist wohl Moore’s Law. Moore’s Beobachtung aus dem Jahr 1965, dass sich die Anzahl der Transistorfunktionen, die sich wirtschaftlich auf einem integrierten Schaltkreis realisieren lassen, in bestimmten Zeitabständen verdoppelt, lässt sich auf viele ähnliche Wachstumsfelder anwenden. Beispiele hierfür sind Rechenleistung von Prozessoren, Kapazität von elektronischen Speichermedien, Pixelanzahl elektronischer Displays, um nur einige zu nennen. Sogar für Netze gibt es eine entsprechende Aussage von Gerry Butters (Bell Labs): Die Übertragungskapazität einer Glasfaser verdoppelt sich alle 18 Monate. Können wir uns also beruhigt zurücklehnen und weiterhin auf die Gültigkeit derartiger Gesetze verlassen? Ein Blick zurück auf die bekannten Infrastrukturelemente der festen und mobilen Kommunikationsnetze bestätigt zunächst diese Gesetze in der Vergangenheit (siehe Abbildung). Abgesehen von wenigen Ausreißern lassen sich alle genutzten Technologien in einer Weise anordnen, dass sich in einer logarithmischen Darstellung in etwa eine Verzehnfachung der jeweiligen Leistungsfähigkeit in einem Zeitrahmen von zirka fünf Jahren ergibt. Dabei unterscheiden sich die verschiedenen Medien selbst auch um etwa einen Faktor zehn, der über die Zeit konstant bleibt und von den physikalischen Übertragungseigenschaften und den jeweiligen Kanaleigenschaften abhängt. Aber schon bei dieser Feststellung muss man genauer hinsehen. Die in der Abbildung gezeigten Leistungsmerkmale stellen die maximalen F ähigkeiten des jeweiligen Mediums unter günstigen Randbedingungen dar. Was letztendlich beim Nutzer ankommt, ist oft eine ganz andere Frage. Den Unterschied merkt man insbesondere dann, wenn sich Nutzer die zur Verfügung stehende Bandbreite teilen müssen (shared Medium), wie das zum Beispiel bei allen Mobilfunksystemen der Fall ist, oder die Übertragungskapazität stark von der Entfernung zum Teilnehmer abhängt (Beispiele: Mobilfunk und xDSL). Hier kommen dann neben den rein physikalischen und informationstheoretischen Merkmalen auch wirtschaftliche, aufbautechnische und regulatorische Aspekte zum Tragen. Wollen wir nun einen Blick in die Zukunft werfen, müssen wir alle diese Aspekte der Reihe nach untersuchen und mögliche Projektionen entwickeln. Abbildung: Bildungsgesetze heutiger Telekommunikationstechnologien und ihre Grenzen Data Rate in Bit/s 1.0E+15 Coax 1.0E+13 Copper/Hybrid 1.0E+12 DOCSIS 3.0 1.0E+09 1G 100 Mbit/s 1.0E+08 DOCSIS 2.0 HDSL 1.0E+07 1.0E+06 ISDN 2B 1.0E+03 ADSL 2+ ADSL UMTS EVDO EDGE CDMA 2000 1.0E+04 GSM 1T 40 Gbit/s 10 Gbit/s 1.0E+10 VDSL LTE-A VDSL2 LTE/WiMAX (MIMO) LTE 1M HSPA, WiMAX 1K 1990 1995 2000 Legende: = Hybride Techniken (Glas, Kupfer) Quelle: Detecon 74 Mobile 100 Gbit/s 1.0E+11 1.0E+05 1P Fiber 1.0E+14 Detecon Management Report • 1 / 2011 2005 2010 = DSL (Kupfer) 2015 = Mobilfunk 2020 2025 = Koaxialkabel 2030 = Glasfaser 2035 Jahr Spiel mit Grenzen Physik 2032 = Physik 2011 Die Vorhersage der physikalischen und informationstheoretischen Sachverhalte gehört dabei zu den leichteren Übungen. Fakt ist: Entsprechende Gesetzmäßigkeiten sind zeitlich invariant und werden daher weiter unverändert gelten. Hierbei können wir uns zunächst auf das Theorem von Claude Shannon aus dem Jahre 1948 stützen. Basierend auf früheren Arbeiten von Nyquist und Hartley hat Shannon mit Hilfe rein mathematischer Überlegungen die maximal mögliche Übertragungskapazität eines „Kanals“ hergeleitet. Ein Kanal ist dabei das Medium oder ein Teil eines Mediums, welches für die Übertragung benutzt wird. Das Ergebnis ist einfach und elegant: Die maximal mögliche Kanalkapazität ist proportional zur Bandbreite des jeweiligen Kanals, gewichtet durch einen Faktor, in dem die bestimmende Variable das Verhältnis zwischen Nutz signal und Störer – beispielsweise Rauschen oder Interferenz – ist. Hier kommen die physikalischen Aspekte ins Spiel. Beim heutigen Stand der Wissenschaft erfolgen alle Nachrichten übertragungsverfahren mit Hilfe elektromagnetischer Wellen in einem Frequenzbereich bis zu etwas mehr als 1 THz bei optischer Übertragung. Deren Verhalten in verschiedenen Medien und Umgebungen ist also bestimmend. Andere Möglichkeiten sind beim heutigen Stand der Technik theoretisch denkbar, werden aber im Betrachtungszeitraum nach aktuellem Kenntnisstand keine Rolle spielen. Die Bandbreite der Ressource und die Beherrschung des Kanals bestimmen also die zukünftigen Leistungsmerkmale im Kernnetz und Zugangsbereichen. Es lässt sich daher zunächst folgern, dass alle Technologievarianten, die derartige Grenzen bereits ausgelotet haben, an einer Grenze angelangt sind. Dies gilt insbesondere im Zugangsbereich und noch schärfer für mobile Technologien. In diesem Falle hilft nur die Vergrößerung der Ressource (Bandbreite) an sich oder die Verwendung mehrerer Kanäle, sofern diese vorhanden und hinreichend unabhängig (orthogonal) voneinander sind. Übertragungsmedien und Kanäle – ein weites Feld Starten wir bei der Prognose für die nächsten 20 Jahre bei der guten alten Kupferdoppelader: Sie hat die längste Historie a ller Übertragungsmedien und mehr als 100 Jahre überdauert. Ursprünglich für die direkte Übertragung niederfrequenter Signale (Sprache, Morsezeichen) ausgelegt, wurde sie im Zeitalter digitaler breitbandiger Übertragungstechniken bis an die Grenzen des Machbaren ausgereizt. Es ist erstaunlich, was man mit Hilfe moderner digitaler Übertragungstechniken aus einem für hochfrequente Signale eigentlich völlig ungeeigneten M edium herausholen kann. Der große Vorteil: Das Medium ist vorhan- den, eine wesentliche, nicht-technische Randbedingung also günstig. Eine deutliche Verbesserung der Leistungsmerkmale ist aber nicht mehr zu erwarten. Für die nächsten Jahrzehnte gilt daher die Vorhersage, dass Netzbetreiber nicht mehr massiv in den weiteren Ausbau von Kupferinfrastrukturen investieren werden. Vielmehr wird der feste Zugang Zug um Zug durch die Glasfaser abgelöst. Die Glasfaser ist das ideale Medium für die breitbandige Übertragung und war den Bandbreiteanforderungen bis heute locker gewachsen. Träger der Information sind elektromagnetische Wellen oberhalb des THz Bereiches, bei denen enorme Bandbreiten zur Verfügung stehen, selbst wenn man nur einen Bruchteil der Übertragungsfrequenz nutzt. Auch der zweite bestimmende Parameter der Shannon-Gleichung verhält sich ausgesprochen vorteilhaft. Das Medium kann durch einfache und kostengünstige Verfahren so gestaltet werden, dass selbst über große Entfernungen der Signal-Störabstand nur geringfügig abnimmt. Beide Effekte führen dazu, dass die Glasfaser allen anderen „Kanälen“ um Größenordnungen überlegen ist. Aber damit nicht genug, ohne große Anstrengungen lässt sich die Zahl der Kanäle erheblich steigern: zum einen durch Verwendung mehrerer Träger im optischen Bereich (WDM – man hat’s ja) und/oder durch Verlegung gleich mehrerer Fasern. Die Kosten sind gering im Vergleich zu den Verlegekosten. Aber auch das ist nicht das Ende der Fahnenstange. Mit fortschreitender Technik der Signalquellen (Laser) wächst deren spektrale Reinheit, was die Anwendung höherstufiger Modulationsverfahren und Kanalcodierung in Anlehnung an bereits etablierte Verfahren der Mobilfunktechniken erlaubt. Derartige Techniken treiben die kommerziell verfügbare Leistungsgrenze aktuell bis zu 100 Gbit/s für einen einzelnen optischen Träger. Weitere Verkürzung der Pulslängen (höhere Kanalbandbreite) und noch höherstufige Modulationsverfahren können in absehbarer Zeit die Grenzen bis in den Tbit-Bereich verschieben – jetzt allerdings auch entfernungsbahängig. Die Grenzen der Glasfaser sind also in unserem Betrachtungszeitraum (noch) nicht prinzipieller Natur, obwohl diese Grenzen natürlich auch existieren, sondern durch ökonomische Randbedingungen gegeben. Dies ist eine gute Nachricht in den Kernnetzbereichen. Der flächendeckende Ausbau im Anschlussbereich hingegen unterliegt strengen wirtschaftlichen Randbedingungen. Die Lösung dieses Problems kann nicht Aufgabe des Betreibers alleine sein, sondern ist eine Aufgabe für die ganze Volkswirtschaft. Der Ausbau wird daher weiter voranschreiten, es wird starke regionale und überregionale Unterschiede geben, je nachdem, wie schnell die Bedeutung breitbandiger Kommunikation für die Gesellschaft von Politik und Wirtschaft erkannt und – noch viel wichtiger – auch umgesetzt wird. Diese Prozesse werden sich über mehrere Jahrzehnte hinziehen und in unserem Betrachtungszeitraum nicht 75 Detecon Management Report • 1 / 2011 Technology abgeschlossen sein. Dabei werden zahlreiche neue Initiativen auf regionaler, kommunaler und privater Ebene die Anstrengungen der Netzbetreiber ergänzen. Eine schnelle, vollständige Abdeckung wird sich trotzdem wirtschaftlich nicht realisieren lassen. Zur Lösung dieser „Restproblematik“ und natürlich für die noch attraktivere mobile Breitbandwelt stehen uns drahtlose Techniken zur Verfügung. Die Unabhängigkeit von leitungsgebundener Übertragung muss allerdings teuer erkauft werden. Mobile Kanäle haben im Sinne der Shannonschen Informa tionstheorie die unangenehmsten Eigenschaften. Eine Vorhersage ist demnach besonders vielschichtig. In den für mobile Kommunikation geeigneten Frequenz bereichen hatten Netzbetreiber in der ersten Dekade des 21. Jahrhunderts im Mittel zirka 40 - 80 MHz an Gesamtbandbreite zur Verfügung, durch neue Lizensierungsverfahren erweitern sich diese Bereiche aktuell auf zirka 80 - 160 MHz. Eine weitere wesentliche Vergrößerung dieser Ressource ist nicht zu erwarten – die erste ernste Begrenzung. In der Regel sind diese Ressourcen auf mehrere Fragmente verteilt, die unterschiedlich groß sein können, die Größe der Bruchstücke (letztendlich bestimmend für die Kanalbandbreite) bewegt sich für mobile Breitbandanwendungen im Bereich 5 - 20 MHz. Auch daran wird sich längerfristig nichts ändern, selbst wenn man mehrere dieser Bruchstücke zusammenfasst, wie beispielsweise bei LTE Advanced. Auch beim zweiten bestimmenden Parameter des Shannon Theorems ist der weitere Spielraum klein. Mobilfunksysteme, auch breitbandige, weisen beim heutigen Stand der Technik zellulare Strukturen auf. Das für die Ermittlung der Grenzkapazität wichtige Signal-Störverhältnis hängt dabei von zwei wesentlichen Faktoren ab: der Entfernung zur Zentralstation und den „Störungen“ durch benachbarte Zellen. Ohne auf die Details dieser komplexen Zusammenhänge einzugehen, lässt sich aber leicht einsehen, dass dieser kapazitätsbestimmende Faktor weite Bereiche überstreichen kann: in der Nähe der Zentralstation sind bessere Werte zu erwarten, am Zellrand deutlich schlechtere. Hinzu kommen weitere lokale und dynamische Störeffekte wie Abschattung und zusätzliche Dämpfung aufgrund zahlreicher Effekte. Die mittlere Effizienz einer Zelle ist 76 Detecon Management Report • 1 / 2011 daher weitaus niedriger als der mögliche Maximalwert – dessen Auftrittswahrscheinlichkeit ist klein. Als einzige weitere Verbesserungsmöglichkeit neben Ressource und Effizienz bleibt die Nutzung mehrere Kanäle. Obwohl das bei drahtlosen Medien nicht offensichtlich ist, gibt es derartige Techniken, zum Beispiel MIMO: Multiple In Multiple Out. Ein Spezialfall davon ist die Nutzung doppelter Polarisation beim stationären Richtfunk – eine altbekannte Anwendung. Man kann durch geeignete Einrichtungen für eine derart hohe Entkopplung sorgen, dass sich die Kapazität tatsächlich verdoppelt. Im Mobilfunkumfeld lassen sich bei geeigneter Umgebung (viele Umwegsignale) sogar mehr als zwei Kanäle identifizieren und simultan nutzen. Durch die endliche Größe eines Mobilfunkendgerätes und zahlreiche andere Effekte verkoppeln sich diese aber so stark miteinander, dass der resultierende Effekt in Grenzen bleibt. Alle wesentlichen Parameter zu einer kontinuierlichen S teigerung der Leistungsfähigkeit des Kanals sind also ausgeschöpft. Es verbleibt eine einzige Möglichkeit: die Verkleinerung der Zelle und damit die Erhöhung der Zellenanzahl, das heißt die vermehrte Verwendung mikrozellularer Konzepte. Da dies ein rein geometrisches Problem ist, gibt es keine physikalische Obergrenze. Das Signal-Störverhältnis ist umso besser, je kleiner die Zelle ist. In gleichem Masse wächst die Kanalkapazität und es sinkt die Wahrscheinlichkeit einer großen Teilnehmerzahl pro Zelle – a lles Trends in die richtige Richtung. Diese Sachverhalte sind objektiv richtig und auch erkannt, die Umsetzung erfolgt immer noch zögerlich, wird sich in Zukunft aber verstärken und im Betrachtungszeitraum zu einem wesentlichen Element zukünftiger Zugangsnetze werden (müssen). Drei wesentliche technische Probleme müssen dabei gelöst werden: mikrozellulare Konzepte erfordern flexiblere Frequenzallokationen, niedrige Kosten pro Infrastrukturelement und ein leistungsfähiges Backhaul-Netz. Die gute Nachricht: alle Probleme sind lösbar. Insbesondere die letzte Forderung ist in großem Stil synergetisch mit einem verstärkten Glasfaserausbau. Heterogene und autonome Netze Im Rahmen mikrozellularer Konzepte gibt es architektonische Alternativen, die wir über längere Zeiträume ebenfalls betrach- ten müssen. Aktuelle Mobilfunknetze sind homogen, das heißt sie bestehen aus einem zentralen Element, der Basisstation, und müssen sorgfältig geplant und optimiert werden. Im Rahmen der Weiterentwicklung von LTE werden sogenannte heterogene Architekturen betrachtet. Hierbei wird die makroskopische Zellstruktur mit einem mikrozellularen Netz im oben genannten Sinn überlagert. Dieses ist weniger stringent geplant beziehungsweise kann sogar vollständig unkoordiniert ausgerollt werden. Die erreichbare theoretische Leistungsgrenze liegt viel höher als bei Makro-Architekturen, wie wir wissen. Der Backhaul wird dabei von der Makrozelle geliefert. Ähnliche dynamische Architekturen hat man im Falle von extrem kurzreichweitigen Sondernetzen, zum Beispiel M2M, RFID, oder im Falle der seit langem diskutierten Car-to-Car Kommunikation. Man kann sich sogar ein Fahrzeug als Bestandteil eines solchen (ad-hoc) Mobilfunknetzes vorstellen. Das klingt attraktiv und die technischen Probleme sind höchstwahrscheinlich lösbar. Wir stehen jedoch vor einem architektonischen Paradigmenwechsel, der ein radikales Umdenken bei Betreibern erfordert. Derartige Prozesse erfolgen aus den Erfahrungen der Vergangenheit gesehen – wenn überhaupt – evolutionär, sind daher selbst in unserem langen Betrachtungszeitraum eher unwahrscheinlich. Es ist weiterhin zu beachten, dass derartige autonome Netze äußerst komplex werden und ein hohes Maß an Selbstorganisation bei Ressourcen (Frequenzen) und Architektur erfordern, um nicht die operativen Kosten zu einer begrenzenden Randbedingung zu machen. Eine weitere abzusehende Entwicklung bei Mobilfunktechnologien betrifft die Vielfalt der aktuell vorhandenen Varianten. Jede Mobilfunkgeneration von 2G bis zu 4G hat zahlreiche Varianten, die untereinander mehr oder weniger inkompatibel sind. Der Übergang von einer Variante zur anderen und/ oder ein Parallelbetrieb mehrerer Standards führt zu enormen technischen, finanziellen und organisatorischen Problemen bei Betreibern und zu Akzeptanzproblemen bei Nutzern. Dies kann auf Dauer keine Lösung sein. Zwei Lösungswege bieten sich an: Zum einen ist abzusehen, dass sich die Anzahl der Varianten verringert. Eine Konvergenz zu einem einzigen Universalstandard ist im Betrachtungszeitraum aber unwahrscheinlich. Der zweite Lösungsweg ist wahrscheinlicher. Mit weiter fortschreitender Integration und Reife softwaregesteuerter Systemelemente wird die sogenannte Multistandard-Fähigkeit bei Infrastrukturelementen und Endgeräten weiter wachsen, erste erfolgversprechende Lösungen drängen heute schon auf den Markt. Die Infrastrukturkomponenten werden dabei früher zur Verfügung stehen – erste Ansätze gibt es bereits. Bei den Endgeräten verzögern wieder mal die Randbedingungen eine schnelle Einführung: Über Software konfigurierbare Endgeräte erfordern hohe Rechenleistungen und haben damit einen hohen Energieverbrauch und geringere Batteriestandzeiten. Netzinfrastrukturen – nicht nur herrschen, auch teilen Es ist bekannt, dass die Anforderungen an die Leistungsfähigkeit der Netze in höherem Masse wachsen als deren mögliche Bildungsgesetze. Die wirtschaftliche Bereitstellung von Infrastruktur in einem ausgewogenen Maße und bei eher sinkenden Diensteumsätzen wird daher immer schwieriger. Die klassischen Netzbetreibermodelle geraten hier an ihre Grenzen. Es ist daher nicht verwunderlich, dass global so gut wie alle Prognosen über einen mittelfristigen Breitbandausbau den ehrgeizigen Zielen hinterherhinken. Als eine mögliche Verbesserungsstrategie werden große staatliche Subventionsprogramme angesehen (Beispiel: USA). Bisherige Erfahrungen zeigen jedoch eine recht geringe Wirkung. Dies ist dadurch begründet, dass Subven tionen erfahrungsgemäß die Probleme nicht bei der Wurzel anpacken und im Zeitalter vermehrt auftretender Wirtschaftsund Finanzkrisen schnell an ihre Grenzen stoßen. Hier müssen grundsätzlich neue Lösungen gefunden werden. Erste Ansätze gibt es: Weltweit haben sich daher schon seit einiger Zeit zahlreiche Initiativen gebildet, bei denen – auch konkurrierende – Netzbetreiber sich Infrastrukturaufwand teilen (sogenanntes Network Sharing). Dies kann zu einer deutlichen Effizienzsteigerung bei der Infrastrukturnutzung führen, ist aber ein komplexer und vielschichtiger Prozess, der technische, strategische, organisatorische und mentale Komponenten aufweist. Das Sharing muss sich dabei nicht auf reale Infrastrukturelemente beschränken, sondern kann auch virtuell sein. Es liegt nun nahe, diesen Gedanken auf alle Arten von Infrastrukturen im öffentlichen und privaten Bereich zu erweitern. Rein theoretisch sollte sich hier der größte Effizienzgewinn ergeben. Eine erste Analyse zeigt aber, dass hier auch die meisten Hürden zu überwinden sind, da viele agierende Parteien und 77 Detecon Management Report • 1 / 2011 Foto: Gemälde, Michael Sistig Spiel mit Grenzen Technology zahlreiche einschränkende Randbedingungen unter einen Hut gebracht werden müssen. Ein Fortschreiten auf diesem schon vereinzelt eingeschlagenen Weg ist aber unabdingbar und wird daher in unserem Betrachtungszeitraum erheblich an Bedeutung gewinnen. Infrastrukturen als „Besitzstand“ werden mehr und mehr in Frage gestellt werden müssen. Aber auch hier sind die bestimmenden Elemente nicht durch Prinzipien und Naturgesetze, sondern durch zahlreiche Randbedingungen eingeschränkt. Evolutionäre Prozesse sind also weiterhin angesagt. Die Zeit nach Moore – Qualität statt Quantität zählt Im Rahmen der weiter wachsenden Ansprüche an Kapazität sind die Grenzen in allen Netzbereichen zu erkennen. Flucht in Bandbreite zur Beherrschung von Qualitätsanforderungen ist Referenzen Detecon-Opinion Paper „ICT 2032 – Position for ICT everywhere“, Dr. Karl-Michael Henneking, Lars Theobaldt, Bernd Ettelbrück, Falk Wöhler-Moorhoff und Daniel dos Reis. DMR 4/2007: Mobile Breitbandnetze – was kommt da noch? Technische und wirtschaftliche Perspektiven zukünftiger Funktechnologien, Dr. H.-P. Petry, W. Knospe DMR 1/2009: Geschwindigkeit ist (keine) Hexerei. Leistungsfähigkeit von Mobilfunkstandards zwischen Wunschvorstellung und Realität, Dr. H.-P. Petry, D. Schultz DMR 3/2008: Zwei Seiten der Medaille. Mobile Kommunikationssysteme müssen Einfachheit und Komplexität integrieren, Dr. H.-P. Petry, J. Noronha DMR 2/2010: Betreiber zwischen Scylla und Charybdis. Wieviel Differenzierungspotenzial bietet die Leistungsfähigkeit der Netze?, Dr. H.-P. Petry, G. Salisbury, Dr. A. Schnitter DMR 1/2010: Gut geteilt ist doppelt gewonnen. Richtlinien für effizientes Infrastruktur-Sharing, D. Münning, H.-F. Ma, R. Abdallah Shannon Claude E., A Mathematical Theory of Communication, Bell System Technical Journal, Vol. 27, October 1948 Nyquist, H., Certain Factors Affecting Telegraph Speed, Bell System Technical Journal, April 1924 Hartley, R.V.L., “Transmission of Information”, Bell System Technical Journal, July 1928 heute schon in vielen Netzbereichen nicht mehr möglich, d iese Effekte werden sich verstärken. Mechanismen zur Verkehrs steuerung und entsprechende Optimierungen von Netzarchitekturen und Protokollen werden daher eine größere Bedeutung erlangen. Auf der kommerziellen Seite wird es eine Korrelation von Kapazität, Qualität und Kosten geben müssen. Aktuell wird dieser Punkt kontrovers diskutiert, es wird aber kein Weg daran vorbeiführen, mit den verfügbaren Ressourcen sorgfältiger und differenzierter umzugehen. Sie sind nun mal beschränkt und wir sollten doch aus vielen anderen Bereichen gelernt haben. Einfache Lösungen wird es nicht geben, das tiefe Verständnis gültiger Prinzipien, die effiziente Beherrschung komplexer Zusammenhänge, holistisches (Ende-zu-Ende) Denken sind mehr denn je ein Differenzierungsmerkmal. Wer das beherrscht, wird alle weiteren „Hypes“ überleben. Dr. Hans-Peter Petry ist als Managing Partner bei Detecon tätig und verantwortet die Leitung der Competence Practice „Communication Technology“. Gleichzeitig wurde er in das Executive Board von Detecon berufen. Dr. Petry ist Autor zahlreicher Publikationen mit dem Schwerpunkt Funktechnik und besitzt ausgeprägte Erfahrungen im Bereich drahtloser Technologien und deren Anwendungen im Bereich der Telekommunikation. Seine langjährige Management-Erfahrung im Herstellerumfeld sammelte er unter anderem bei Bosch Telecom, Marconi und Ericsson. Dort war Dr. Petry in verschiedenen leitenden Funktionen im Bereich Entwicklung, Produktmanagement und Business Development tätig. [email protected] George Salisbury ist Managing Consultant in der Gruppe Technology Strategy. Seine Beratungsschwerpunkte sind die Themen Next Generation Networks (NGN) und die Entwicklung von Technologiestrategien für internationale Telekommunikationsunternehmen. Vorher sammelte er mehr als vier Jahre Business- und Strategieerfahrung in führender Funktion bei einem weltweit operierenden Telekommunikationsunternehmen. Weitere 19 Jahre war er bei internationalen Telekommunikationsherstellern beschäftigt mit den Arbeitsschwerpunkten Design und Entwicklung von Sprach-, IP- und Datenkommunikationsnetzen für öffentliche und private Auftraggeber. Insgesamt verfügt er über mehr als 27 Jahre Erfahrung im Telekommunikationssektor und ist seit 1995 maßgeblich an der Entwicklung von NGN-Konzepten beteiligt. [email protected] Dr. Kai Grunert leitet die Gruppe Fixed Access & Transport Technologies. Schwerpunkt seiner Arbeit ist die Migration und Integration geplanter oder bestehender Zugangsnetze in ein für den jeweiligen Betreiber optimales NGN Szenario. Er studierte Maschinenbau an der TU München und promovierte zum Dr.-Ing. an der TU Berlin. [email protected] Foto: Gemäldeausschnitt, Michael Sistig 78 Detecon Management Report • 1 / 2011 Detecon publiziert ! Detecon publiziert ! Mehr Flexibilität für Kraftfahrzeugzulieferer Trendwechsel antizipieren – ICT flexibler gestalten In Ungewissheit über zukünftige Geschäftsanforderungen (z.B. wieviel Kapazität? wofür? wo?) ist eine Strategie der Flexibilisierung und Transparenz der Strukturen des eigenen Unternehmens die einzig sinnvolle Strategie für ein Unternehmen der Automobilzulieferindustrie. Dies betrifft sowohl die Re-Organisation im eigenen Unternehmen, die Zusammenarbeit mit Partnern vor-, gleich- und nachgelagerter Produktionsstufen als auch Zukäufe und Verschmelzungen mit anderen Unternehmen. Informations- und Telekommunikationstechnologie (ICT) liefert hier eine Reihe von nützlichen Methoden und Werkzeugen. Maßgeschneidert oder von der Stange? Grenzen und Möglichkeiten des Einsatzes von Standardsoftware in der Versicherungsbranche IT-Anwendungslandschaften bei deutschen Versicherern sind auf deren Anforderungen hin maßgeschneidert – und was die Kernanwendungen angeht, vielfach in die Jahre gekommen. Forderungen nach Modernisierung und Standardisierung der Applikationslandschaften sind seit den 90er Jahren zu hören. Software „von der Stange“ wird bis heute aber nur in wenigen Bereichen eingesetzt. Turning Data into Profit Success Factors in Data-Centric Business Models Das vorliegende Detecon Opinion Paper präsentiert die wichtigsten Erkenntnisse, wie Unternehmen effektiv ihre Datenbestände verwerten und gibt Empfehlungen für Führungskräfte, wie sie ihre Geschäftsmodelle anpassen sollten, um erfolgreich datenzentrische Methoden zu integrieren. Next Generation Mobile Application Management Strategies for Leveraging Mobile Applications Within the Enterprise Basierend auf den Detecon Application Lifecycle Management-Lösungen wurde ein LifecycleManagement-Framework für mobile Anwendungen entwickelt. In diesem Paper gibt der Autor einen Einblick in den Status quo des mobilen Applikations-Managements für IT-Organisationen. An Umsetzungsbeispielen wird eine bewährte Methodik dargestellt, wie eine mobile Applikations-Strategie aufgesetzt werden kann. Best Practices zeigen, wie der Lebenszyklus Ihrer mobilen Applikationen idealerweise gesteuert wird. Über weitere wichtige Themen aus dem ICT-Umfeld können Sie sich in unseren aktuellen Veröffentlichungen informieren. Alle Detecon-Publi kationen finden Sie unter www.detecon.com und www.detecon-dmr.com 79 Detecon Management Report • 1 / 2011 Detecon meets Young Art Detecon unterstützt zeitgenössische Künstler, die sich mit unseren Schwer punktthemen auseinandersetzen. Einzelne Arbeiten werden in jeder z weiten DMR-Ausgabe gezeigt. Die Werke sind in unseren Firmenräumlichkeiten ausgestellt, bevor sie der Stiftung Industriedenkmal NRW übergeben werden. Künstlerbiographien Michael Sistig (Seiten 72-73, 76-77, 78) 1982 geboren in Bonn 2003 Studium an der Kunstakademie Düsseldorf 2010 Meisterschüler bei Peter Doig Ausstellungen 2007 „K20 Kunstsammlung“ NRW Ernst&Young Benefizauktion, Düsseldorf 2008 „Art Cologne 2008“ - Galerie Oechsner, Nürnberg 2009 „Beyond the surface“, Artlab21, Los Angeles 2010 „Veranda am Haus zum Hades“, E105, Berlin 2010 „Get Closer, Aki Gallery“, Taipeh 2010 „Ballonmann Kopfgänger“, E105, Bonn Amely Spötzl (Seite 50) 1975 geboren in Biberach an der Riß 2001 Studium der Bildhauerei, Freie Kunst, Alanus Hochschule für Kunst und Gesellschaft in Alfter bei Bonn 2003 Staatliches Diplom, Bildhauerei / Freie Kunst Ausstellungen 2007 Atelierstipendium der Stadt Bonn/Kunstverein Bonn 2009 „Members Choice“, Kunstverein Heidelberg 2009 „Beyond the Surface“ artlab21 Contemporary Fine Art, Los Angeles 2009 „Open your Mind – New German Art” AKI Galery Taipeh 2010 „Urban Intervention “ L. A. Art Assosiation, Los Angeles 2010 „WORSHIP” Celebrity Vault, L.A./Hollywood 2010 „Nach der Natur” Wissenschaftszentrum Bonn Bernd Zöllner (Titelseite) 1962 geboren in Neustadt an der Saale 1996 Freier Fotograf 2008 Dozent für Fotografie an der Fachhochschule Bonn-Rhein-Sieg Ausstellungen 80 2007 „Investigations in Photography“, Counterpoint, Melbourne 2008 Wissenschaftszentrum Bonn 2009 „Open Your Mind“, Aki Gallery, Taipeh 2010 „Worship, Celebrity Vault“, Los Angeles Detecon Management Report • 1 / 2011 www.detecon-dmr.com DMR Das Magazin für Management und Technologie ESSAY: Schöne neue Welt – gute alte Fähigkeiten Detecon Management Report - 1 / 2011 Detecon Management Report - 1 / 2011 Moderne Technik sinn-voll nutzen Thomas Lünendonk Think ICT 2032! Mehr als ein Gedankenspiel Im Auge des Betrachters Zukunftsszenarien für unser Leben in Augmented Realities Spiel mit Grenzen Die Zukunft der Netze Detecon Management Report 1 / 2011