PDF-Download

Transcription

PDF-Download
Art meets Consulting
www.detecon-dmr.com
Detecon
Management Report
DMR
blue
Ausgabe 1 / 2015
Wir geben Kunst eine Bühne.
Die neue Detecon-Webseite ist online!
Internet der Dinge
Künstler haben unsere Themen neu interpretiert
und unsere neue Webseite mitgestaltet.
Wir stehen mit unseren Geschäftsfeldern
Besuchen Sie uns unter: www.detecon.com
Detecon Management Report
blue
Die Vernetzung globaler Information und Kommunikation.
• 1 / 2015
an einer der spannendsten Baustellen unserer Zeit:
Car-to-X-Technologien verändern die Zukunft :
K.I.T.T. Bitte kommen!
Interview mit Hagen Rickmann, T-Systems :
„Wir verstehen uns als Partner der Industrie
auf dem Weg zu Industrie 4.0“
Big Data für Telekommunikationsunternehmen :
Die Sweet Spots treffen – kurzfristige Chancen intern realisieren
Internet der Dinge
Liebe Leserinnen und Leser,
das Internet der Dinge verspricht eine neue, fast magische Welt – und viel Geld:
Wenn Anlagen und Geräte Messwerte und Sensordaten austauschen und ganze
Transaktionen selbständig steuern, verdienen die Unternehmen mit. Aber wer verdient wirklich? Fakt ist: Weder Telekommunikations- noch Industrieunternehmen
können bis heute signifikante Umsätze mit M2M verzeichnen.
Eine Standortbestimmung zeigt jedoch: Datenbasierte Geschäftsmodelle bestimmen die Zukunft, Industrie 4.0 ist ein wichtiges Konzept zur Standortsicherung
Deutschlands, das Wachstum für den „Internet der Dinge“-Markt nimmt Fahrt auf.
Bisherige Hürden wie Sicherheit und Datenschutz, Interoperabilität, aber auch die
einfache Nutzung aus Verbrauchersicht liegen inmitten des Blickfelds von Unternehmen und Forschungseinrichtungen, jede Errungenschaft in Sachen integrierbare
Standards verbessert die Rahmenbedingungen für die Erschließung eines großen
Marktpotenzials.
Dies bringt Branchen wie Automotive, Hightech und Health, aber auch die Telekommunikation, in die Pole Position. Und auch für den Handel setzt das Internet
der Dinge neue Impulse. Als Verbraucher dürfen wir uns in jedem Fall auf spannende Anwendungsszenarien freuen – it‘s all about magic!
Wir wünschen Ihnen eine anregende Lektüre und gute Unterhaltung.
Ihr
Francis Deprez
CEO, Detecon International GmbH
1
Detecon Management Report blue • 1 / 2015
Inhalt
Internet der Dinge und M2M – eine Definition
Das Übel aller Dinge: Der Mensch4
Internet der Dinge & Big Data
Die Zukunft datenbasierter Informationen ist nicht
länger zu ignorieren
6
Das Internet der Dinge und „seine“ Endgeräte
Strategische Bedeutung der Endgeräte wächst
durch ihre Vernetzung
8
Auswirkungen der Endgeräteflut auf die Mobilfunknetze
Ist der Kollaps unvermeidbar?
12
Industrie 4.0
Digital Navigator unterstützt bei der Umsetzung 16
Interview mit Hagen Rickmann, Geschäftsführer Sales,
T-Systems International GmbH
„Wir verstehen uns als Partner der Industrie auf dem
Weg zu einer Industrie 4.0“
20
Master Data Management
Shared Data im Internet der Dinge und in der Industrie 4.0 24
Interview mit Christian Renner, Investment Manager, hub:raum
„Das Internet der Dinge braucht massentaugliche
Use Cases, die jedem einleuchten“
28
Das Internet der Dinge als letzte Chance?
Der traditionelle Handel muss die Lücke zu erfolgreichen
Online-Händlern schließen
Impressum:
Herausgeber:
Detecon International GmbH
Sternengasse 14-16
50676 Köln
www.detecon.com
[email protected]
2
Detecon Management Report blue • 1 / 2015
Aufsichtsrat:
Thilo Kusch (Vorsitz)
Geschäftsführung:
Francis Deprez (Vorsitz)
Dr. Jens Nebendahl
Handelsregister:
Amtsgericht Köln HRB 76144
Sitz der Gesellschaft: Köln
Druck:
Druckerei Chmielorz GmbH
Ostring 13
65205 Wiesbaden-Nordenstadt
Fotos:
Fotolia
iStockphoto
32
Car-to-X-Technologien verändern die Zukunft
K.I.T.T. Bitte kommen!
36
Interview mit Dr. Sven A. Beiker, Geschäftsführender Direktor, CARS
„Datentechnisch wird das Auto das Mobiltelefon
noch übertrumpfen“
40
Business Insights
Big-Data-Technologien machen das Notwendige möglich
44
Implementierung von Big Data
Warum Prozesse und Kultur von zentraler Bedeutung sind
48
Big Data für Telekommunikationsunternehmen
Die Sweet Spots treffen – kurzfristige Chancen intern
realisieren52
Auswirkungen des Internet der Dinge auf die Transportnetze
Wie sich Netzbetreiber auf den Vormarsch der
Maschinen vorbereiten
56
M2M für Telekommunikationsunternehmen
Strategiedimensionen für den Eintritt in den M2M-Markt
62
Wearable Technology
Trends, Ökosystem und strategische Optionen für Carrier
68
Agile Economics
Eine Methode zur wirtschaftlichen Bewertung und Steuerung
von Innovationen wie Big Data
70
Wir bedanken uns bei den Co-Autoren:
Ingmar Haffke
Marcello Schermer
3
Detecon Management Report blue • 1 / 2015
Internet der Dinge und M2M – ein Definition
Das Übel aller Dinge: Der Mensch
M2M
n Anlehnung an Kevin Ashton „ist eines der größten
I­Probleme
des Internets – der Mensch.“ Der Mensch fungiert als
1
­ auptsächliche Datenquelle des Internets, erscheint jedoch, mit
h
seiner limitierten Zeit, Aufmerksamkeit und Genauigkeit, als
denkbar ungeeigneter Kandidat hierfür. Würden dahingehend
Dinge, welche alles wissen, was sie wissen müssen, ihr Wissen in
Form von Daten ohne menschliche Interaktion sammeln und
zu Informationen beziehungsweise Entscheidungen ­verarbeiten,
könnte alles dokumentiert, gemessen und verfolgt werden, bei
gleichzeitiger Reduktion von Datenmüll und -verlusten sowie
Kosten. Soweit zumindest Kevin Ashton.
Die Eliminierung der Fehlerquelle, des Engpasses „Mensch“, ist
ein Bestreben, das spätesten seit dem Zeitalter der Industrialisierung im Fokus der Menschheit steht. Nun hat es auch das
Internet erreicht. Also gut, der Hauptschuldige scheint identifiziert. Dann sollen doch diese Maschinen direkt mit­einander
kommunizieren! Aber Moment, sprechen wir dann von M2M
oder sind M2M und das Internet der Dinge identisch?
Der einschlägigen Fachliteratur scheint diese Antwort jedenfalls
nicht leicht zu fallen. Viele Experten sprechen vom Internet der
Dinge (Internet of Things, IoT) und M2M in einem Atemzug,
andere befassen sich mit einer Abgrenzung beziehungsweise
Definition der Begriffe aus unterschiedlichsten Betrachtungswinkeln. Bei einem Detail ist sich der überwiegende Teil der
Autoren aber einig: IoT und M2M kommen in einer verworrenen Zweisamkeit daher.
1 That ‚Internet of Things“ Thing, RFIS Journal, July 22, 2009
2 Siehe hierzu z.B. Wikipedia.de „Telemetrie“
4
Detecon Management Report blue • 1 / 2015
Der Ursprung von M2M liegt in der Telemetrie, also der
­Fern­übertragung von Messwerten einer Messeinheit beziehungs­­
weise mehrerer Messeinheiten an eine physisch g­etrennte
­Empfangsstelle. M2M grenzt sich hierbei durch den gegen­
seitigen und automatisierten Informationsaustausch von Endgeräten – Sensoren und Modulen – mit einer zentralen Leitstelle
und der Verknüpfung von Informations- und Kommunikationstechniken von der Telemetrie ab, welche die reine Übertragung
von Messdaten über eine größere Entfernung ­beschreibt.2
Eine M2M-Lösung besteht aus voneinander abhängigen Komponenten, zum Beispiel der Hardware (­ Module, ­Sensoren), dem
Kommunikationsnetzwerk und den IT-Bestandteilen (Solution,
Plattformen, Integrationsdienst­leistungen). Die Orchestrierung
dieser Komponenten ­
bedarf einer engen Kooperation zwischen Solution Providern, ­Telekommunikationsunternehmen
und Kunden. Dies ist vor allem darin begründet, dass M2M-­
Lösungen einem speziellen oder einem engen Verbund an zuvor
definierten Geschäftszwecken dienen. Es handelt sich demnach
um alleinstehende oder proprietäre Lösungen, welche in Geschäftsprozessen zur ­Erfüllung eines bestimmten Zwecks und
dessen Selbststeuerung integriert werden müssen und aus bekannten Bestandteilen ­besteht. ­Dabei werden Daten von den
Sensoren gesammelt und von den M
­ odulen über ein Kommunikationsnetzwerk, das auch aus ­einer Punkt-zu-Punkt-Verbindung bestehen kann, an Server oder Datenbanken zur weiteren
Auswertung geschickt.
Internet der Dinge
Von M2M zum Internet der Dinge
Das Internet der Dinge hat ­seine ­Ursprünge in den 90iger
Jahren. Es wurde zunächst in den „Ubiquitous Computing“Konzepten von Mark Weiser ­umschrieben und fortan weiterentwickelt. Der G
­ rundgedanke bei IoT liegt in der Erweiterung
des Internets um beliebige ­physische Objekte über deren bestehende Funktionen hinaus.
Unabhängig von den Ursprüngen von M2M und IoT stellt die
Verschmelzung von IT und Kommunika­tionstechnologien für
beide Ansätze eine notwendige Bedingung dar. Auf Grund der
weitestgehend identischen Basiselemente und im Zuge der Weiterentwicklung von ICT haben sich beide Begriffe aufeinander
zubewegt. Das Konzept hinter IoT geht jedoch in Bezug auf die
Offenheit gegenüber der Einbindung von Datenlieferanten und
-anwendern über die Anwendungen von M2M hinaus und erlaubt weitaus komplexere und funktionalere Anwendungsfälle.
Wir gehen hier jedoch weiter und definieren, dass im Internet der Dinge physische Objekte miteinander über internet­
ähnliche, sich teilweise selbstorganisierende Strukturen und
deren Kommunikationsprotokolle verbunden werden. Dabei
bedeutet „selbstorganisierend“ in diesem Falle, dass die Kommunikation sich selbstständig einen neuen Weg zum Ziel sucht,
falls einer der Verbindungsknoten zwischen Quelle und Ziel
ausfällt. Die Objekte sind damit nur noch sehr locker miteinander verbunden („loosely coupled“), es gibt keine dedizierte
Punkt-zu-Punkt-Verbindung zwischen ihnen, sondern sie bilden offene Informationsökosysteme.
Objekte des IoT sind dabei nicht zwingenderweise aktive
­Sensoren, Module oder Sender und Akteure von Daten, s­ ondern
können mittels RFID, Strichcode und QR-Code auch passive
Objekte sein. Die Verbindung beliebig vieler Objekte über internetähnliche Strukturen, die natürlich auch das Internet selbst
sein kann und im allgemeinen zur Zeit auch ist, führt zu einem
enormen Anstieg des Datenvolumens und der damit einhergehenden Problematik, diese Daten zu sammeln, zu analysieren
und strukturieren und entsprechend der IoT-Anwendung zu
nutzen.
Dieses Datenaufkommen wird im IoT in der Cloud ­gespeichert.
Es lässt sich also nicht sagen, auf welchem Server physikalisch
genau die Daten gespeichert sind. Weiterhin lassen sich die
­Daten aus verschiedenen Quellen über (offene) Schnittstellen
von verschiedenen Anwendungen, die Zugriff auf diese Schnittstellen haben, abrufen und verarbeiten, um neue Dienste bereit
zu stellen.
Verbindungen, welche bei M2M-Lösungen noch zwischen dedizierten und bekannten Partnern stattfinden, werden im IoT-Fall
auf internetähnliche, sich selbstorganisierende Strukturen verlagert. M2M-Lösungen für hochspezialisierte Anwendungsfälle
mit eigenen Datenquellen stehen Informations­ökosystemen im
IoT gegenüber, welche sich mittels offener Schnittstellen weiteren Nutzergruppen zur Verfügung stellen. Die Verarbeitung von
Daten, welche im M2M-Fall auf dedizierten Servern stattfindet,
wird bei IoT auf die Cloud unter vermehrter Einbindung von
Big-Data-Technologien verlagert.
IoT kann demnach als ein nachgelagerter Evolutionsschritt
für M2M-Lösungen gesehen werden. Diese Evolution wird
in ­vielen Anwendungsfällen und vertikalen Industrien zu beobachten sein. Ein Beispiel ist der Markt für ­Wearables. Sind
die derzeitigen Geräte und Anwendungen noch in geschlossenen Systemen auf die Erfüllung eines bestimmten Zweckes
ausgerichtet, werden sich in Zukunft Informations­ökosysteme
um die Wearables bilden, die die Einbindung und den Informationsaustausch von weiteren Geräten und Diensten erlauben. Dedizierte M2M-Lösungen werden weiterhin parallel
existieren. Dies gilt zum Beispiel für Lösungen mit besonders
hohen Anforderungen an Sicherheit und Datenschutz. M2M
und IoT werden daher auch in ­Zukunft parallel existieren. ­Der
Trend wird zu IoT-Lösungen gehen, da hier nahtlos Menschen,
Kommunikationsgeräte, Maschinen und Dienste miteinander
agieren und somit weitreichendere Anwendungen verwirklicht
werden können.
5
Detecon Management Report blue • 1 / 2015
Internet der Dinge & Big Data
Die Zukunft
datenbasierter
Geschäftsmodelle
ist nicht länger
zu ignorieren
Zwei Begriffe wurden in den letzten Monaten zu den Buzzwords der Technologiewelt: Internet der
Dinge und Big Data. Beide zeigen die grundsätzlichen Veränderungen auf, die Unternehmen in ihren
Geschäftsstrategien künftig beeinflussen. Und sind absolut branchenübergreifend relevant.
nternet der Dinge – worum geht es dabei eigentlich?
I­Üblicherweise
ist hierunter eine internetähnliche Struktur zu
verstehen, in der physische Objekte über eine Netzwerkkonnektivität verfügen, die es ihnen erlaubt, online untereinander
zu kommunizieren. Ebenso sind mächtige Analysetools verfügbar, um Informationen weiter zu verarbeiten, die in sehr großen
Mengen als strukturierte und nicht-strukturierte Daten vorliegen. Grob gesagt, erstreckt sich Internet der Dinge (Internet of
Things, IoT) auf drei große Bereiche: die Datensammlung, den
Datentransport und die ­Datenanalyse.
Einsatz von Lösungen steht noch am Anfang
Ein Schlüsselfaktor ist die immense Datensammlung, die
von vernetzten Geräten erzeugt werden, etwa von tragbarer
­„wearable“ Elektronik, Sensoren, vernetzten Fahrzeugen, intel-
6
Detecon Management Report blue • 1 / 2015
ligenten (Strom-)Zählern oder Geräten zur Gesundheitsüber­
wachung. Da IoT-Geräte laufend Daten generieren, sind riesige
Mengen an Daten über – meist drahtlose – Netze zu transportieren. Und dies, obwohl der Datenverkehr im Internet schon
unabhängig davon bereits in exponentiellem Ausmaß wächst.
Hochentwickelte Softwareanalysen, die auf Big-Data-Technologien basieren, ermöglichen aufgrund der dann nahezu in Echtzeit möglichen Speicherung, Konsolidierung und Analyse von
Daten weitaus bessere Einblicke ins eigene Geschäft. Hierdurch
erwachsen wiederum deutliche Wettbewerbsvorteile gegenüber
weniger datengetriebenen Ansätzen.
Obwohl weltweit die Unternehmen beginnen, sich mit IoT und
Big Data zu befassen, zeigte kürzlich eine Gartner-Studie, dass
derzeit nur acht Prozent der Unternehmen solche Lösungen
einsetzen. 57 Prozent wiederum befinden sich gerade in dem
Stadium, Strategien zu entwickeln, um irgendwie die schier
endlosen Möglichkeiten von wertvollen Einblicken in Kunden,
Güter, Prozesse und die gesamte Wertschöpfungskette neu zu
erschließen und ausschöpfen zu können.
Doch wenn vernetzte Geräte und Einblicke in darin ­gesammelte
Daten so wertvoll sind, warum ist das Internet der Dinge nicht
schon jetzt allgegenwärtig in den Geschäftsstrategien präsent?
Die Hürden l­ agen in den komplexen Wertschöpfungsketten, die
bis dato vor allem auf teils konkurrierenden und fragmentierten
Standards sowie sehr verteilten Anwendungen und Plattformen
beruhen. Auch die technische Reife, etwa bei Batterieleistungen
für Geräte und Sensoren, hat sich nicht schnell genug weiter
entwickelt, um die langfristige Funk­tion ohne neues Aufladen
zu garantieren. Zudem verhinderten ­nationale Regulierungen
und komplexe Roaming-Verein­barungen das schnelle Vordringen der vernetzten Geräte.
Analytische Einblicke von unschätzbarem Wert
Heute, dank reiferer, technologischer Ökosysteme und einem
klaren Nachfrageplus, sind die Kosten für Hard- und Software
deutlich gesunken. Datennetzwerke erstrecken sich nun aufgrund internationaler M2M-Allianzen und steigender Wi-FiAbdeckung über nationale Grenzen hinweg. Gleichzeitig treibt
das Aufkommen von Cloud-Services und mobilen Geräten die
Entwicklung einer neuen Generation geschäftlicher Anwendungen voran. All diese Trends zusammen geben Grund zur
Annahme, dass sich der Markt für IoT und Big Data kurz vor
einer deutlich beschleunigten Wachstumsphase befindet.
Big Data wird aller Voraussicht nach ein unverzichtbares Werkzeug für jedes Geschäftsmodell werden. Die analysierten Datentypen reichen von „Maschine-zu-Maschine“ (Sensoren,
GPS, Logdateien), über „Mensch-zu-Maschine“ (E-Commerce,
Finanztransaktionen) bis hin zu „Mensch-zu-Mensch“ (Social
Networks, virtuelle Communities). Während in der alten, analogen Welt noch endliche Mengen an strukturierten Daten vorliegen, besteht die Big-Data-Welt zum großen Teil aus zahllosen,
­unstrukturierten und somit nicht vordefinierten Daten, die darüber hinaus auch in einer Vielfalt unterschiedlicher Quellen
entstehen. Wichtig für das Verständnis ist allerdings, dass Big
Data nicht aus den Daten selbst seinen Wert erzielt, sondern aus
der Information, also den analytischen Einblicken, die sich aus
den Umgebungsdaten ableiten lässt.
Der Einsatz von strukturierten und unstrukturierten sowie internen und externen Daten wird wohl bald erfolgreiche und
weniger erfolgreiche Unternehmen voneinander unterscheiden.
Die zielgenaue Identifikation von Datenmustern und deren Interpretation wird dann zum Wettbewerbsvorteil. Denn nicht
nur Kosteneinsparungen, sondern auch der Aufbau von besseren, maßgeschneiderten Produkten und weiteren Innovationen
sind zu erwarten.
Das hohe Innovationstempo im Bereich „Big Data“ zieht auch
Investoren an: Der Fluss von Venture Capital und institutionellen Investments in Big-Data-Unternehmen stieg in den
letzten Jahren signifikant an, alleine in 2013 wurden weltweit
3,6 Milliarden US-Dollar darin investiert. Vor allem junge und
innovative Unternehmen prägen diese Entwicklung. Dies heißt
auch, dass Organisationen, die auf den Zug aufspringen wollen, nicht nur den jetzigen Status kennen müssen, sondern sich
auch künftig stets am Puls der Zeit sich entwickelnder Trends
bewegen sollten.
Konvergenz von Big Data und Cloud Services wirkt
zeit- und kostenschonend
Neben den zahllosen Varianten industriespezifischer Trends ist
als wesentliche, hervorzuhebende Tendenz vor allem die zunehmende Konvergenz von Big Data und Cloud Services zu
nennen. Früher nutzten Unternehmen für ihre Entscheidungen
in der Regel ihre eigenen, gespeicherten Daten in Data Warehouses. Der Betrieb solcher Analyse-Infrastrukturen war aber
zeit- und kostenintensiv. Künftig können Unternehmen jedoch
auf Drittanbieter zurückgreifen, die je nach Bedarf fast unendlich skalierbare, Cloud-basierte Big-Data-Services erbringen.
Zusätzlich zur effizienteren Speicherverwaltung werden dann
Cloud-Lösungen den Unternehmen helfen, Silos aufzubrechen
und alle Daten in einer umfassenden Cloud zu sammeln, auf die
jederzeit und überall zugegriffen wird.
Big Data wird, befeuert vom Wachstum vernetzter Geräte
und Fortschritten bei Cloud Computing, Unternehmen vielschichtig darin unterstützen, ihre Strategien umzusetzen, Entscheidungen zu treffen, Produkte zu entwickeln und Kunden­
wünsche zu erfüllen. Diese fundamentale Entwicklung wird
alle Branchen betreffen, von der Telekommunikation bis zur
Gesundheitsbranche, über die Logistik, den Handel und die
­Industrie bis hin zur Energiewirtschaft. Big Data sollte daher als
Weg erkannt werden, um finanzielle Ergebnisse zu verbessern
und nachhaltiges Wachstum zu erzeugen.
Daniel Kellmereit ist als CEO Detecon Inc. für den gesamten
nord- und südamerikanischen Markt verantwortlich. Er verfügt
über umfangreiche Erfahrungen in den Bereichen Innovation,
Marketing, Unternehmensentwicklung und Wachstums­
strategien. Er arbeitet mit Kunden in der Telekommunikations-,
Internet-, Hardware-, Software- und Dienstleistungsbranche
sowie mit Investoren.
7
Detecon Management Report blue • 1 / 2015
Das Internet der Dinge und „seine“ Endgeräte
Strategische
Bedeutung der
Endgeräte wächst
durch ihre Vernetzung
Für den Markt des Internet der Dinge existieren bereits viele Anwendungs­szenarien.
Was fehlt, damit Unternehmen diese mit einer ­Vielfalt an Endgeräten reibungslos umsetzen können?
Ein Konzept, das wichtige Fragen hinsichtlich Sicherheit und Datenschutz, Installation und Handhabung
sowie Interoperabilität löst.
werden je nach Schätzung und Schätzendem zwischen
214 020
(ABIresearch, Strategy Analytics, Detecon) und mehr als 40
Milliarden Endgeräte (Ericsson) miteinander und mit Datenservern verbunden sein, um Daten zu sammeln und größere
Systeme aufgrund der ausgewerteten Daten zu steuern.
Das Internet verbindet nicht länger nur PCs und Notebooks
miteinander
Miteinander vernetzte Geräte werden sich innerhalb weniger
Jahre in all unseren Lebensbereichen durchsetzen. Sie eröffnen
große Möglichkeiten im Bereich der Dienste und Produkte,
werfen aber auch technische, kommerzielle, regulatorische und
legale Herausforderungen auf.
Durch die Verknüpfung von Internet und realen Dingen im
Universum des Internet der Dinge (Internet of Things, IoT)
ergeben sich viele neue Anwendungsgebiete. Manche darunter,
zum Beispiel die „Augmented Reality“, sehen zunächst wie Spielerei aus, bieten aber durchaus ernsthafte Anwendungsszenarien
wie das Head-up Display im Auto, wo Umgebungs- und Navigationsinformationen kein eigenes Display mehr haben, sondern von innen auf die Windschutzscheibe projiziert werden.
8
Detecon Management Report blue • 1 / 2015
Auch die meisten Wearables werden noch immer im Fitnessbereich eingeordnet. Dabei steckt gerade im Bereich des Pervasive
Computing ein großes Potenzial. Zu denken ist beispielsweise
an den Health­care-Bereich, wo Kleidung mit verschiedenen
Vitalfunktions-­Sensoren unmerkbar für den Träger ausgestattet
ist. Auch Google Glass hat durch offene Schnittstellen und eine
frei zugängliche Entwicklungsumgebung ein großes Potenzial
für „Augmented Reality“-Anwendungen.
Durch technische Entwicklungen sind viele Geräte seit relativ
kurzer Zeit in Preisregionen vorgestoßen, in denen sie für den
Massenmarkt interessant oder für bestimmte Aufgabenbereiche
sogar erst nutzbar werden. Hierunter fällt die (Weiter-)Entwicklungen der „Rechenkraft“. Demgegenüber stehen die Entwicklungen in der Displaytechnologie, die zum Beispiel kleine Standarddisplays immer billiger werden lassen und gleichzeitig im
High-end-Bereich immer höhere Auf­lösungen auf kleinen Displays realisieren. Mit Blick auf die IoT-Anwendungsfälle nicht
zu vergessen sind die immer günstiger und kleiner werdenden
Funkmodule sowie die Bemühungen, Strom zu sparen. Solche
Stromsparansätze benötigen jedoch eine kombinierte Vorgehensweise in Hard- und Software, damit die Geräte mit kleinen
Batterien monatelang auskommen.
Der Einfluss der Endgeräte auf unser Leben wächst
Aber wie werden diese miteinander verbundenen Geräte unser Leben beeinflussen? Und in welchen Bereichen wird das
passieren? Dass vernetzte Endgeräte unser privates und berufliches Leben durchdringen, steht außer Frage. Am Beispiel der
„Connected Cars“ kann man diesen Einfluss sowohl für den
geschäftlichen als auch für den privaten Bereich erleben: Autos
können sich miteinander verbinden, um Sensorwerte anderer
Autos über Temperatur, Geschwindigkeit und Straßenbeschaffenheit, beispielsweise Aquaplaning-Warnung eines entgegenkommenden Fahrzeugs, auszuwerten. Anhand dieser Informationen kann dem Fahrer eine Warnung angezeigt werden oder
sogar eine autarke Reaktion des Fahrzeugs erfolgen. Ein anderer,
eher genereller Anwendungsfall ist „Industrie 4.0“. Mit Hilfe
von Sensoren wird eine schlanke Produktion von physikalischen
Gütern angestrebt bei gleichzeitiger optimaler Ausnutzung der
beteiligten Maschinen, die so effizient ist, dass auch individuelle
Produkte, also Produkte mit Losgröße 1, wirtschaftlich und mit
Gewinn für den Produzenten gefertigt werden können.
Smart Cities hingegen bilden quasi alle möglichen IoT-Anwendungsfälle unter einem einzigen gemeinsamen Dach ab. Integriert werden können sowohl die intelligente Verkehrsführung,
um Staus zu vermeiden und die Bewohner durch Geräte des
Connected Car ohne Verzögerung zu einem freien Parkplatz
zu leiten, als auch die Unterstützung von Healthcare-Anwendungen, zum Beispiel durch Wearables, die bei Schwangeren die
Vitalfunktion des Kindes und der werdenden Mutter messen und
mithilfe des Smartphones sowohl Regelunter­suchungstermine
als auch außerplanmäßige Termine mit dem behandelnden
Arzt vereinbaren, zu denen dem Arzt die gemessenen Daten der
Wearables auch vorliegen.
Auch der „Smart Port“ kann zu den Anwendungsfällen innerhalb der Smart City gehören. Im intelligenten Hafen werden
durch die Vernetzung der Container und der Transportfahrzeuge
die Transportwege und Ladezeiten optimiert. Ziel ist es, durch
den Einsatz von Sensoren und intelligenter Steuerungstechnik
die Zeiten und Wege so zu optimieren, dass mehr Schiffe als
zuvor mit denselben Ressourcen be- und entladen werden können. In der Realität ist allerdings schon die Be- oder Entladung
eines einzigen Schiffes mehr pro Tag unter Verwendung derselben Ressourcen ein logistischer und auch vor allen Dingen ein
finanzieller Erfolg.
Enabler und Treiber für das Internet der Dinge
„Enabler“ für die immer weitergehende Verbreitung von vernetzten Geräten sind im technischen wie auch im kommerziellen Bereich zu finden. Zunächst einmal ist der technische
Fortschritt zu nennen: Erst die Miniaturisierung von Sensoren
und Prozessoren macht beispielsweise Wearables mit einer annehmbaren Größe und einem tragbaren Gewicht erst möglich.
Durch die Smartphone-Revolution hat inzwischen fast jeder
seinen eigenen Computer in der Hosentasche, auf dem man für
viele Dienste eine Anwendung herunterladen kann, die einem
direkt und auf einen Blick Daten von Sensoren visualisiert
und es möglich macht, weit entfernte Geräte zu steuern. Diese
Marktdurchdringung von kleinen und leistungsstarken Computern, die nebenbei auch noch telefonieren können, ist einer
der Schlüssel des Internet der Dinge zum Massenmarktgeschäft.
Während es früher ein mühseliges Geschäft war, M2M- und
IoT-Anwendungen zu entwickeln und auf spezielle Geräte anzupassen, bieten viele Gerätehersteller heute zumindest Soft­
waretreiber zur Steuerung ihrer Geräte an. Sie haben inzwischen
Abbildung: Entwicklung der Zahlen für internetfähige mobile Geräte (in Milliarden)
14,5
12,4
10,4
11,8
8,6
7,0
5,7
5,2
9,9
8,2
6,6
IoT-Geräte
4,1
andere Geräte
1,6
1,8
2,0
2,2
2,5
2,7
2014
2015
2016
2017
2018
2019
Jahr
Quelle: ABIresearch, Strategy, Analytics, Detecon
9
Detecon Management Report blue • 1 / 2015
das Potenzial von M2M und dem Internet der Dinge erkannt.
M2M-Plattform-Hersteller und Software-Ökosystem-Hersteller wie Apple oder Google bieten sogenannte „Application Programming Interfaces“ (APIs) an: Softwarebibliotheken, die dem
Anwendungsentwickler allgemeine Standardaufgaben wie den
Aufbau einer Datenverbindung und spezielle Aufgaben innerhalb eines IoT-Anwendungssegmentes, zum Beispiel die Messung des Herzschlags für eine Healthcare-Anwendung abnehmen. Dadurch wird dem Entwickler die Möglichkeit gegeben,
sich mehr auf die Logik und die Problemlösung innerhalb seiner
Anwendung zu konzentrieren.
Auf der kommerziellen Seite war die Datenübertragung über
Mobilfunknetze lange Zeit eine recht teure Angelegenheit.
Viele Kunden befürchteten einen „Bill Shock“. Inzwischen
sind die Tarife aber auf breiter Front günstiger geworden und
im privaten Bereich oft einer „Datenflatrate“ gewichen. Für die
Ausrüstung von M2M-Geräten mit SIM-Karten gibt es M2MSIM-Karten, die aufgrund der speziellen Nutzung sehr günstige
Konditionen enthalten. Auch die Preise vieler Sensoren und anderer Geräte, die man für eine IoT-Anwendung benötigt, sind
rapide im Preis gefallen und ermöglichen so den Anwendungen
den Zutritt zum Massenmarkt.
Ein großer Treiber des Geschäftes mit dem Internet der Dinge
ist auf Seiten der Telekommunikationsfirmen der Rückgang des
traditionellen Geschäfts mit SMS und Sprachtelefonie sowie die
Suche nach neuen Geschäftsfeldern, die auch mit den Kernkompetenzen wie der Kommunikationsübermittlung etwas zu
tun haben. Hier wird von den Netzwerkoperatoren und den
Herstellern von Netzwerkausrüstung, M2M- und IoT-Plattformen und -geräten ein großes Potenzial gesehen.
Auch in Bereichen wie der Automobilindustrie sind einerseits
Kostenoptimierungen, zum Beispiel durch Industrie 4.0 oder
die Erhebung von Fahrzeugdaten im Connected Car, anderer­
seits die Erschließung neuer Geschäftsfelder, zum Beispiel durch
neue Geschäftsmodelle mit dem Connected Car, die vordergründigen Treiber für die Entwicklung des IoT-Geschäftsfeldes.
… kann man damit auch Geld verdienen?
Aber wie können Unternehmen mit dem Internet der Dinge
und seinen Endgeräten Geld verdienen? Diese Frage ist bis jetzt
nicht unbedingt eindeutig von den Spielern im Markt beantwortet worden. Allerdings glauben inzwischen alle großen Firmen
an das Potenzial in diesem Markt. Ein Indikator ist s­icherlich
das Bestreben von Apple und Google – den G
­ iganten, die den
Smartphone-Markt praktisch unter sich aufteilen –, mit ihrer
Softwareplattform und dem angeschlossenen Ökosystem in
10
Detecon Management Report blue • 1 / 2015
den Markt zu drängen. Gleichzeitig lässt sich am Engagement
von Google und Apple ablesen, welchen Anwendungsgebieten
im Internet der Dinge sie das größte Potenzial zutrauen: ­Beide
Firmen bieten eine Plattform(-erweiterung) und Entwicklungsunterstützung für das „Connected Home“ an und stützen diese
mit Zukäufen kleinerer Spezialfirmen in diesem Bereich, ­Google
zum Beispiel mit dem Zukauf von sieben Robotik­firmen in
2013 und den Firmen „Boston Dynamics“, „Nest“ und „DeepMind“. Ebenfalls bieten beide Firmen seit kurzer Zeit Lösungen
für den Entertainmentbereich im Auto an. Google geht allerdings noch einen großen Schritt weiter als Apple und forscht
bereits seit Jahren erfolgreich am Thema „autonomes Fahren“,
so dass erste autonome Google-Fahrzeuge 2014 unter Auflagen
eine Straßenzulassung in Kalifornien bekommen haben. Microsoft und Blackberry sind etwas weniger auffällig in diesem Bereich tätig – Blackberry hat im August 2014 eine Abteilung zur
Entwicklung von Software für die Geräte des Internet der Dinge
gegründet.
Wenn all diese Firmen derartige Anstrengungen unternehmen,
um frühzeitig im Markt für das Internet der Dinge an führender Position präsent zu sein, dann muss ja hier irgendwie Geld
zu verdienen sein! Aber was hat die Spezialfirmen, Telekommunikationsunternehmen und sonstige Spieler auf diesem Markt
bis jetzt davon abgehalten, große Umsätze und Gewinne „einzustreichen“? Zunächst einmal ist es für die meisten Anwendungsfälle im „Internet der Dinge“-Bereich bis jetzt versäumt
worden, dem potenziellen Kunden einen Nutzen der zur Zeit
auf dem Markt befindlichen Anwendungen, für den er auch bereit ist, entsprechend zu bezahlen, aufzuzeigen. Warum sollte
sich ein Kunde ein „Smart Meter“ zur intelligenten Messung
seines Stromverbrauchs für mehrere hundert Euro kaufen, wenn
er damit nur seinen Stromverbrauch „online“ sehen kann? Hier
fehlt es eindeutig noch an einem Anreiz. Denkbar wäre ein
Anreiz finanzieller Art in Form einer Strombörse, mit der der
Kunde seine Kosten über niedrigere Strompreise senken kann.
Gerade am Beispiel der „Smart Meter“-Anwendung kann man
gut erkennen, dass zu vielen Anwendungen ein entsprechendes
Ökosystem gehört, ohne das ein Gerät und seine Anwendung
im Internet der Dinge noch nicht viel Sinn macht. Ein Gegenbeispiel sind die großen Anstrengungen, die derzeitig in der Industrie unternommen werden, um Ökosysteme für den „Industrie 4.0“-Anwendungsfall zu konzipieren und aufzubauen, zum
Beispiel Audi mit der „Future City Factory“.
Zurzeit steckt der Markt allerdings noch in den Kinderschuhen.
Auf der einen Seite gibt es noch wenig Erfahrung, ob die neuen
Geschäftsmodelle greifen und wie viel Geld sich wirklich mit
dem Internet der Dinge verdienen lässt. Auf der anderen S­ eite
fehlen, gerade im Connected-Cars-Anwendungsfall, einfach
noch die Ökosysteme, um das volle Potenzial der IoT-Geräte
und ihrer Anwendungen auszuschöpfen.
Wachsende Herausforderungen für Endgeräte im Internet der
Dinge
Der Markt entwickelt sich jedoch immer rasanter. Momentan
sieht es so aus, als würde die Klärung wichtiger Fragen mit dieser Entwicklung nicht ganz Schritt halten.
Eine der großen Herausforderungen des Internet der Dinge ist
beispielsweise die Standardisierung. Über die Standardisierung
auf Hardwareschnittstellenebene, um zwei Geräte einfach miteinander verbinden und die gegenseitige Funktionalität nutzen
zu können, hinaus geht es auch um die Standardisierung auf
Softwareebene, also die Schnittstellen innerhalb eines Application Programming Interface. Damit muss nicht jede Anwendung für jedes Endgerät neu angepasst werden.
Um jedoch in den Massenmarkt zu kommen, ist nicht nur ein
Umdenken in Richtung der Anwendungsentwickler, sondern
auch in Richtung Kunden unbedingt nötig: Es müssen einfach
zu installierende After-Market-Lösungen angeboten werden, die
auch ein Laie anhand von farbig markierten Anschlüssen und
sonstigen Hilfsmitteln einfach und sicher installieren kann.
Eine andere große Herausforderung betrifft die Daten, die von
den Endgeräten geliefert und auf Servern „in der Cloud“ verarbeitet werden. Zunächst einmal ist zu klären, wem die von den
diversen Systemen im Auto erhobenen Daten gehören. Wer darf
diese Daten wie und wo speichern und verarbeiten? Solange diese Fragen nicht vom Gesetzgeber abgesichert werden, befinden
sich die IoT-Anwendungs- und Diensteanbieter in einer rechtlichen Grauzone.
Aber nicht nur die Datensicherheit ist eine Herausforderung.
Auch für die Ende-zu-Ende-Sicherheit, von der Gerätesicherheit
der Sensoren und der gesicherten Übertragung der gesammelten
Daten über die IT-Sicherheit der Datenbänke und Webserver
für die Speicherung und Visualisierung der Daten bis hin zur
Applikations- und Betriebssystemsicherheit für die Geräte, die
diese Daten visualisieren, gibt es noch kein standardisiertes und
vollständig implementiertes Sicherheitsframework, sondern nur
Sicherheitsimplementierungen für einzelne Hot-Spots, zum
Beispiel Betriebssysteme, Datenübertragung über LTE oder
­Sicherheit in der Cloud.
Das Gerätemanagement ist eine weitere Herausforderung im
IoT-Bereich, die nicht immer im Fokus der Endgeräte- und
Plattformhersteller steht. Aufgrund der geringen Margen im
IoT-Geschäftsumfeld sollten Fahrten eines Servicetechnikers zum Endgerät, zum Beispiel aufgrund eines notwendigen Softwareupdates, möglichst vermieden werden. Über eine
Mobile-Device-Management-Lösung können die Geräte einer
IoT-Anwendung zentral verwaltet und bei Bedarf mit neuer
Gerätesoftware, neuen Parametern oder einer neuen Sicherheitsrichtlinie „over-the-air“ ausgestattet werden. Dieses Gerätemanagement ist zurzeit in den meisten M2M-Plattformen nur
rudimentär enthalten. Auch die Hersteller von Mobile-DeviceManagement-Lösungen, die sich bis jetzt eher auf Smartphones
und ­Tablets fokussiert haben, halten sich merklich zurück. Die
Komplexität liegt in der Vielfalt der Gerätesoftware für Sensoren und anderen spezialisierten M2M-Geräten. Hier existiert
eine fast unüberschaubare, historisch gewachsene Fülle, so dass
einzelne Geräte(-familien) erst mühsam über Zusatzprogramme
und mit Hilfe des Geräteherstellers in die MDM-Software integriert werden müssen. Diese Integration bedeutet einen hohen
Aufwand für die Plattformhersteller – dieser wird jedoch auf
mittlere bis langfristige Sicht nötig sein, um den Kunden ein
kostenoptimiertes Gerätemanagement anbieten zu können.
Was unter dem Strich übrigbleibt…
Der Markt des Internet der Dinge bietet ein großes Marktpotenzial für Endgeräte und entsprechende Applikationen, insbesondere wenn man nicht nur den Geschäftskundenmarkt,
sondern auch den Endkundenmarkt betrachtet. Bevor dieser
Markt aber richtig durchstarten kann, sind größere und kleinere Hürden zu nehmen: Sicherheit und Datenschutz, einfache
Installation und Handhabung sowie die Interoperabilität. All
diese Herausforderungen tauchen nicht zum ersten Mal auf,
sondern sind schon in anderen Kontexten hervorgetreten und
auch gelöst worden. Ein Hersteller oder Herstellergremium,
der oder die ein ­interoperables Ökosystem mit standardisierten
Hardware- und Softwareschnittstellen, ein Konzept zur Integration eines vollständigen Gerätemanagements für alle Arten von
IoT-­Geräten und ein Ende-zu-Ende-Sicherheitskonzept anbieten könnte, würde sich sowohl bei Geschäftskunden als auch
bei Endkunden einen nicht zu unterschätzenden Wettbewerbs­
vorteil ­sichern können.
Claus Eßmann ist Senior Consultant und Experte für M2M und das Internet der Dinge. Er ist Mitglied des Connected Car Solution Center und berät
­Unternehmen der Automobil- und Telekommunikationsindustrie zu Innova­
tionsthemen.
11
Detecon Management Report blue • 1 / 2015
Auswirkungen der Endgeräteflut auf die Mobilfunknetze
Ist der Kollaps unvermeidbar?
12
Detecon Management Report blue • 1 / 2015
Das Internet der Dinge fußt auf mehreren Säulen. Zwei davon sind Vernetzung
und Datenübertragung. Doch gerade hier stoßen Mobilfunknetze an ihre Grenzen.
Lösungsideen gibt es – gehandelt werden muss jetzt.
K
onnektivität ist ein Kernfaktor, der das Internet der D
­ inge
zu dem macht, was es ist: eine weiträumige Vernetzung von
­Gegenständen, die Daten miteinander austauschen und aufgrund
der ausgewerteten Daten entsprechende Aktionen ­
anstoßen.
Durch den Preisverfall sowohl auf der Hardwareseite für entsprechende Module als auch im Bereich der Tarife für mobile Daten
setzen sich diese Möglichkeiten auch im Massenmarkt durch, so
dass hier eine vernetzte Welt entsteht.
Es kristallisieren sich zwei große Herausforderungen heraus: Zunächst muss eine immense Menge an Geräten miteinander vernetzt werden, das Netz muss diese Geräte „verwalten“ können.
Diese Geräte und Sensoren erzeugen eine enorme Menge von
Daten, die zum Beispiel zu einem Server oder einer Datenbank
zur Speicherung und weiteren Verarbeitung transportiert werden
müssen.
Möglichkeiten der Vernetzung und Datenübertragung
Ohne Verbindung geht es nicht
Darüber hinaus entstehen immer mehr Anwendungen, die sich
auf diese vernetzten Geräte stützen und dem Anwender Nutzen
bringen soll. Dabei sammeln alle diese Anwendungen über die
vernetzten Geräte Daten, die auch privater Natur sein können.
Um dieses Szenario für den Endanwender attraktiv zu gestalten,
muss der Anwender auf der einen Seite einen Nutzen darin ­sehen,
Daten „preiszugeben“. Auf der anderen Seite muss die Vernetzung für den Nutzer auch ohne Fachkenntnisse im Netzaufbau
transparent sein, die Anwendung mit den angeschlossenen Geräten muss „einfach funktionieren“. Einige Szenarien gehen sogar
davon aus, dass die Menschen die sie umgebenden miteinander
vernetzten Geräte und ihre Anwendungen gar nicht mehr bemerken, das heißt, den Menschen ist weder bewusst, dass Daten
über sie gesammelt werden, noch wie Form und Umfang dieser
Datensammlung aussehen.
Hauptszenarien in der Welt des Internet der Dinge (Internet of
Things, IoT) sind das v­ernetzte Auto, das vernetzte Z
­ uhause,
Healthcare inklusive Wearables und Industrie 4.0. Sie werden
nach Schätzungen von Detecon einen erheblichen Anteil der vernetzen Endgeräte in der IoT-Welt stellen. Dabei wird von hohen
Zuwachsraten ausgegangen: Von derzeit weniger als drei Milliarden Geräten im Netz, hauptsächlich internetfähige Mobiltelefone beziehungsweise Smartphones, gehen vorsichtige Schätzungen von idate und Goldman Sachs von einer Steigerung auf
16 bis 20 Milliarden Geräten bis 2020 aus. Die Analysten von
Jeffries vermuten bis 2020 sogar eine Steigerung auf mehr als 40
Milliarden Endgeräte, die miteinander vernetzt sind. Diese große
Menge von miteinander und mit Servern kommunizierenden
Geräte produzieren enorme Mengen an Daten, die transportiert
werden müssen.
Bei der Vernetzung der IoT-Geräte kann man zwischen
Nahfunkverbindungen und Weitreichsverbindungen unter­
scheiden. Im Nahfunkbereich, zum Beispiel innerhalb eines
Hauses oder eines Autos, können diese einzelnen Geräte mit
verschiedenen Standard-Nahfunktechniken verbunden werden.
Hier ­stehen WLAN, Bluetooth, Zigbee, RFID, NFC oder auch
­Z-Wave zur Verfügung. Da die Datenübertragungsraten bei den
vorgenannten Technologien bis auf WLAN aber unter 1 Mbit pro
Sekunde liegen – teilweise sogar weit darunter – ist für die allen
Anforderungen gerecht werdende, auf einem Standard ­basierende
Inhouse-Vernetzung unter Berücksichtigung von Home Entertainment und sonstigen Streaming-Anwendungs­fällen nur die
Vernetzung mittels WLAN möglich. Für die Übertragung von
Steuerungsdaten, die keine hohe ­Bandbreite benötigen, ­bieten
sich aber die vorhergenannten Alternativen an.
Interessant wird es, wenn wir die Daten über eine größere Strecke
transportieren müssen, um sie auf einem Server abzuspeichern
und von überall ­abrufen zu können (Cloud-Prinzip), oder um
diese Daten analysieren zu lassen. Hier bietet sich augenscheinlich zunächst einmal eine vorhandene Breitbandverbindung über
das Festnetz – und hier vorzugsweise über das Medium Glasfaser
– an. Sollte diese jedoch nicht vorhanden sein und Alternativen
wie ein modernisiertes, auf Kupferkabeln basierendes Netz ebenfalls nicht zur Verfügung stehen, wie es zum Beispiel in ländlichen
Gebieten der Fall ist oder weil das Gerät nicht fest installiert ist
und sich über größere Strecken bewegt, müssen die Daten über
eine Luftschnittstelle gesendet werden. Eine Kernanforderung
ist eine hohe Abdeckung innerhalb der vom Gerät besuchten
Gebiete. Hier bieten sich zunächst einmal die bekannten Mobilfunktechnologien an, die ab der 3. Generation – bekanntester
Vertreter ist UMTS mit HSxPA – auch durchaus Audio- und
13
Detecon Management Report blue • 1 / 2015
Videoinhalte streamen können. Mit LTE als Vertreter der 4. Generation der Mobilfunktechnologien erhöhen sich die mögliche
Bandbreite und Kapazität der Luftschnittstelle weiter, so dass
viele Benutzer in einer Zelle gleichzeitig ihre Multimedia-Inhalte
in hoher Auflösung anschauen können, ohne dass der Film zu
einer Diashow verkommt.
Alternative Funktechnologien wie SIGMAFOX oder Neul,
die ­allerdings noch nicht standardisiert sind, bieten eine hohe
­Effizienz auf der Luftschnittstelle und besitzen daher den wichtigen Vorteil der Energieeffizienz im Vergleich zu den genannten
Mobilfunkstandards. Nachteile dieser alternativen Funktechnologien sind jedoch die fehlende Standardisierung, die andere Hersteller davon abhalten könnte, für diese Technologien Geräte zu
entwickeln, die relativ geringe Bandbreite zur Datenübertragung,
die diese Technologien für einige Anwendungsfälle mit hohem
Bandbreitenbedarf wie Videostreaming unbenutzbar macht, und
die zur Zeit noch unzureichende Netzabdeckung, die sich innerhalb der nächsten Jahre jedoch verbessern kann.
Allerdings ist auch hinsichtlich der Luftschnittstellen-Kapazität
von LTE und dem noch nicht einmal definierten, zukünftigen
5G-Standard, der frühestens ab 2020 ausgerollt werden soll, zu
bedenken, dass sie nicht unbegrenzt zur Verfügung steht. Die Anzahl der zusätzlichen Geräte und deren Bandbreitenbedarf – oder
besser gesagt die Größe des jeweiligen Anstiegs – sind aktuell
nicht leicht einzuschätzende Parameter.
Vernetzungsszenarien und Herausforderungen
Um ein Haus zu vernetzen („Connected Home“), können zum
Beispiel alle Steuerungsgeräte mit niedrigem Bandbreitenbedarf
mit einem „Hub“ über eine Nahfunktechnologie – WLAN,
Bluetooth, Zigbee – mit einem Controller vernetzt werden.
­
­Dieser sammelt alle Daten und schickt sie über eine breitbandigere Weitbereichsverbindung in Form einer Festnetzleitung
oder einer ­Mobilfunkverbindung an entsprechende Server zur
Verarbeitung und Visualisierung, zum Beispiel durch eine Smartphone App. Home-Entertainment-Geräte mit hohem Bandbreitenbedarf werden dagegen über Wireless LAN miteinander und
mit dem Hub verbunden, um auch im lokalen Netz innerhalb des
Hauses einen hohen Bandbreitenbedarf durch Streaming oder
ähnliche Anwendungen abdecken zu können. Diese Trennung
der verschiedenen Datenströme kann gleichzeitig eine Erhöhung
14
Detecon Management Report blue • 1 / 2015
der Sicherheit und Stabilität der Datenübertragung bedeuten, da
ein „abgestürztes“ Entertainment-Gerät nicht die Datenübertragung von Sensoren und Kontrollgeräten behindern kann.
Im Fall des vernetzten Autos benötigt jedes beteiligte Fahrzeug eine mobile Weitbereichsverbindung, über die nicht nur
Fahrzeugdaten versendet, sondern auch Musik und Filme „gestreamed“ werden können. Die Hauptanforderungen in diesem
Anwendungsfall sind die Zurverfügungstellung einer ständigen
Netzwerkanbindung der entsprechenden Endgeräte und deren
potenziell hoher Bandbreitenbedarf. Als Beispiel sei das Stau­
szenario genannt, in dem viele Passagiere gleichzeitig Filme in
HD-Qualität anschauen. Da sich die Anzahl der mit dem Internet verbundenen Geräte im Zeitraum bis 2020 exorbitant
steigern wird, ist alleine durch diese hohe Rate eine mindestens
ähnliche Steigerung im mobilen Datenaufkommen zu erwarten,
auch wenn bei weitem nicht alle IoT-Anwendungen so „bandbreitenhungrig“ sind.
Durch die vorgestellten Vernetzungsszenarien lassen sich die
großen Herausforderungen der IoT-Welt in der Vernetzung und
Datenübertragung bei Weitbereichsverbindungen erkennen.
Hier wird mittelfristig kein Weg an der Vernetzung über Mobilfunknetze vorbeigehen, da nur diese für die meisten Szenarien die
nötige Abdeckung und ausreichende Datenbandbreite anbieten.
Die daraus folgenden Anforderungen an Mobilfunknetze lassen
sich wie folgt ableiten:
• Allein durch die hohe Volumenzunahme der vernetzten Geräte ist mit einer hohen Steigerung des Datenaufkommens zu
rechnen.
• Das Netz muss mit vielen, gleichzeitig in einer Zelle angemeldeten Geräten „zurecht kommen“, ohne dass eine Verbindung
beeinträchtigt oder gestört wird.
• Die Anforderungen an die von diesen Geräten aufgebauten
Verbindungen sind dabei sehr inhomogen: Die Datenverbindungen können kurzzeitig eine hohe Last mit unkontrollierbaren
Zeitpunkten aufweisen. Andere Datenverbindungen charakterisieren sich über ein kleines, aber regelmäßiges Datenaufkommen
oder über konstante Datenverbindungen, die dann eine beliebige
Datenlast erreichen können, zum Beispiel Videoüberwachung
mit hoher Auflösung und einem hohen Datenaufkommen.
Der Energiekonsum der Geräte sei hier nur am Rande erwähnt:
Bei vielen IoT-Geräten ist der Hauptenergieverbraucher das
Funkmodul, so dass bei autark mit Energie versorgten Geräten
der Batteriewechsel nach einer gewissen Zeit durch einen Servicetechniker vorgenommen werden muss. Dieses ist ein nicht
zu unterschätzender Kostenfaktor in der IoT-Welt, in der die Gewinnmargen pro Gerät meist sehr gering sind.
Lösungsansätze
Wir sehen die große Herausforderung des Internet der Dinge
darin, die bestehenden und zukünftigen Mobilfunknetze nicht
zu überlasten, sei es durch die Menge an gesendeten Daten oder
auch durch die hohen Zuwachsraten an Geräten, die sich in den
Mobilfunkzellen aufhalten und eine ständige Verbindung mit
dem Mobilfunknetz aufrecht erhalten. Ersteres kann auf der Luftschnittstelle nur durch den Ausbau der Kapazitäten und durch
eine Komprimierung der gesendeten Daten schon im Endgerät
gelöst werden. Letzteres lässt sich dadurch lösen, dass man auf
andere, alternative Funktechnologien ausweicht, sofern der Anwendungsfall dies erlaubt, und auf verschiedene Möglichkeiten,
die heutzutage schon als Lösung für das „Data Offloading“ entwickelt wurden, zurückgreift.
Zusammenfassend lässt sich sagen, dass das Internet der Dinge
die Mobilfunktechnologien auf der Luftschnittstelle vor nicht zu
unterschätzende Herausforderungen stellen wird. Wenn diesen
nicht rechtzeitig begegnet wird, schlagen sich negative Auswirkungen durch langsame Datenverbindungen oder die fehlende
Möglichkeit, sich in einer bestimmten Zelle in das Mobilfunknetz einzubuchen, auf die Kundenzufriedenheit der Mobilfunkkunden nieder. Es gibt jedoch jetzt schon Möglichkeiten, hierauf
mit moderatem und kalkulierbarem finanziellen Aufwand zu reagieren. Da innerhalb der nächsten zwei bis drei Jahre gehandelt
werden muss, gehört das Warten auf den 5G-“Rollout“ jedoch
nicht zur Lösungsmenge, da der 5G-Mobilfunk noch nicht definiert wurde und ein großflächiges Ausrollen bis 2020 deshalb
äußerst unwahrscheinlich ist.
Die Herausforderung der zur Zeit relativ kurzen Batterielaufzeiten lässt sich, solange sich die Batterietechnologien nicht
grundlegend weiterentwickeln, nur durch die Kreativität der
(Software-)Ingenieure lösen, die auf der einen Seite den Energiehunger der Hardware senken müssen und auf der anderen
Seite durch geschickte Implementierung der (Betriebs-)Software
sowohl endgeräteseitig als auch netzwerkseitig den Energieverbrauch weiter senken können.
Hier sind auf der einen Seite „Small Cells“ zu nennen, die eine
sehr kleine eigene Mobilfunkzelle darstellen und direkt per Kabel
oder Richtfunk an das Datentransportnetz angeschlossen werden
können. Mit diesen können kleine lokale Mobilfunkzellen erstellt werden, die durch direkte Anbindung an das Transportnetz
die Makrozellen entlasten.
Auf der anderen Seite könnte man ein Data Offloading über
WLAN-Zellen anstreben, um die Daten über einen Festnetz-/
Glasfaseranschluß ebenfalls möglichst direkt in das Datentransportnetz zu bringen. Eine Variante des WLAN-Offloading
könnte die ad-hoc Vernetzung über den eigentlich für den
„Connected Cars“-Anwendungsfall gedachten WLAN-Standard
802.11p darstellen.
Sowohl die Kapazitätserhöhung als auch das Data-Offloading
können gleichzeitig zur Lösung der Probleme durch die inhomogenen Datenverbindungen beitragen.
Claus Eßmann ist Senior Consultant und Experte für M2M und
das Internet der Dinge. Er ist Mitglied des Connected Car Solution
Center und berät ­Unternehmen der Automobil- und Telekommunikationsindustrie zu Innova­tionsthemen.
15
Detecon Management Report blue • 1 / 2015
Industrie 4.0
Digital Navigator
unterstützt bei der Umsetzung
Industrie 4.0 bringt ein neues Ökosystem von Unternehmen, Kompetenzen und
Märkten in der industriellen Wertschöpfung hervor. Darin besteht ein großes
­Potenzial zur Standortsicherung Deutschlands. Der Digital Navigator unterstützt
Industrie­unternehmen bei der Umsetzung möglicher Ansätze.
16
Detecon Management Report blue • 1 / 2015
elbst Experten sind noch unsicher, was Industrie 4.0 künfS
tig konkret in der Umsetzung bedeutet. Auch der individuelle
Nutzen lässt sich oft schwer beziffern: Wie profitieren Unternehmen tatsächlich davon? Sicher ist: Industrie 4.0 basiert auf
der Verschmelzung von klassischer Produktionstechnologie mit
der Informations- und Kommunikationstechnologie. Mit Hilfe
der Digitalisierung sind Maschinen, Objekte und Menschen so
vernetzt, dass Wertschöpfungsprozesse effizienter, agiler, flexibler oder auch qualitativ hochwertiger gestaltet oder ganz neue
Geschäftsmodelle erschlossen werden können. Im Kern geht
es bei darum, Interoperabilität in einem größeren Wertschöpfungskontext - vertikal und horizontal - und über den gesamten Produktlebenszyklus herzustellen (siehe auch http://www.
plattform-i40.de).
Wo liegt der Nutzen für die fertigende Industrie?
Mit Industrie 4.0 kommen wir beispielsweise dem angestrebten
Ziel, „Losgröße 1“ bei gleichzeitig minimalen Kosten herzustellen, einen großen Schritt näher. Dieser Erfolg basiert auf der
Möglichkeit, die Fertigungsprozesse so stark zu modularisieren
und zu standardisieren, dass ein hohes Maß an Fertigungsflexibilität an jeder Stelle entsteht. Über Digitalisierung und die Bereitstellung von Echtzeitinformationen kann die bisherige starre
und komplexe Planungslogik abgelöst und durch eine eher ad
hoc getriebene Steuerungslogik ersetzt werden. Im Zusammenspiel mit einer prozessübergreifenden Vernetzung zwischen
­Engineering und Produktion lassen sich spezifische Kundenwünsche noch sehr spät in den Produktionsprozess einflechten.
17
Detecon Management Report blue • 1 / 2015
Ein ganzes Wertschöpfungsgefüge in dieser Art zu flexibilisieren
ist sicher noch ein recht aufwändiges Unterfangen. Es lassen
sich aber bereits jetzt sinnvolle, umsetzbare Industrie 4.0-Ansätze finden:
Beispiel 1: Vereinfachung von Wartungsprozessen im Anlagenbau durch eindeutige Identifizierung und sensorgestützte Überwachung ganzer Anlagen oder Komponenten. In Verbindung
mit einer Ende-zu-Ende-Verknüpfung dieser Informationen mit
den produkt- oder transaktionsbezogenen Informationen der
PLM- oder ERP-Welt lassen sich Wartungsevents i­nklusive der
zugehörigen Ersatzteillogistik effektiv vorbereiten und durchführen. Über Predictive Analysen von Zustandsinformationen
und Vergangenheitsdaten lassen sich Wartungsnotwendigkeiten
darüber hinaus auch schon heute sehr gut vorhersagen.
Beispiel 2: Augmented-Reality-Unterstützung im Wartungsfall.
Bei komplexen Wartungsumgebungen lassen sich die Wartungsschritte effektiv durch Augmented-Reality-Systeme unterstützen. Beispielsweise werden in das Realbild an einem Tablet entsprechende Überblendungen und Anweisungen eingeblendet.
Damit kann die Arbeitszeit für solche Wartungen und auch die
Qualität sichtbar gesteigert werden.
Weiterführende Ansätze beinhalten einen deutlich höheren
Grad der Prozessinteroperabilität. „Social Mashines“ beispielsweise erhalten durch erweiterte Embedded Systems, echtzeitnahe Konnektivität die Möglichkeit, sich untereinander zu
optimieren. Sie können beispielsweise einen direkteren Lastenausgleich initiieren, um die Kapazitäten gleichmäßig zu verteilen. In Verbindung mit intelligenten Produkten, die relevante
Informationen wie Baupläne mit den Produktionsressourcen
austauschen, lassen sich bereits heute ad hoc Entscheidungslogiken in der Produktion ermöglichen. Über entsprechende
Marktplätze könnte dieses Prinzip auch Standort- und Unternehmensübergreifend funktionieren. Freie Kapazitäen einzelner
Produktionsressourcen könnten auch anderen Unternehmen
angeboten werden.
Wie lässt sich Industrie 4.0
konkret in der Industrie umsetzen?
Aus dem Abschlussbericht von acatech und Forschungsunion
gehen acht Handlungsfelder hervor: Smart Factory Architecture, Resiliente Fabriken, Technologiedaten Marktplatz, Vernetzte Produktion, Intelligentes Instandhaltungsmanagement,
Nachhaltigkeit durch Up-Cycling, Selbstorganisierte, adaptive
Abbildung: Digital Navigator
Strategische
Zielsetzung
R&D
Einkauf &
Beschaffung
Finanzen &
Controlling
Produktion
Logistik
Strategisches Management
Unterstützungsprozesse
Digitale
Dimensionen
Digitale
(Kern-) Geschäftsfähigkeiten
Menschen
Quelle: Detecon
18
Detecon Management Report blue • 1 / 2015
Prozesse
CRM, Sales
& Service
Technologien
Logistik, Kundenintegriertes Engineering. Diese Felder zeigen
auf, wie vielfältig die Möglichkeiten von Industrie 4.0-Ansätzen sind. Ihre Auswirkungen auf bestehende Prozesse sind meist
nicht sofort absehbar.
Auch wenn die vierte industrielle Revolution in evolutionären
Schritten erfolgen wird, sind die Veränderungen meist tiefgreifend. „Die Formel ‚Gewinn = Umsatz – Kosten‘ behält allerdings auch im digitalen Zeitalter ihre universelle Gültigkeit.“,
sagt Felix Theisinger, Partner bei Detecon. „Somit müssen alle
digitalen Transformationsmaßnahmen entweder dazu beitragen,
den Umsatz zu steigern (revenue effects) oder die Kosten zu senken (cost effects), idealerweise beides.“, so Theisinger. Erfolgreiche Unternehmen im digitalen Zeitalter nutzen die Chancen
der Digitalisierung zur Senkung der Kosten und zur Steigerung
des Umsatzes. Theisinger rät jedoch, Potenziale sowie Aufwand
und Implikationen, die sich zum Beispiel zur Informations­
sicherheit aus Industrie 4.0 ergeben könnten, systematisch zu
analysieren und individualisierte Handlungsempfehlungen zu
erarbeiten.
darüber hinaus auch Hardware wie Maschinen und Menschen,
insbesondere Skills, betrachten.“, rät Theisinger. „Unternehmen
müssen sich diese Fragen stellen: Brauchen die Maschinen beispielsweise neue, andere oder ergänzende Fähigkeiten, um in
einer resilienten, ad hoc organisierten Fabrik operieren zu können? Sind die Menschen, die an einem Prozess mitwirken, noch
in der Lage, die neu entstehenden Cyber-physischen Systeme
zu bedienen, werden andere oder neue Skills und Rollen in den
Unternehmen benötigt? Die Antworten auf diese Fragen bilden
die Bausteine, aus denen sich die Industrie 4.0-Agenda eines
Unternehmens zusammensetzt.“
Das Interesse an der Umsetzung der Industrie 4.0-Ideen nimmt
nicht nur in den Unternehmen, sondern auch in der Politik
großen Raum ein. Industrie 4.0 ist ein Faktor für die Zukunftssicherung des Standortes Deutschland in einem internationalen
Wettbewerb.
Mit dem Digital Navigator bietet Detecon ein ausgereiftes und
erprobtes Methodenportfolio, um Industrie 4.0-Ansätze in den
Kontext des jeweiligen Geschäftsumfeldes eines Unternehmens
zu stellen, deren Auswirkungen auf Prozesse und Kernfähigkeiten zu analysieren und sie entsprechend zu priorisieren.
Auf dieser Basis lassen sich erforderliche digitale Fähigkeiten
und Enabler aus den sechs Kernbereichen Innovation & Transformation, Smart Business Network Management, Cyber Physical System, Risk & Trust, Digital Information Management
und Digital Process Management identifizieren, den betroffenen Prozessen oder Bereichen zuweisen und entsprechende
Transformationsschritte planen.
Unternehmen, die den digitalen Wandel erfolgreich meistern
wollen, müssen über diese sechs Kernfähigkeiten verfügen oder
sie im Zuge ihrer digitalen Transformation entwickeln und ausbauen. Dabei geht es aber nicht nur um die Betrachtung der offensichtlichen Digitalisierungserfordernisse wie die Herstellung
von Konnektivität, sondern auch um Aspekte, die sich durch
die Digitalisierung erst ergeben. Bestes Beispiel ist das Thema
Daten- und Informationssicherheit, damit verbundene Ausfallsicherheiten von Produktionseinrichtungen und Resilienz in
der Wertschöpfung eines Unternehmens. „Die Transformation
erstreckt sich eben nicht nur auf die IT-Ebene, sondern muss
Michael Meissner ist Partner und leitet die Industrie 4.0 Community bei
Detecon. In dieser Funktion berät er Unternehmen der herstellenden und
Hightech-Industrie zu Fragen der digitalen Transformation sowie dem Einsatz
von ICT-Technologie.
Jana Remer ist Consultant mit dem Branchenschwerpunkt Automotive und
ist Mitglied im Connected Car Solution Center. Ihr Beratungsfokus liegt auf
den Bereichen Connected Car durch die gesamte Wertschöpfungskette hinweg
sowie Geschäftsmodellentwicklung.
19
Detecon Management Report blue • 1 / 2015
­
Interview mit Hagen Rickmann
Geschäftsführer Sales
T-Systems International GmbH
„Wir verstehen uns
als Partner der Industrie
auf dem Weg zu einer
Industrie 4.0“
Industrie 4.0 ist auch für ­integrierte ICT
Provider ein großes ­Thema. ­Evolutionäre
Schritte erwartet H
­agen ­
Rickmann,
­Geschäftsführer bei ­T-Systems International GmbH, ­insbesondere aus dem
Zusammenspiel von Industrie und
­
­ICT-Branche. Sein Ziel ist es, den ­Nutzen
der ­
Digitalisierung zu konkretisieren
und das Vertrauen auszubauen. Das
­Interview führten die ­Detecon-Berater
Michael M
­ eissner, Partner, und Sven
Garrels, Senior ­Consultant.
20
Detecon Management Report blue • 1 / 2015
­
DMR: Herr Rickmann, das Internet der Dinge revolutioniert
­einige Branchen bereits sehr stark. In Automobilen sind Onlineservices und Connectoren verbaut, der Handel und andere Dienstleistungsbereiche haben ihre Geschäftsmodelle drastisch verändert.
Die digitale Revolution der herstellenden Industrie heißt Industrie
4.0. Sie sind als Top Manager angetreten, um das Thema auch
für die Deutsche Telekom zu etablieren. Wie passt das zusammen?
Rickmann: Mit Industrie 4.0 und der Digitalisierung in der
Industrie werden klassische Produktionstechnologie mit der
Informations- und Kommunikationstechnologie untrennbar
zusammenwachsen. Applikationen zur Steuerung von Maschinen und Anlagen oder ganzer Shop-Floor-Bereiche werden
künftig darauf angewiesen sein, stärker untereinander und mit
den Maschinen, Werkstücken und den beteiligten Menschen
direkt zu kommunizieren. Cyber-physische Systeme halten
Einzug in Fertigung und Logistik und erfordern eine erweiterte ICT-Infrastruktur. Die Sensorik wird eine große Menge
an Daten erzeugen, die es zu beherrschen und gezielt auszuwerten gilt. Deswegen ist Industrie 4.0 nicht nur für Industrie­
unternehmen oder Softwarehersteller, sondern insbesondere
auch für integrierte ICT Provider wie die Deutsche Telekom
ein wichtiges Thema. Konnektivität und das Management
komplexer Datenmengen sind die Kernkompetenzen der
Deutschen Telekom. Ein Geschäftssegment alleine kann die
Komplexität der Industrie 4.0 nicht tragen, hierfür benötigen
wir das Know-how verschiedener Konzerneinheiten: Telekom
Deutschland für die technische Konnektivität und den Zugang
zum Mittelstand, Telekom Laboratories für die Forschung und
T-Systems als Lieferant der Datenplattform, für den Zugang
zu Großkunden und als Industrie 4.0-Integrator gegenüber
unseren Industriekunden.
DMR: Sind Vernetzung und Daten dann der Kern von Industrie 4.0?
Rickmann: Im Grunde ja. Es geht bei Industrie 4.0 darum,
mit Hilfe von Vernetzung und Informationsmanagement in
Echtzeit die industriellen Prozesse und ­Wertschöpfungsansätze
zu optimieren oder so zu verändern, dass neue Geschäfts­
modelle daraus entstehen können. Vernetzung und Daten sind
damit der Katalysator für ein neues Level an horizontaler und
vertikaler Interoperabilität, die oft auch über die Unternehmensgrenzen hinausreicht. Hier sehe ich im übrigen auch den
größten Hebel für Effizienz.
DMR: Können Sie das an konkreten Beispielen festmachen?
Rickmann: Stellen Sie sich einmal eine komplexe Industrieanlage, vielleicht eine Gasturbine, vor. Diese Turbine ist mit
unzähligen Sensoren ausgestattet, die Zustand und Funktion
einer solchen Anlage überwachen. Um die Informationen zu
verwerten, brauchen Sie zunächst einmal beides: Konnektivität der Sensoren – sie müssen in der Lage sein, die erzeugten
Informationen zu übermitteln – und ein richtiges Big Data
Management. Jeder der Sensoren erzeugt Informationen im
Kiloherzbereich, wodurch in kürzester Zeit ein unvorstellbares
Datenvolumen entsteht. Das muss als Volumen beherrschbar
gemacht und sichergestellt werden, dass sie die wirklich relevanten Informationen herausfiltern und weiterverarbeiten. So
lassen sich beispielsweise Wartungsarbeiten besser vorausplanen oder der Wirkungsgrad einer solchen Anlage optimieren.
Stehen solche Informationen in einem größeren Wertschöpfungskontext zur Verfügung, zum Beispiel einem ganzen
Kraftwerk oder Kraftwerksverbund, lässt sich auf dieser Basis
die gesamte Energieerzeugung im Verbund besser, bedarfs­
orientierter und auch viel ökologischer planen.
Ähnliche Szenarien können Sie sich auch in einem Montage­
bereich vorstellen, in dem eine Vielzahl unterschiedlicher
­Roboter im Einsatz ist. Fällt ein Roboter wegen Wartung aus,
können die anstehenden Aufträge quasi ad hoc auf die anderen Anlagen umgeroutet werden, da Fähigkeiten, Zustand und
Auslastung bekannt sind. Die so entstehenden Informationen
können aber auch einen ganz anderen Zweck erfüllen. Nutzungsgrad und Verschleiß von solchen Maschinen geben den
Entwicklern wichtige Anhaltspunkte für die Weiterentwicklung oder Optimierung der Produkte. Das alles geht nur mit
intelligentem Datenmanagement und Konnektivität.
DMR: Sind bessere Planbarkeit und Effizienz- oder Wirkungsgradsteigerungen dann die Potenzialfelder, die die Industrie mit
Industrie 4.0 erreichen kann?
Rickmann: Nicht nur. Sie haben auf der einen Seite Kostenund Effizienzpotenziale, wie gerade beschrieben. Oftmals lassen sich durch genauere Planung, direktere Interaktion und
unternehmensübergreifende Steuerung der Wertschöpfung
Effizienzsteigerungen von bis zu 15 Prozent erreichen. Auf der
anderen Seite aber eröffnet die gewachsene Informationsdichte aus der gesamten Wertschöpfung von der Entwicklung bis
zum Kunden und die gewachsene Interoperabilität in diesem
Gefüge Potenzial für neues Geschäft, höhere Kundenloyalität
oder auch eine gänzliche Neuordnung des Wertschöpfungsgefüges. Sie können zum Beispiel spezifische Kundenwünsche
auch noch sehr spät in die Produktion einfließen lassen – Losgröße 1. Der Kunde wird Teil der Wertschöpfung und kann
eine ganz neue Form des Customer Experience Managements
erleben. Unternehmen, die ihre beim Kunden befindlichen
Maschinen selber mit Sensoren überwachen, können ganz
neue Serviceangebote oder sogar Betreibermodelle entwickeln,
mit denen sie sich im Wettbewerb differenzieren oder neue
Geschäftsfelder erschließen.
21
Detecon Management Report blue • 1 / 2015
Hagen Rickmann: Nach Banklehre und Studium
der Betriebswirtschaft trat Hagen Rickmann, Jahrgang 1969,
zunächst in die Unternehmensberatung Esche Schümann
­Commichau ein. Im Jahr 2000 wechselte er als CFO zum
IT-Dienstleister Done Project. Zwei Jahre darauf stieg er als
Managing Director IT bei EDS ein, wo er bis 2007 als General
Manager und Vorstandsmitglied unter anderem den Bereich
Consulting Services für Nord und Zentraleuropa verantwortete.
Von 2008 an leitete Hagen Rickmann den Bereich Infrastructure
Services in Europa. Im Jahr 2009 wechselte er zu T-Systems und
übernahm dort das Portfolio- und Innovationsmanagement.
Ab März 2011 leitete Rickmann den Bereich Service von
T-Systems und wurde Mitglied der Geschäftsführung.
Seit 1. Januar 2013 verantwortet er den T-Systems Geschäftsführungsbereich Sales.
DMR: Werden solche Wertschöpfungsgebilde nicht anfälliger,
zum Beispiel durch Datenmissbrauch, Manipulation oder auch
einfach im Hinblick auf die Standfestigkeit der ICT-Infrastruktur
in der industriellen Fertigung?
Rickmann: Da sprechen Sie einen ganz wichtigen Punkt an.
Datensicherheit, Datenschutz, aber auch Safety und Zuverlässigkeit werden einen ganz anderen Stellenwert bekommen.
Die entstehenden datenzentrischen Geschäftsmodelle bieten
wie beschrieben eine Menge großer Potenziale, sie bringen
aber auch Herausforderungen im Hinblick auf Sicherheit mit
sich. Dieses Thema nehmen wir bei der Deutschen Telekom
sehr ernst. Wir haben uns entsprechend mit einem breiten
Portfolio an Sicherheitslösungen aufgestellt. Das fängt an mit
verschiedenen Ansätzen, den Zugang in unsere Netze abzu­
sichern, und geht über den Informationstransfer über diese
Netze bis hin zur Speicherung und Aufbereitung der Daten.
Anfang des ­Jahres haben wir bei uns ein umfassendes ­Cyber
Defence Center aufgebaut, um gezielt Attacken aus der
­Cyber-Welt zu identifizieren und abzuwehren. Das alles wird
in einem integrierten Ansatz auf den jeweiligen Anwendungsfall zugeschnitten und in Deutschland beziehungsweise nach
deutschem ­
Datenschutzstandard bereitgestellt. Also Sicherheitstechnologie „Made in Germany“!
Auch die Standfestigkeit ist ein Thema, dem wir uns angenommen haben. Wir besitzen heute schon eine Infrastruktur, mit
der wir es Millionen Kunden ermöglichen, mit dem Festnetz-
22
Detecon Management Report blue • 1 / 2015
oder Mobiltelefon zu telefonieren, ihre Daten in unseren weltweiten Rechenzentren sicher und nach deutschem Standard zu
hosten und auszutauschen. Diese Infrastruktur ist deswegen
zuverlässig, weil sie offen und skalierbar ausgelegt ist. Und genau darauf kommt es auch in den industriellen Anwendungsgebieten an. Wir brauchen auch hier skalierbare Plattformen
und Services anstelle von proprietären Lösungen, die schlecht
integrierbar sind. Deswegen bieten wir speziell für die industrielle Digitalisierung eine Plattform an, die diese Voraussetzungen erfüllt. Diese Plattform wollen wir gemeinsam mit
Kunden aus der Industrie ausbauen – hier verstehen wir uns
als Partner der Industrie auf dem Weg zu einer Industrie 4.0.
DMR: Dann ist die Deutsche Telekom exzellent für das Industrie
4.0-Umfeld aufgestellt. Aber wie steht es um die Industrie?
Rickmann: Die deutsche Industrie hat heute noch den Status,
„Ausstatter der Welt“ für Industrieprodukte zu sein, und weist
einen hohen Innovationsvorsprung gegenüber dem globalen
Wettbewerb auf. Mit der Digitalisierung ergeben sich aber Veränderungen. In vielen Bereichen ist erkennbar, wie schnell der
Wandel im digitalen Umfeld ist und wie disruptiv – denken
Sie nur an die Musik- oder Medienindustrie, die sich durch
die zunehmende Digitalisierung schlagartig mit existenziellen
Veränderungen konfrontiert sieht. Dort stehen Fragen im
Raum, wie weit das Internet die klassischen Produkte „Print“
und „Fernsehen“ ablösen wird, oder wie sich diese Medien
verändern müssen, um wettbewerbsfähig zu bleiben. Auch
im Automobilsektor können wir heute schon sehr disruptive
Tendenzen feststellen wie Car Sharing und neue innovative
Nischenplayer mit einer gänzlich neuen Wertschöpfungslogik.
Die deutsche herstellende Industrie spürt diese Veränderung
noch nicht direkt, sie ist aber vielfach schon erkennbar, so dass
durchaus Gefahr besteht, die heutige Vormachtstellung einzubüßen, wenn die Unternehmen nicht rechtzeitig in die digitale
Transformation einsteigen. Hierzu wird es sinnvoll sein, sich
zusammenzuschließen und mit Partnern wie einer Deutschen
Telekom die Herausforderungen gemeinsam anzugehen. Daher wollen wir in dem sich gerade neu entwickelnden Industrie
4.0-Markt als Partner der Industrie einsteigen und mit Unternehmen des Mittelstandes und der Großindustrie Pilotprojekte entwickeln. Ziel muss es sein, den Nutzen der Digitalisierung zu konkretisieren und Vertrauen auszubauen.
DMR: Bislang kennen die meisten Unternehmen die Deutsche
Telekom aus dem Telefongeschäft. Wird ihr die Rolle als Partner
der Industrie denn zugetraut?
Rickmann: Das ist fast richtig. Insbesondere große Unternehmen kennen uns auch aus dem IT-Umfeld, wo wir in
Deutschland als großer Infrastruktur- und Serviceanbieter
eine führende Position einnehmen. Aber wir haben eine ganze
Reihe von Aktivitäten gestartet, um das nötige Vertrauen der
Industriekunden weiter zu festigen, unsere Kompetenz auch in
den Kernproduktionsprozessen zu nutzen.
Wir sind in verschiedenen Gremien engagiert wie der Plattform
Industrie 4.0 und BITKOM-Gremien, wir stehen im Kontakt
zum BDI und den etablierten Standardisierungsgremien, um
hier die Weichen in wichtigen Standardisierungsfragen zu stellen. Denn Standardisierung wird aus meiner Sicht eine wesentliche Voraussetzung sein für die industrielle Zusammenarbeit
in einer digitalisierten Welt. Das ist vergleichbar mit den Normungsbestrebungen des vergangenen Jahrhunderts. Hier muss
Deutschland Weltspitze bleiben!
Darüber hinaus gehen wir strategische Kooperationen mit
starken Industrieunternehmen im Bereich Forschung und
Entwicklung ein, um Industrie 4.0 zum Beispiel gemeinsam
mit Siemens voranzutreiben. Denn eins ist klar: Der evolutionäre Prozess wird nur im gemeinschaftlichen Zusammenspiel
zwischen der Industrie und der ICT-Branche funktionieren.
Zusammen mit Industrieunternehmen setzen wir ganz gezielt
Pilotprojekte auf, um gemeinsam Lösungen zu erarbeiten, die
den konkreten Nutzen aufzeigen, in andere Branchen- oder
Anwendungsfelder ausweitbar sind und uns dazu dienen,
das Vertrauen der Industrie weiter zu stärken. Und natürlich
wollen wir hieran auch lernen, welche Anforderungen unsere
Kunden haben.
DMR: Welchen Fokus haben denn diese Pilotprojekte? Geht es
dabei mehr um Forschung oder um konkrete Lösungen?
Rickmann: Beides. In der Forschungskooperation mit Siemens
werden wir gemeinsam ganz grundlegende Dinge bei der Umsetzung der Industrie 4.0 erforschen, das aber stets gespiegelt
an konkreten Anforderungen, die mit der Digitalisierung der
Industrie entstehen. In den Pilotprojekten mit weiteren Industriekunden gehen wir noch einen Schritt weiter: Diese Projekte
fokussieren auf ganz konkrete Themenstellungen, bei denen
die Kunden mit uns gewissermaßen Probe fahren. Das können
zum Beispiel Fragen der Logistikoptimierung, Flexibilisierung
von Produktionsprozessen, Öffnung der Entwicklungsprozesse
für eine stärkere Kundeninteraktion oder Predictive Analysis
für ein intelligentes Wartungsmanagement sein. Hierzu bündeln wir auf einer zentralen Datenplattform Konnektivität
und industriespezifische Services. Meist entsteht aus der Zusammenarbeit ein neuer Service oder ein Ansatz, spezifische
Aufgabenstellungen mit ICT-Technologie besser zu lösen. Wir
sind an einer derartigen Zusammenarbeit sehr interessiert.
Daher rufen wir die Industrie explizit auf, weitere Industrie
4.0-Pilotprojekte mit uns zu initiieren.
DMR: Das Leitthema dieser Ausgabe ist das Internet der Dinge.
Da denkt vermutlich jeder erst einmal an große amerikanische
Unternehmen wie Google, Microsoft und Co. Sehen Sie hier einen
internationalen Wettbewerb?
Rickmann: Ja, der Wettbewerb ist spürbar, aber nicht nur aus
den USA, sondern auch aus Asien. In den USA stehen hinter den Digitalisierungsbestrebungen natürlich die genannten
großen Player, die stark aus der Data-Management-Perspektive
kommen. In Asien sind es dagegen eher die Hardware- und
Infrastrukturanbieter.
Wir in Europa haben aus meiner Sicht den Vorteil, dass wir
auf einer „Leading Edge“-Industriekompetenz, ICT und einer
großen Marktmacht aufbauen können. Aus diesem Grund
sehe ich es auch nicht als ausreichend an, wenn wir uns in
Deutschland alleine mit dem Thema auseinandersetzen. Wir
brauchen in Summe eine europäische Initiative, die stark durch
die beteiligten Wirtschaftsunternehmen und Verbände geprägt
wird. Noch haben wir die besten Voraussetzungen, unseren
Vorsprung in Deutschland und Europa zu behaupten. Wir als
Deutsche Telekom stehen als starker Partner der Wirtschaft zur
Verfügung und nehmen diese Herausforderung an.
DMR: Herr Rickmann, vielen Dank für den Gedankenaustausch.
23
Detecon Management Report blue • 1 / 2015
Master Data Management
Shared Data
im Internet der Dinge
und in Industrie 4.0
Die Digitalisierung verändert die Welt wie kaum eine Entwicklung zuvor. Welche Anforderungen gibt es an das Datenmanagement, um eine effiziente Datenarchitektur
zu gestalten, die auf die Geschäftsmodelle von morgen zugeschnitten ist?
24
Detecon Management Report blue • 1 / 2015
as Ziel von Industrie 4.0 ist die intelligente Fabrik, die sich
D
durch Wandlungsfähigkeit, Ressourceneffizienz und Ergono-
mie sowie die Integration von Kunden und Geschäftspartnern
in Geschäfts- und Wertschöpfungsprozesse auszeichnet. Technologische Grundlage sind Cyber-physische Systeme und das
Internet der Dinge. Das Ziel des Internet der Dinge ist es, die
Informationslücke zwischen der realen und virtuellen Welt zu
minimieren. Ein wichtiger Schritt zu diesem Ziel ist vor allem
die Standardisierung der Komponenten und ­Dienste im Internet der Dinge. Das Internet der Dinge unterscheidet sich von
dem Konzept der Selbststeuerung in der Logistik. Selbststeuernde Objekte benötigen nicht zwangsläufig internet­ähnliche
vernetzte Strukturen. Dennoch lassen sich Synergien herstellen,
so dass zumindest in der Forschung beide Konzepte gerne verknüpft werden.
Fällt der Ertrag zu bescheiden aus, merkt sich der Computer:
Im ­nächsten Jahr wird mehr gedüngt. Die IT ist hier schon für
ein Viertel der Wertschöpfung verantwortlich, in zehn Jahren
könnte es bereits die Hälfte sein.
Abbildung 1: Intern genutzte Daten
Firma A
Beispiel:
• Fehlermeldung
• Verbrauch Betriebsmittel
• Betriebsstunden
• Identifyer
Gerät 1
Kunde
Abgrenzung des Datenmanagements über
am Prozess beteiligte Partner
Für die überwiegend interne Nutzung von Daten steht zum
Beispiel folgendes Szenario: Die Kaffeemaschine protokolliert
den Verbrauch von Kaffee und kann dem Kunden so recht­zeitig
Nachschub durch einen Dienstleister anbieten. Darüber hinaus
wird die Wartung rechtzeitig initiiert und im Fehlerfall die Reparatur ausgelöst. Ähnliche Anwendungsbeispiele sind bei Waschmaschinen, Druckern oder bei vorrausschauenden Wartungen
durch die Nutzung von Sensoren denkbar. Per Microship und
Internet gelangen die Informationen an die Firmen zurück und
stehen für die Vermarktung eigener neuer Dienst­leistungen oder
naher Services zur Verfügung. Bei der Paketverfolgung dient
ein neuer künstlicher Identifyer, die Sendungsnummer, für die
Interaktion zwischen Paket und Kunde. Letztlich werden aber
keine schützenswerten Daten nach außen gegeben, und Schnittstellen bestehen hauptsächlich in die eigenen Applikationsumgebung. Bei dieser weitgehend internen Nutzung der auch über
das Internet gesammelten Daten muß sich das Datenmangement ganz besonders auf die internen Belange konzentrieren.
Nur wenn die Stammdaten eindeutig und richtig sind, können
korrekte Auswertungen der gelieferten Informationen durchgeführt und die daraus abzuleitenden Aktionen initiiert werden.
Anders sieht es aus, wenn mehrere extern gesammelte Informationen zu neuen Wertschöpfungsketten verknüpft werden:
­Shared Data. Ob Autokonzerne oder Maschinenbau – ohne
Informationstechnik geht nichts mehr. Selbst bei der Arbeit
auf dem Acker hilft das Internet. Da kommuniziert etwa der
Mähdrescher mit der Wetterstation: „Gewitter im Anzug,
schneller ernten!“ Gleichzeitig erhält das Getreidesilo eine Meldung darüber, wann es mit der nächsten Fuhre zu rechnen hat.
Gerät n
Gerät 2
Quelle: Detecon
Produkte und Produktionen werden intelligent. Sie kommunizieren untereinander, bestellen den Wartungsdienst oder den
Teile-Nachschub. Das Stichwort für diese digitale Revolution
lautet Industrie 4.0. Für das Datenmanagement bedeutet das,
dass hier unterschiedliche Unternehmen oder Anbieter auf gemeinschaftlich genutzte Daten zugreifen. Sollen diese in die
Abbildung 2: Shared Data
Firma A
Beispiel:
• Material
• Kunde
• Werkzeug
• etc.
Firma B
Firma C
Firma n
Quelle: Detecon
25
Detecon Management Report blue • 1 / 2015
Abbildung 3: Das Master Data Management (MDM)-Vorgehensmodell
Governance, Prozesse und Steuerung
Technologie/Systeme
MDM Vorgehensmodell
Datenmanagement
Initialisierung
Grobkonzept
Feinkonzept
Analyse Geschäftsanforderungen
Konzept für
Datenverteilung
Objekt- & Attributsanforderungen
Datenobjekt
Analyse
Datenbereinigungsansatz
Installation
Test
Auswahl Frameworks & Standards
Standardisierungsansatz
Imlementierung &
Techn. Strategie
Technologiekonzept
Data Gov. Awareness & Vision
Definition Berechtigungskonzept
Definition des MD
Steuerungsframwork
Setup Master Data
Steuerung & Autor.
IBT-Analyse der
Prozesse
Prozesssegmentierung
Design, Prozesse &
Organisation
Setup Prozesse
Daten laden &
verteilen
G&P
einführen
Überwachung der
Prozess- & Informationsqualität
KPIs überwachen
Analyse Auswirkung Organisation
Definition Governance-Konzept
Workflow Design
Workflow
Implementierung
Migrationsstrategie
(IBT-Ziel)
Definition
Roadmap
Cut-Over
Planung
Setup Migrationsprojekte
Identifikation der
Migrations- und
Archivierungs­
anforderungen
ETL-ToolKonzept
ETL-ToolAuswahl
Projektmanagement und Umsetzungsplanung
Detecon Management Report blue • 1 / 2015
Anwendungen &
Tools verwalten
Konfiguration
der Lösung
KPIs definieren
Quelle: Detecon
Stabilisierung/
Op. Support
Datenmodell
verwalten
Datenharmonisierung/Bereinigung
Datenerfassung
MigrationsRoadmap
26
Aufbau
ETL-ToolKonfiguration
Archivierungskonzept
Test Reports &
Workflow
Tests
Durchführung
Informationen
erhalten
Post-Migration
Support
Daten aus Legacy
System extrahieren
Umsetzung Archivierungskonzept
Test
Archivierung
Archivierung
eigenen Prozesse integrierbar sein, müssen gemeinsame Standards eingesetzt werden. Hier unterstützen schon in wenigen
Bereichen Industrienormen wie EDIFAKT und EDI. Dennoch
bedarf es einer Internationalisierung von bestimmten Stammdaten für Materialien, Teile und Kunden durch globale Broker,
um barrierefrei kommunizieren zu können.
Datamanagement ganzheitlich betrachtet
Um eine erfolgreiche Stammdatenarchitektur zu implementieren, müssen vier Bereiche Betrachtung finden: Im Bereich Data
Management wird zunächst die Strategie für Data Management
und die dafür benötigte Stammdatenarchitektur gesammelt.
Aus dieser Strategie können ein Konzept und die notwendigen
Umsetzungsschritte abgeleitet werden. Auf dieser Basis lassen
sich KPI’s entwickeln, um langfristig die Datenqualität messbar
zu machen. Nachdem auch die „globalen“ und „lokalen“ Informationen identifiziert wurden, kann eine systemübergreifende
Datenharmonisierung erfolgen.
Im Bereich Central Applications & Management werden die
jeweiligen Anforderungen aufgenommen und mit denen der
allgemeinen Datenstrategie abgeglichen. Außerdem werden
die applikationsinternen sowie -externen Störfaktoren identifiziert und als Verbesserungsanforderungen festgeschrieben.
Die u
­nterstützenden Datenpflegeprozesse, die Prozesse zur
­Qualitätssicherung sowie die notwendige Organisation werden
im Bereich Processes & Governance definiert.
Um die produktiven Altdaten in die neue Stammdatenarchitektur zu überführen, werden häufig Technical Elements oder
Tools benötigt. Dies schließt das Thema Datenbereinigung,
Migra­tion sowie Datenarchivierung mit ein.
Zusätzliche Anforderungen bei der Nutzung von
„Shared Data“
Nach Möglichkeit sind gemeinsame Identifieer zu schaffen. Wo
vorhanden, ist die Nutzung von globalen Brokern für die internationale Nummernverwaltung sinnvoll. Anderenfalls ist ein
Nummernmapping erforderlich.
Besonderes Augenmerk liegt auf dem Datenschutz und der
­Datensicherheit. Die Öffnung der eigenen Systeme mit Zugriff auf externe ­Datenquellen macht die Systeme anfälliger für
­Datenangriffe und Spionage. Dies gilt es auf jeden Fall zu verhindern.
Die Erstellung eines ausgefeilten Berechtigungskonzeptes ist
eine dritte wichtige Anforderung. Heute gelten die im System
abgelegten Kunden und auch Produkte als Geschäftsgeheimnis.
Bei der Verwendung dieser Daten in Verbindung mit anderen
externen Informationen gilt es, die eigenen Daten dennoch vor
unberechtigten Augen beziehungsweise fremden Unternehmen
zu schützen. Der Einsatz von sogenannten Black- und WhiteLists kann hier erste Hürden überwinden.
Harmonisierte Stammdaten und integrierte Prozesse
sichern digitale Transformation
Die Bedeutung von Datenmangement wird unabhängig von der
genutzten Zukunftstechnologie in den nächsten Jahren signifikant wachsen. Der Nachholbedarf der Unternehmen in diesem
Bereich ist beträchtlich. Nur mit harmonisierten Stammdaten
und integrierten Prozessen können sowohl die digitale Transformation in den Unternehmen störungsfrei umgesetzt als auch die
gesteckten Ziele der Unternehmen erreicht werden.
Da alle Bereiche ineinander greifen und dies meist in Verbindung mit komplexen Datenlandschaften zu bearbeiten ist, erfordert die Umsetzung eine strukturierte Vorgehensmethode,
die auf „Best Practise“ zurückgreifen kann.
Johannes Mroz ist Managing Consultant und berät vor allem Industrieund Telekommunikationsunternehmen zu den Themen Prozess- und
Datenmanagement.
27
Detecon Management Report blue • 1 / 2015
28
Detecon Management Report blue • 1 / 2015
Interview mit Christian Renner, Investment Manager, hub:raum
„Das Internet der Dinge braucht
massentaugliche Use Cases,
die jedem einleuchten“
Erste Vorboten des Internet der Dinge sind intelligente
Heizungssysteme, Wearables oder Staumeldesysteme. ­
Manuel Niederhofer, Senior Consultant bei Detecon, sprach mit ­
Christian ­Renner, Investment Manager beim Telekom Inkubator Hub:raum in Berlin,
um herauszufinden, inwieweit die Venture-Szene ­diese Entwicklungen beeinflusst.
DMR: Das Internet der Dinge ist in aller Munde und genau so viele
Definitionen gibt es auch. Was ist Dein Verständnis vom Internet
der Dinge?
Renner: Für mich bedeutet das Internet der Dinge vor allem
die tägliche Nutzung von vernetzten Engeräten in allen Lebensbereichen. Die vier wichtigsten Bereiche sind aus meiner Sicht
Health, Connected Home, Connected Car und Sport/Fitness.
Aus Sicht der Deutschen Telekom spielt sich das Thema ebenfalls
zum größten Teil im Konsumentenbereich ab. Auch bei B2B2CModellen müssen wir nach amerikanischem Beispiel erst lernen,
dass das B in der Mitte „nur“ ein Kanal ist. Bei unseren Investments haben wir immer die Maxime im Kopf, das skalierbare
Plattformgeschäft der Telekom zu pushen.
DMR: Also ist das Internet der Dinge mehr als ein twitternder
Kühlschrank?
Renner: Grundsätzlich bedeutet das Internet der Dinge, dass jedes Gerät eine IP-Adresse bekommt und somit potenziell kommunizieren kann. Ende 2020 sprechen wir von einer 60prozentigen weltweiten Smartphone-Penetration. Und das sind wirklich
nur Smartphones. Diese Power ist unglaublich, wenn man bedenkt, dass jeder Sensor, jede Glühbirne oder auch jeder Kühlschrank mit uns kommunizieren kann.
DMR: Warum haben wir dann momentan das Gefühl, dass das
Thema noch nicht wirklich Zugkraft hat?
Renner: Wir hatten dieses Gefühl auch bei der Cloud, bis sie
­bewusst oder unbewusst Teil unseres täglichen Lebens wurde. Das
Internet der Dinge braucht massentaugliche Use Cases, die jedem
einleuchten. Wir rechnen damit, dass durch die Apple Watch im
Bereich Health und durch den Apple TV im Bereich Connected
Home, Apple’s neues HomeKit, Anwendungs­beispiele ­entstehen,
die den Markt formen. Bevor dieses Thema nicht „konsumierbar“ gemacht wird, ist es schlichtweg graue Theorie.
DMR: Wann wird diese magische vernetzte Welt ein Teil unseres
täglichen Lebens sein?
Renner: Eigentlich sind wir ja schon mitten drin. Wir müssen
uns vor Augen halten, dass wir als Deutsche Telekom sehr früh
Trends erkennen und diese auch bearbeiten. Eindrücklich zeigt
dies beispielsweise Qivicon Smart Home, das jetzt von Miele
­unterstützt wird. Nest und Co. machen bereits signifikante Umsätze und auch die Telekom zeigt wieder einmal mit BMW auf
der IFA, dass sie heiß ist auf das Thema. Wie schon erwähnt: Das
Thema steht in den Startlöchern.
29
Detecon Management Report blue • 1 / 2015
DMR: Lass uns mal in Richtung Human Centered Design gehen.
Welche drei Use Cases einer vernetzten Welt siehst Du als richtungsweisend an? Welche tatsächlichen Probleme werden hier gelöst?
Renner: Wir müssen uns angewöhnen, das Thema holistisch zu
betrachten. In erster Linie soll unser Leben durch die tatsäch­
liche Verschmelzung von verschiedenen Lebensbereichen erleichtert werden. Nehmen wir zum Beispiel das Thema BMW und
Telekom. Mit ConnectedDrive sollen Haus und Auto vernetzt
werden. Damit kann der Fahrer vom BMW aus in seinem Haus
das Licht oder die Heizung für verschiedene Räume regulieren
und Geräte ein- und ausschalten.
Für uns als Telekom sind speziell die Plattformen im Hintergrund
relevant. Mit der Verschmelzung vieler Lebensbereiche wird
eine neue Nachfrage nach der Verwaltung und ­Orchestrierung
von Daten geschaffen. Momenten gibt es vor allem vertikale
Insel­lösungen. Die Musik fängt dann an zu spielen, wenn die
­vertikalen Säulen zu horizontal konvergierten Geschäftsmodellen
werden.
DMR: Was macht Ihr im hub:raum konkret zu diesem Thema?
Renner: hub:raum als Frühphaseninvestor der Deutschen Telekom sucht nach spannenden IoT Start-ups, die im Kontext der
Telekom skalierbar sind. Wir sind das Ohr am Markt für den
Konzern. Bereits in diesem Jahr haben wir ein IoT Bootcamp
veranstaltet, bei dem die Business Units mit den spannendsten
Start-ups – über 100 Bewerbungen aus mehr als 20 Ländern –
„connected“ wurden. Hieraus haben sich dedizierte Partnerschaften entwickelt.
DMR: Als einer der „Thought Leader“ im Kontext Corporate Innovation stehst Du jeden Tag zwischen den Stühlen von smarten Startups und trägen Konzernen. Was muss passieren, damit ein smartes
IoT Start-up einen Elefanten zum Tanzen bringt?
Renner: Das Zauberwort heißt ganz klar Partnering. In diesem
Rennen geht es um Reichweite und Traffic. Hier wird nicht der
First Mover belohnt, sondern alle diejenigen, die frühzeitig ihre
Tore für smartes Partnering geöffnet haben. Mein Lieblingsspruch: „Being a First Mover is King... but Partnering is King
Kong!” Wir sollten uns auf das konzentrieren, was wir sind und
was wir sehr gut können: eine starke Marke mit starken Möglichkeiten, den Markt mit zu formen. Wir müssen nicht immer alles
selbst erfinden. Easy2Partner ist zum Beispiel ein wirklich guter
Ansatz, der zeigt, wie wir nach agilem Prinzip schnell auf den
Markt reagieren können.
30
Detecon Management Report blue • 1 / 2015
DMR: Sind Start-ups einfach nur frecher? Haben sie schlichtweg
nichts zu verlieren?
Renner: Konzerne sind Thought Leader, die in den meisten ­Fällen
sehr nah dran sind an den Trendthemen. Allersding ­hapert es oft
an der Umsetzung. Vielfach ist der Markt einfach noch nicht reif,
obwohl sich der Trend bereits klar abzeichnet. Bei einem Start-up
stimmt meist der Produkt-Markt-Fit, da aufgrund von Ressourcenrestriktionen ja tatsächlich nur dann agiert wird, wenn der
Markt da ist. Beide können also voneinander lernen. Ein Konzern hat alle Eventualitäten meist schon perfekt durchgedacht,
ein Start-up ist einfach näher am Markt.
DMR: Wie hoch schätzt Du die Chance von deutschen IoT Startups ein im Vergleich zu einem Start-up aus Tel Aviv oder dem Silicon
Valley?
Renner: Der Standort Deutschland ist gut! Per Tradition haben
wir eine exzellent ausgeprägte Engineering-Szene. Allerdings ist
unsere Venture-Szene nicht mit Tel Aviv oder vor allem dem
­Silicon Valley zu vergleichen. Besonders hervorzuheben ist der
Exit-Markt. Konzerne in den USA haben sich darauf eingestellt,
mit Start-ups zu arbeiten – Google kauft Nest – und schon vor
langer Zeit Prozesse und Geschwindigkeit an die „Kleinen“ angepasst. Hier muss in Deutschland noch viel passieren.
Zudem sehe ich vor allem das Thema Human Centered Design
als zentrale Lehre für Deutschland. In Tel Aviv und USA arbeiten die Teams an tatsächlichen Kundenproblemen und verlieren
sich nicht in technischer Liebhaberei. Wenn wir lernen, uns noch
mehr auf den Kunden zu fokussieren und unsere Engineering
Power nutzen, sind wir weltweit sehr gut aufgestellt.
DMR: Welche drei Schlüsselfaktoren für nachhaltigen Erfolg gibst
Du Deinen Mentees mit auf den Weg?
Renner: Erstens: Das Kundenbedürfnis steht im Mittelpunkt –
löse ein Problem. Zweitens: Bleib schlank – entwickle ausschließlich an der Lösung des Kundenproblems. Drittens: Bleib fokussiert beim Go2Market – erst nachdem ein Markt skaliert, sollte
der nächste angepackt werden.
Mit dem Thema „vernetzte Engeräte“ kommt eine Welle auf uns
zu, die unser Leben nachhaltig beeinflussen wird. Und wir sind
nicht zu spät dran! Diejenigen, die sich schnell und smart für
Partnerschaften öffnen, werden den Markt prägen und verteilen.
Über hub:raum: Wir sind der Hub, der Ihr Team, Ihre Vision
und Expertise mit der Unternehmensstärke der Deutschen Telekom verbindet: alles individuell auf Ihre Bedürfnisse zugeschnitten. hub:raum managt Ihre Verbindung zu einem der weltweit
führenden integrierten Telekommunikationsunternehmen. In den
Bereichen, in denen Ihr Team hervorragend ist, überlassen wir
­Ihnen den Schwerpunkt, und in den Bereichen, in denen Sie Hilfe
benötigen, unterstützen wir Sie. So, wie es sein sollte.
Christian Renner ist Investment Manager bei „hub:raum“, dem
globalen Inkubator der Deutschen Telekom. In dieser Position verantwortet er die Identifizierung und Auswahl der besten Start-ups
für den Inkubator. Er unterstützt die Portfolio-Teams dabei, ihr
Geschäft zu vergrößern und zusätzliche Finanzierung zu erreichen.
Zuvor war er eingebunden in das internationale Managementprogramm der Deutschen Telekom im Vorstandsressort Technologie
und Innovation, gründete FAT, eine Beratungs- und MarketingAgentur und war Mitbegründer von careertraining.
Zur Förderung des Unternehmertums hält Renner Vorlesungen,
veranstaltet Workshops an mehreren Business Schools wie EBS oder
Wirtschaftsuniversität Wien und berät Fortune 500 ­Unternehmen
in Sachen Innovation, Intra- und Entrepreneurship. Er ist Referent, Podiumsgast und Start-up-Jury-Mitglied als auch a­ktiver
Angel-Investor und Berater/Mentor für zahlreiche Hightech-­
Unternehmen.
31
Detecon Management Report blue • 1 / 2015
Das Internet der Dinge als letzte Chance?
Der traditionelle Handel
muss die Lücke zu erfolgreichen
Online-Händlern schließen
Der Handel muss neue Technologien zur Kenntnis nehmen und in seine Strategie integrieren.
Das Internet der Dinge könnte für viele Zauderer die Brücke zwischen on- und offline Welt
und die letzte Chance im Kampf mit dem Online-Handel sein.
ange Zeit sahen sich die Traditionalisten bestätigt: Der über
L
die vergangenen anderthalb Jahrzehnte angekündigte Siegeszug
des Online-Handels entwickelte sich nur langsam und nicht alle
Versuche, Waren online zu verkaufen, waren erfolgreich. Und
dennoch, wenn auch weniger schnell als angenommen, ist der
Online-Handel inzwischen nicht mehr nur für kleine Einzelhändler existenzbedrohend. Selbst die großen Unternehmen
sind zu einem Umdenken gezwungen.
Offline als Ausstellungsraum für Online
Der Einzelhandel steht zunehmend unter Druck. Laut ­einer
Umfrage rechnen nur 38 Prozent der deutschen ­Händler für
2014 mit einem Umsatzwachstum1. Die größte Gefahr sieht
der stationäre (offline) Handel für sich nach wie vor im eCommerce: Etwa 67 Prozent der Händler fühlen sich durch OnlineShopping bedroht. Mittlerweile lässt sich (fast) alles online
1 Pressemitteilung der Schufa vom 18. 12. 2013.
32
Detecon Management Report blue • 1 / 2015
kaufen. Meist ist die Ware im Internet günstiger und der Einkauf dort bietet weitere Vorteile: Die großen Sortimente sind
strukturiert und übersichtlich dargestellt, verschiedene Anbieter
­gewährleisten eine hohe Verfügbarkeit der Ware. Die Bezahlung
erfolgt bequem und ohne Schlange stehen zu müssen. Die einfache Vergleichbarkeit von Produktalternativen sowie Empfehlungen und Berichte unzähliger anderer Käufer helfen bei der
Auswahl.
Besonders dieser letzte Aspekt wird in vielen Geschäften vernachlässigt. Entweder gibt es nicht genug Personal zur Beratung
der Kunden oder es mangelt dem vorhandenen Personal an
Servicebewusstsein. Hinzu kommt, dass man anderen Käufern
– im Gegensatz zu Verkäufern – im Regelfall ein größeres Vertrauen entgegenbringt. „Bereits jetzt suchen etwa zwei Drittel
der deutschen Käufer im Netz nach Produktinformationen.
Der stationäre Handel entwickelt sich dadurch mehr und mehr
zum Ausstellungsraum der Online-Shops – die Kunden sehen
sich das gewünschte Produkt im Laden an, vergleichen und bestellen dann aber über ihr Smartphone. Man nennt das Show­
rooming.“, so Dr. Britta Cornelius, Managing Consultant bei
Detecon. Denn das ausschlaggebende Argument bleibt häufig
der Preis. Dadurch werden die Margen des Handels immer stärker strapaziert. Insolvenzen sind die Folge, wie etwa das jüngste
Beispiel des österreichischen Elektrohändlers DiTech, der den
Kampf gegen den eCommerce verloren hat.
Kauferlebnis: „more enjoyment – less pain”
Wie kann der stationäre Handel reagieren? „Die Option, sich als
Preisbrecher gegen den Online-Handel zu behaupten, ist aufgrund der höheren Kosten durch Mieten und Personal wenig
erfolgsversprechend. Dem stationären Einzelhandel bleibt im
Grunde nur die Option, die Affinität der Kunden für digitale
Medien zum eigenen Vorteil zu nutzen.“, so Cornelius.
Die Studie „Digital Retail Vision“2 betrachtet das Thema digitale Medien am Point of Sale (POS) aus dem Blickwinkel der
Händler- und Kundenbedürfnisse. Unter anderem wurden die
Teilnehmer gefragt, was sie am Offline-Handel stört. Eine Erkenntnis der Studie war, dass sich die Kunden einen unkomplizierten Einkauf wünschen, der sowohl unterhaltsam als auch
inspirierend ist – der Erlebnisfaktor spielt eine wichtige Rolle.
„[Offline] Einkauf ist eine Notwendigkeit und langweilig.“, befand ein Studienteilnehmer. Außerdem zeigten sich 70 Prozent
der Befragten sehr offen gegenüber neuen Technologien, und
64 Prozent waren auch bereit, mit ihrem Smartphone zu zahlen.
Diese Erkenntnisse gehen einher mit der steigenden Anzahl an
„Digital Natives“ – Kunden, die in einer digitalisierten Welt
aufgewachsen sind. Deren Bedürfnisse darf der Handel nicht
ausblenden, wenn er nicht zunehmend mehr von ihnen an die
Internet-Konkurrenz verlieren möchte. Neue Technologien
können den Einkauf zu einem eindrucksvollen Erlebnis machen, das die Routine in den Hintergrund drängt. Der stationäre Einzelhandel muss diesen Trumpf des direkten Erlebnisses,
das in einem Geschäft viel intensiver ist als auf einer Website,
ausspielen, um im Wettbewerb mit dem Online-Handel im
Rennen zu bleiben.
Mehrwert durch Standardisierung
Die Studie „Digital Retail Vision“ verdeutlichte jedoch auch
die Ängste der Händler. Der Mehrwert der neuen Technologien
erscheint nicht deutlich genug, die Angst vor Innovationen ist
groß und schmale Margen zwingen Händler dazu, ihre Investitionen einzuschränken, um den Cash Flow nicht unnötig zu belasten. Investitionen in innovative Technologien sollten jedoch
ganzheitlich analysiert werden: Neben direkten Umsatzeffekten
gibt es Einwirkungen auf die Kostenseite und die Loyalität,
welche wiederum auf zukünftige Umsätze Einfluss nimmt. Beispielsweise führt die Automatisierung der Preisauszeichnung mit
Hilfe von elektronischen Preisschildern zu Kostensenkungen.
Die Möglichkeit, eigenständig an Self-Checkout Schaltern zu
bezahlen und somit das Anstehen an der Kasse zu verkürzen,
steigert in bestimmten Segmenten die Kundenloyalität.
Ausländische Händler zeigen sich bei den neuen Technologien
aufgeschlossener als die deutschen. So sind das eigenständige
Scannen der Ware und das Bezahlen am Automaten für unsere
europäischen Nachbarn in vielen Geschäften bereits selbstverständlich. Auch Whole Foods, der weltweit größte Betreiber
einer Biosupermarktkette, die in den USA, Kanada und Großbritannien vertreten ist, zeigt sich mit dem Kinect Einkaufsbegleiter sehr experimentierfreudig. Dabei handelt es sich um den
Prototypen eines am Einkaufswagen angebrachten Bildschirms,
der die Einkaufsliste eines zuvor identifizierten Kunden zeigt.
Legt der Kunde die Ware in den Wagen, wird diese von einer
Kamera erkannt und registriert. Ist die Liste abgearbeitet, wird
der Kunde darüber informiert. Die Bezahlung erfolgt automatisch. Außerdem muss dieser intelligente Einkaufswagen auch
nicht mehr geschoben werden – er folgt „seinem“ Kunden.
Bemerkenswert an diesem Beispiel ist die „Zweckentfremdung“
– die Kinect wurde ursprünglich für die Spielkonsole Microsoft
2 Studie der Hochschule Pforzheim
33
Detecon Management Report blue • 1 / 2015
Xbox entwickelt. Dies stellt sich als Vorteil heraus, da es sich um
eine standardisierte Technologie mit bestehenden Supportprozessen handelt. Bei einem starken Verbreitungs- beziehungsweise Standardisierungsgrad fallen Einkaufs- und Betriebskosten
weitaus günstiger aus als bei Speziallösungen. Eine Standardisierung und vielfältigen Einsatz gekoppelt mit niedrigen Einsatzkosten verspricht auch die Beacon-Technologie, die aktuell für
viel Aufsehen sorgt.
iBeacon – das Ortungsgerät
Der englische Begriff „beacon“ lässt sich mit „Leuchtfeuer“ oder
auch „Ortungsgerät“ ins Deutsche übersetzen und funktioniert
nach dem Sender-Empfänger-Prinzip. iBeacon ist der 2013 von
Apple Inc. eingeführte proprietäre Standard.
iBeacons werden als Signalgeber in Räumen platziert. In festen
Zeitintervallen senden sie Signale, die ein Empfänger, beispielsweise ein Smartphone mit einer für den Empfang dieser
Signale konfigurierten App, empfangen kann. Die Übertragung geschieht dabei über die von Nokia bereits im Jahre 2006
vorgestellte Bluetooth Low Energy (BLE) Technologie, welche
extrem stromsparend arbeitet. Die App reagiert auf die empfangen Signale, zum Beispiel mit dem Anzeigen von Informationen
oder Nachrichten.
Momentan kostet ein iBeacon Chip zwischen 3-15 Euro.
­Voraussichtlich wird sich der Preis auf Dauer jedoch im unteren
Bereich dieser Spanne einpendeln. iBeacons sind klein und
können unsichtbar in die Umgebung integriert werden, zum
Beispiel in LED-Glühbirnen, wie von Philips gezeigt.3 Davon
Abbildung: Beispiel „Das beratende Weinregal“
Quelle: hybris
34
Detecon Management Report blue • 1 / 2015
abgesehen gibt es eine Fülle an weiteren Form-Möglichkeiten
vom USB-Stick bis hin zu virtuellen Beacons, die mit Hilfe
­einer Software einen Mac zu einem Beacon verwandeln.4
Auch bezüglich der bereitgestellten Informationen ist der
­Kreativität keine Grenze gesetzt. Navigation in geschlossenen
Räumen, Hinweise auf besondere Angebote, angepasst an die
Besucherzahl im Geschäft und/oder die Uhrzeit oder auch nur
die Identifikation des Kunden sind mögliche Anwendungen.
Auch für das schnellere und einfachere Bezahlen mit dem
Smartphone gibt die Technologie neue Impulse.
Eine große Community an Entwicklern beschäftigt sich bereits
seit einiger Zeit mit der Beacon-Technologie. Dabei geht es
mittlerweile nicht mehr nur um die iBeacons von Apple, sondern auch um weitere Beacon-Produkte. Das Gimbal-Beacon
von Qualcomm beispielsweise wird derzeit verstärkt von Paypal
getestet und eingesetzt. Durch den Wettbewerb um attraktive
und kommerzialisierbare Anwendungen werden stets neue und
vielversprechende Ideen verwirklicht. Zwei davon möchten wir
hier vorstellen.
Das beratende Weinregal
Die Weinauswahl ist eine Kunst für sich. Rot für Fleisch, weiß
für Fisch – das ist weitläufig bekannt. Doch wenn es um die
­Sorte, das Herkunftsland oder das Erntejahr geht, verzweifeln
viele am prallgefüllten Weinregal. Meist fehlt ein beratender
Sommelier in der Nähe. Erleichterung verspricht die Entwicklergruppe hybris mit ihrem „smart wine shelf“5.
Die Gruppe entwickelt eine App, mit der der Kunde einen
schnellen Weintest durchlaufen und danach sein errechnetes
Weinprofil an das Regal schicken kann. Die zum Geschmacksprofil passenden Weine werden am Regal beleuchtet, um den
Kunden die Suche zu erleichtern. Nimmt der Kunde eine
Weinflasche aus dem Regal, informiert ihn das Regaldisplay mit
­Details zum Wein. Außerdem wird dem Kunden angezeigt, wie
gut der entnommene Wein zu seinem grade errechneten Weinprofil passt.
Den Händlern versprechen die Entwickler von hybris mit dieser Anwendung neue Analysemöglichkeiten. Zum Beispiel ist
es möglich darzustellen, wie häufig welcher Wein entnommen
wurde, welcher danach tatsächlich gekauft wurde und welches
das beliebteste Wein-Profil ist.
3www.techrepublic.com/article/10-ways-ibeacon-is-changing-the-futureof-shopping/
4http://beekn.net/2013/11/turn-your-mac-into-a-bluetooth-beacon/
5http://techblog.hybris.com/2014/04/25/the-smart-wine-shelf-how-iot-andretail-come-together/
hybris nutzt sehr günstige Komponenten für das Regal, etwa
den Raspberry PI Prozessor und Linux OS. Als Interaktions­
trigger wird das iBeacon genutzt. Das Produkt existiert bereits
als Prototyp, 2014 möchte hybris eine vollfunktionale Version
vorstellen.
In den USA installierte das Mobile-Shopping-Unternehmen
ShopKick in zwei Filialen von Macy’s, dem größten Warenhausbetreiber der Vereinigten Staaten, die iBeacon-Technologie gekoppelt an die ShopKick-App. Daraus entstand das
­„Shop­Beacon“. Die Kunden bekommen Angebote und Produktinformation geschickt und werden so zum Kauf animiert.
Mit der sehr genauen Verortung der Kunden bietet ShopKick
außerdem die Möglichkeit zu einer genauen Laufbewegungs­
analyse, um etwa eine Optimierung der Verkaufsfläche vornehmen zu können.
Die Lösung sticht aufgrund der engen Anknüpfung an die
Kaufbedürfnisse der Kunden hervor: Sie bietet eine leichte
Navigation und eine interaktive und personalisierte Beratung,
welche das Einkaufserlebnis steigert. Sie ist ein anschauliches
Beispiel dafür, wie der Offline-Handel sich dem eCommerce
nähern kann. Der Weinkauf ist sehr stark verbreitet im Internet, es gibt unzählige Weingemeinschaften, Clubs und Großhändler. Der Marktführer Wine.com verzeichnet jährlich ein
Umsatzwachstum von über 25 Prozent. Alkohol gehört auch im
stationären Lebensmitteleinzelhandel zu den Produkten mit der
größten Marge. Indem man den Kunden richtig berät, zum Beispiel mit Hilfe eines solchen Regals, steigert man seinen Absatz
und damit die durchschnittliche Marge.
Das Versenden von Nachrichten und Angeboten sollte der Marketer allerdings nicht übertreiben. Eine Umfrage von ISACA6
zeigt, dass etwa 50 Prozent der Käufer sich unwohl fühlen bei
Nachrichten, die beim Vorbeigehen verschickt werden. Grade
die 25-34 jährigen – also die Zielgruppe dieser Technologie –
seien am meisten irritiert. Respekt vor der Privatsphäre und
wirklich passende Nachrichten sind also essenziell, um Kunden
ein perfektes Kauferlebnis zu bieten.
ShopKick’s Proximity Marketing
IoT als Chance nutzen
Ein großer Mehrwert der iBeacon-Technologie liegt darin, dass
für das Verkaufspersonal im Geschäft zum ersten Mal die Möglichkeit besteht, die weitgehend anonyme Kundschaft schon
beim Betreten des Ladens zu identifizieren und entsprechend
zu reagieren. Dies war bisher, wenn überhaupt, nur bei einer
kleinen Anzahl von Stammkunden oder durch den Einsatz
der Kundenkarte beim Bezahlen möglich. Im letzten Fall ist
der Einkauf aber bereits erledigt. Jetzt kann man den Kunden
schon für seinen Besuch im Geschäft, beispielsweise durch das
Gutschreiben von Treuepunkten, belohnen. Weiterhin erlaubt
die einfache und für den Anwender bequeme Technologie, ortsbasierte Services in Gebäude und damit in die Geschäfte und
Einkaufzentren zu bringen. Gezielte Information über den richtigen Weg oder bestimmte Angebote, die heute schon ­außerhalb
von Gebäuden in Fußgängerzonen übertragen werden können,
erhält der Kunde mittels der genauen Ortung durch die Beacons
auf sein Smartphone, sobald er einen definierten Bereich im
oder vor dem Geschäft betritt. Stellt der Kunde zusätzlich Informationen über sich zur Verfügung oder stimmt er beispielsweise
einer Integration mit den von ihm benutzen sozialen Netzwerken zu, kann der Händler über seine Kunden lernen. Mit der
Zeit erhält der Kunde nur noch Angebote, die ihn wirklich interessieren – und empfindet, dass der Händler ihn versteht.
Das Internet der Dinge bietet zweifellos eine Chance, die Attraktivität des (offline)Handels für online-affine Kunden zu steigern. Das iBeacon ist nur eine Möglichkeit, das Einkaufserlebnis am POS umzugestalten. Die dargestellten Anwendungsfälle
von hybris und ShopKick zeigen anschaulich, welche neuen
Arten der Interaktion mit dem Kunden dank dieser Technologie möglich sind. „Eine Betrachtung der Technologien anhand
konkreter Situationen, also einem Use Case, macht deutlich,
an welchen Stellen eine online-offline-Verflechtung sinnvoll ist.
Eine Datenbank zu Anwendungsfällen des Internet der Dinge
im Handel, wie sie von Detecon entwickelt wurde, bietet für
jeden Händler individuell die Möglichkeit, sich nach den wichtigsten Kriterien einen Überblick zu verschaffen.“, rät Britta
Cornelius. Nicht zu lange warten und ausprobieren, was zum
eigenen Unternehmen passt, muss die Devise sein, um die eigenen Stärken wieder in den Mittelpunkt zu rücken und die letzte
Chance im Kampf gegen den eCommerce nicht zu verpassen.
6www.technewsworld.com/story/Macys-Dips-Toes-in-Brave-NewMarketing-World-79493.html
Evgeny Shibanov, Senior Consultant, berät Unternehmen der Telekommunikationsindustrie in CIS zu innovativen und strategischen Themen.
Lea Fortmann ist Business Analyst und berät Handelsunternehmen sowie
­öffentliche Institutionen hinsichtlich Fragestellungen aus dem Innovations- und
Technologiemanagement.
35
Detecon Management Report blue • 1 / 2015
Car-to-X-Technologien verändern die Zukunft
K.I.T.T. BITTE KOMMEN!
In den 1980er Jahren galt das autonom fahrende Fahrzeug K.I.T.T., der motorisierte Star aus „Knight
Rider“, noch als Science Fiction. Heute forciert die Automobil- und Telekommunika­tionsindustrie
Aktivitäten, die das Fahrzeug vernetzen: mit dem Internet, mit anderen Fahrzeugen und mit der
Straße. Fahrzeuge werden damit zu einer Art K.I.T.T. – einem Unterstützer in allen Lebenslangen,
zumindest im Straßenverkehr.
36
Detecon Management Report blue • 1 / 2015
ar-to-X subsumiert alle Technologien, die mit Hilfe von
C
Car-to-Car- und Car-to-Infrastructure-Kommunikation darauf abzielen, die Verkehrssicherheit und -effizienz sowie den
Fahrkomfort zu steigern. Ermöglicht wird dies durch den blitzschnellen Austausch von Informationen, beispielsweise über
Fahrzeugstandort, Geschwindigkeit und Ampelstatus. Fahrzeuge kommunizieren dabei durch Vehicular-Ad-Hoc-Networks (VANETs) oder durch Mobilfunk – miteinander oder
mit der Verkehrsinfrastruktur. Über den direkten, idealerweise
in Echtzeit erfolgenden Transfer relevanter Informationen, können Fahrzeuge ihre Fahrer nicht nur automatisiert vor Staus und
Stauenden, Geisterfahrern und Hindernissen warnen, sondern
ihn auch in Gefahrensituationen automatisiert unterstützen.
Die Vision
Doch wohin soll die Reise gehen? Betrachtet man die Entwicklungen sowohl bei OEMs als auch bei Zulieferern – und als
solche betrachten wir auch explizit Google und Apple –, dann
sind die Car-to-X-Systeme ein wichtiger, aber auch notwendiger Zwischenschritt auf dem Weg zum autonomen Fahren, in
das der Mensch zwar eingreifen kann, aber nicht muss. Google
scheint bei der Umsetzung dieser Vision schon recht weit zu
sein und forscht seit 2009 am Thema „Autonomes Fahren“. Seit
2012 fahren mehrere umgerüstete Standardfahrzeuge im kalifornischen Straßenverkehr eigenständig umher und haben auf
Highways, Landstraßen und sogar im Stadtverkehr auf vorprogrammierten Routen über eine Million Kilometer offensichtlich
unfallfrei zurückgelegt. Langfristiges Ziel ist hier neben der Erhöhung der Fahrsicherheit sowie der Steigerung der Verkehrs­
effizienz wohl vor allem die Erhöhung des Zeitvolumens, das
der Fahrer während des Fahrens für die Nutzung von GoogleServices und Werbung aufbringen kann.
Auch hier bleiben Fragen offen: Wer haftet für den Fall, dass das
autonom fahrende Fahrzeug Unfälle verursacht? Hat der Fahrer
die Pflicht, ständig wachsam zu sein, um bei ­Gefahrensituationen
einzugreifen? Erste Meinungen von offizieller Seite sehen hier
ganz klar den OEM in der Verantwortung. Darüber hinaus
müssen sich Anbieter intelligenter Fahrzeuge die Frage stellen,
wie diese in andere Anwendungsfälle des „Internet of Things“
integriert werden können. Nahezu alle internationalen OEMs
und Zulieferer arbeiten und forschen an diesen Technologien
und Konzepten, stehen dabei jedoch noch vor großen Herausforderungen, sowohl im Bereich der technischen Umsetzung als
auch in der Entwicklung von tragfähigen Geschäftsmodellen.
Technische Herausforderungen
Eine der größten Herausforderungen im technologischen
­Bereich liegt dabei in der Vielzahl von unterschiedlichen Standardisierungen hinsichtlich der Übertragung der relevanten
Informationen, von denen sich bislang noch keine durchsetzen konnte. Timo Bolse, Experte im Detecon Connected Car
Solution Center, erklärt: „Die notwendigen technologischen
Lösungen und Standards für VANETs, zum Beispiel IEEE
802.11p, sind vorhanden, aber ein dominantes Design, wie
diese in die Fahrzeuge integriert werden, existiert noch nicht.
Besonders für die direkte Fahrzeug-zu-Fahrzeug-Kommunikation befinden sich die OEMs in einer wartenden Position, da
die Finanzierungssituation nicht abschließend geklärt ist. Ohne
politischen und regulatorischen Druck wird sich kurzfristig vermutlich nicht viel bewegen.“ Bei einer reinen Vernetzung über
Mobilfunk würden sich ebenfalls Verzögerungen in der Marktdurchdringung ergeben, so Bolse weiter. „Viele der potenziellen
Anwendungsfälle für direkte Fahrzeug-zu-Fahrzeug-Kommunikation können theoretisch über reine Mobilfunkverbindungen
abgewickelt werden. Da sich abzeichnet, dass Mobilfunkeinheiten allmählich in die Fahrzeuge integriert werden, wird hierdurch vermutlich die Verbreitung von 802.11p Hardware zur
direkten Kommunikation verlangsamt.“
Eine weitere, bislang noch ungelöste Herausforderung liegt im
Bereich Daten- und Übertragungssicherheit. Hier ist noch kein
umfassendes Konzept von Herstellern oder Zulieferern vorgestellt worden, das den potenziellen Kunden die Angst vor einem
„gehackten“ Auto nimmt. Dass solch ein Konzept notwendig ist
zeigen erste Studien. Chris Valasek deckte beispielsweise auf der
„Black Hat“ Sicherheitskonferenz 2014 zahlreiche potenzielle
Schwachstellen in Connected Cars auf.
37
Detecon Management Report blue • 1 / 2015
Doch nicht nur das Thema Sicherheit scheint von Brisanz. Auch
der Schutz der Daten ist noch lange nicht vollständig gelöst.
Was passiert mit all den Daten, die das Auto während der Fahrt
sammelt? Hier bedarf es einer klaren Regelung des Gesetzgebers, welche Daten von wem wie verarbeitet werden dürfen und
wie diese zu anonymisieren sind. Dies gilt insbesondere dann,
wenn der Autobesitzer dieser Datensammlung und -verarbeitung nicht explizit zustimmt. Ansonsten könnten Szenarien der
Überwachung Realität werden, die weit über das hinausgehen,
was George Orwell in „1984“ entworfen hat.
Betriebswirtschaftliche Herausforderungen
Neben diesen technischen Herausforderungen existieren bei
Automobilherstellern und Zulieferern auch zahlreiche Restriktionen, die sich aus einer betriebswirtschaftlichen Perspektive
ergeben. Eine der größten Herausforderungen auf dem Weg
zu leistungsfähigen Car-to-X-Systemen resultiert aus der aktuell noch nicht vorhandenen Marktdurchdringung. Bisher
liefern nur sehr wenige Fahrzeuge und Infrastrukturbestandteile die erforderlichen Daten, um eine flächendeckend stabile
Datenlage bereitzustellen. Doch Neukunden werden erst dann
von einem neuartigen System überzeugt sein, wenn die möglicherweise aufpreispflichtigen Features in vollem Umfang zur
Verfügung stehen. „Wir haben es hier mit einem klassischen
­Henne-­­Ei-Problem zu tun, sowohl in Bezug auf die Verbreitung
der Technologie im Fahrzeug als auch in der Verkehrsinfrastruktur.“, sagt Bolse. „Besonders auf der Seite der Infrastrukturbetreiber müsste in ausreichendem Umfang Technik verbaut werden, um realistische Anwendungsfälle zu ermöglichen“, so Bolse
weiter.
Darüber hinaus müssen OEMs flexibel bleiben, was die a­ ndere
Seite der Car-to-X-Medaille angeht: die Ausstattung der Verkehrsinfrastruktur mit Kommunikationstechnologie. Denn
eine flächendeckende Ausstattung von Lichtsignalanlagen,
Fußgängerüberwegen, Kreuzungen, Fahrbahnen und Verkehrsleitzentralen ist teuer und aufwändig, so dass nur die Politik
­diese Entwicklung forcieren kann. Ob sich diese jedoch zeitnah
hierzu entschließt, bleibt fraglich. Dementsprechend müssen
OEMs auf der einen Seite zwar weiterhin eng mit der öffentlichen Hand kooperieren, wie beispielsweise durch die 20122013 durchgeführte SimTD(Sichere intelligente Mobilität –
Testfeld Deutschland)-Studie. Auf der anderen Seite müssen sie
aber auch in Alternativen denken, zum Beispiel an die Erforschung von visuellen Systemen, die die zuverlässige und automatisierte Erkennung von Lichtsignalanlagen, Verkehrszeichen
und Fußgängern ohne entsprechend ausgerüstete Infrastruktur
garantieren.
38
Detecon Management Report blue • 1 / 2015
Doch nicht nur hinsichtlich Produktentwicklung und
Markteintritt gilt es, Hürden zu nehmen. Auch in Bezug auf
die spätere Kundenansprache müssen OEMs Dienste schaffen,
für die Endkonsumenten bereit sind zu zahlen, sei es als Besitzer
von Fahrzeugen oder auch als Nutzer von Fahrzeugen in CarSharing-Modellen, bei denen Besitzer nicht gleich Nutzer sind
und Fahrer häufig wechseln. Aktuelle Studien lassen den Schluss
zu, dass Kunden gerade im Bereich sicherheitsrelevanter Systeme besonderes preissensibel agieren. Möglicherweise müssen
OEMs einen Weg finden, wie sie den Fahrkomfort ihrer Kunden beispielsweise durch die zuverlässige Vorhersage von Staus
und Verkehrsbehinderungen erhöhen können. OEMs sollten
dabei auch abseits klassischer Geschäftsmodelle denken und
zum Beispiel Pay-per-use-Ansätze nutzen, um Kunden auch
weiterhin langfristig an die eigene Marke zu binden.
Die Automobilindustrie, allen voran die OEMs, müssen dabei
unter Beweis stellen, dass sie dazu in der Lage sind, tragfähige
Geschäftsmodelle zu entwickeln. Dies kann nur mit Partnern gelingen, die sich mit der Kommunikation verschiedener ­Devices
auskennen und erfahren in der erfolgreichen U
­ msetzung tragfähiger, digitaler Geschäftsmodelle sind. Nur durch ein intelligentes Kooperationsmodell werden es OEMs schaffen, mit
diesen neuen und schnellen Entwicklungen Schritt zu halten.
Lösungsansätze
Experten sind sich sicher, dass in den nächsten Jahren eine
Revolution in den Fahrzeugen stattfinden wird, bei der
­
­manuelle Instrumente wie das Bremspedal immer mehr durch
aktive ­Assistenzsysteme unterstützt werden. Ein Großteil der
Technik, die die Zukunft des Autofahrens ermöglichen soll,
ist heute schon in vielen Fahrzeugen vorhanden. Dazu gehört
ebenso die Vernetzung des Fahrzeugs als Grundvoraussetzung
für das zukünftige Geschäft der Automobilhersteller. Um die
Vision von autonomer PKW-Mobilität jedoch wahr werden zu
lassen, müssen die OEMs hierbei nicht nur relevante Fragen aus
ihrem Kerngeschäft beantworten, sondern auch die Welt der IT
und Telekommunikation verinnerlichen – und verstehen.
Damit bald Fahrzeuge mittels Car-to-X-Technologie durch
den Verkehrsdschungel navigieren können, reichen nicht nur
aktive Sicherheitssysteme und Sensoren aus. Künftige auto­
nome Fahrzeuge werden sich als Minderheit in einem existierenden, von Menschen gesteuerten Verkehrssystem zuverlässig
bewegen müssen. „Sicherheit“ bedeutet in diesem Fall nicht
nur, die Fahrzeuge unfallfrei durch Stau und Berufsverkehr
­fahren zu lassen, sondern auch fahrer- und fahrzeugspezifische
Daten sicher zu nutzen. OEMs müssen möglicherweise einen
Weg ­finden, die unterschiedlichen Applikationen im Fahrzeug
und die Interaktion mit der Verkehrsinfrastruktur voneinander
zu trennen. Denkbar wäre eine Aufteilung wie im ConnectedHome-Umfeld, wo Telematik-Applikationen wie die Haus­
steuerung unabhängig und gesichert vom Multimedianetzwerk
betrieben werden.
Da dies nicht zur unmittelbaren Kernkompetenz der meisten
OEMs zählt, werden sowohl auf Technologie- als auch auf Business-Seite Unternehmenspartnerschaften eine entscheidende
Rolle einnehmen. Automobilhersteller werden sich nicht mehr
ausschließlich in einer Buyer-/Supplier-Konstellation wieder­
finden, sondern benötigen einen aktiven, industrieübergreifenden Ansatz. Neben der Implementierung der notwendigen
Technik im Fahrzeug müssen sie auch die Entwicklungen im
öffentlichen Sektor aktiv unterstützen.
Durch die 2020er Klimaziele der EU laufen eine Vielzahl von
„Smart City“-Projekten in Europas Metropolen, die weniger
Stau, mehr Lebensqualität, weniger Abgase und mehr Sicherheit ermöglichen sollen. Damit dies gelingt, muss die gesamte
städtische Infrastruktur auf diesen Zukunftstrend ausgerichtet
sein, sodass Straßenlaternen, Ampeln und Parkhäuser eigenständig den Verkehrsfluss organisieren. Fahrzeuge könnten
hier als „mobile Sensoren“ einen wesentlichen Beitrag für die
Städte und Kommunen leisten, indem sie beispielsweise Daten
über freie Parkplätze direkt an Verkehrsleitsysteme übertragen.
Klamme Kommunen könnten so die nötigen Investitionen in
die Ausrüstung ihrer Städte verringern: Anstatt hunderte von
Stellplätzen mit einzelnen Sensoren auszustatten wäre ein Modell denkbar, bei dem PKWs als mobile Sensoren innerhalb der
Smart City fungieren. Die Interkompatibilität der Systeme in
Fahrzeugen und der städtischen Infrastruktur wird einer der
Schlüsselpunkte für das vernetzte Fahren der Zukunft. Unter
Wahrung der Sicherheitsanforderungen wird eine Öffnung der
Systeme dabei ein unerlässlicher Faktor sein, um die künftigen
Mobilitätsmodelle Realität werden zu lassen.
Zu guter Letzt bleibt die Frage, welche Kundenbedürfnisse mit
den Mobilitätskonzepten der Zukunft durch Car-to-X Technologien gedeckt werden? Menschen in aller Welt kaufen heute
ihre Fahrzeuge, um dem Bedürfnis einer unabhängigen Mobilität nachzukommen. Diese Unabhängigkeit wird durch autonomes Fahren künftig eingeschränkt werden. OEMs und ihre
Partnerfirmen müssen daher einen Weg finden, dem Kunden
von morgen ein neues „Mobilitätserlebnis“ zu bieten. Die Vielzahl von Varianten, Online-Dienste in das Fahrzeug zu integrie-
ren, zeigt, dass die Branche sich derzeit noch auf experimenteller
Ebene den vom Kunden als wertvoll und notwendig empfundenen Services nähert.
Studien belegen, dass Kunden den bisherigen Fokus auf Komfort- und Multimediafunktionen nur bedingt als werthaltig
empfinden und daher eine geringe Zahlungsbereitschaft besteht.
Das Erledigen von Telefonaten und E-Mails während Stau­
phasen stellt heute kaum einen Schmerzpunkt für den Kunden
dar, erhält aber eine andere Bedeutung, wenn der F
­ ahrer durch
­autonomes Fahren keinen Unfall befürchten müsste. Ob somit
das vernetzte Fahrzeug ein Treiber für das autonome Fahren sein
wird oder vice versa, kann dabei nur die Zukunft zeigen.
Der Traum von K.I.T.T bleibt dennoch bestehen.
Tobias Kardach ist Product & Proposition Manager im M2M Competence
Center der Deutschen Telekom AG. Er definiert industriespezifische M2MAngebotskonzepte, unter anderem im Bereich der Fahrzeugtelematik.
Claus Eßmann, Senior Consultant, und Dr. Stefan Gladbach, Consultant,
sind Mitglieder des Connected Car ­Solution Center. Sie beraten Unternehmen
der Automobil- und ­Telekommunikationsindustrie zu Innovationsthemen.
Das Detecon Connected Car Solution Center bündelt die Fachkompetenz
der Detecon-Experten rund um das Thema vernetztes Fahrzeug. Berater aus
verschiedenen Fachgebieten wie Innovations- und IT-Management, CRM
oder Mobile Application beschäftigen sich mit allen Phasen des Produktentstehungsprozesses.
39
Detecon Management Report blue • 1 / 2015
Interview
Datentechnisch wird
das Auto das Mobiltelefon
noch übertrumpfen
Die Verbindung von Auto und Internet garantiert, dass der ­vernetzte
Lifestyle nicht vor der Autotür halt macht. Dr. Sven Beiker vom
Center for Automotive Research spricht über seine Vision, den
Traum vom automatisierten Fahren und Silicon Valley als neuen
­Innovations-Hotspot der Automobilindustrie.
Dr. Sven A. Beiker
Geschäftsführender Direktor von CARS, Center for Automotive Research, Stanford
CARS ist eine interdisziplinäre Kooperation zwischen Wissenschaft und Industrie mit dem Ziel, die
Heraus­forderungen persönlicher Mobilität im 21. Jahrhundert zu adressieren. Dr. Sven A. Beiker verantwortet hier das B
­ eziehungsmanagement zwischen Universität und Industrie. Darüber hinaus ist er in der
Lehre tätig mit Lehraufträgen an der Stanford University‘s School of Engineering, der Stanford Graduate
School of Business und der Fakultät für Elektrotechnik der Technischen Universität Braunschweig. Für
seine eigene Forschung führt er Studien über Konsumverhalten und elektrische Mobilität in Stanfords
Precourt Energy Efficiency Center durch. ­Als Berater in Sachen Automobil und Mobilität ist er für die
Deutsch-Amerikanische Handelskammer in San Francisco sowie als Mitglied des wissenschaft­lichen Advisory Board für die Lecture Notes in Mobility der Springer Science+Business Media tätig.
40
Detecon Management Report blue • 1 / 2015
DMR: Herr Dr. Beiker, lassen Sie uns mit einer kurzen Einführung starten, in der Sie uns etwas
über sich und Ihre Organisation CARS erzählen.
Dr. Beiker: Gern. Ich bin geschäftsführender Direktor des Center for Automotive Research
an der Stanford University mit der griffigen Abkürzung CARS. Es ist ein Programm, das in
­Kooperation mit der Industrie entwickelt wurde, das heißt, wir bringen Industrie und Wissenschaft zusammen, um einen Blick in die Zukunft des Automobils zu werfen. Oder etwas weiter
gefasst, in die Zukunft der persönlichen Mobilität. Hier geht es im Wesentlichen um das Auto,
aber auch darum, wie wir mit dem Fahrzeug interagieren, um Anwendungsfälle und Geschäftsmodelle sowie darum, wie wir uns generell fortbewegen und das Auto all unsere Bedürfnisse
erfüllt. Es gibt vier Hauptthemen, an denen wir mit unseren Industriepartnern – zurzeit sind
es 27 – zusammenarbeiten: Das sind zunächst unsere fahrerlosen Kraftfahrzeuge, die manch
einer als autonome oder selbstfahrende Fahrzeuge bezeichnen würde, dann unsere elektrischen
Fahrzeuge, das heißt vernetzte Fahrzeuge, und Themen wie Car Sharing und Ride Sharing. Wir
sind davon überzeugt, dass unsere Arbeit einen ziemlichen Einfluss darauf haben wird, wie wir
uns in Zukunft fortbewegen.
DMR: Was ich selbst beobachte – und Sie wahrscheinlich in einem noch viel stärkeren Maß – ist,
dass die Automobilbranche in Sachen High-Tech-Entwicklungen nicht wirklich führend ist, insbesondere im Vergleich zu Smartphones oder gar Flugzeugen. Dazu würde ich sehr gern Ihre Meinung
hören. Warum sehen wir hier nicht den Fortschritt, den andere Branchen aufweisen? Ist das ein
­Problem, das mit der Struktur oder mit den Geschäftsmodellen zu tun hat?
Dr. Beiker: Eine Frage, die mir in der Tat oft gestellt wird, ist: „Warum ist mein Telefon so
intelligent, aber mein Auto so dumm?“ Allerdings ist das Auto eigentlich sehr intelligent oder
zumindest ein hoch entwickeltes Produkt, in das man bis zu 100 Computer installieren kann.
Sie steuern alles, von den Antriebssträngen, der Steuerung, den Bremsen bis hin zu Türschlössern und Navigation. Und all diese Systeme sind miteinander vernetzt. Das ist ein ziemlich hoher Grad an Innovation und Ausgereiftheit, wobei das meiste davon nicht unmittelbar sichtbar
ist. Und letztlich dienen all diese Systeme einem einzigen Ziel: effizient, sicher und bequem
Auto fahren. Es geht immer noch darum, von A nach B zu gelangen. Doch das Auto an sich
ist ein sehr emotionales Produkt und auch ein sehr teures. Für die meisten von uns ist es die
zweitgrößte Ausgabe während unserer gesamten Lebenszeit. Autos werden in Serie gefertigt und
die Fertigungszahlen zumeist in Millionen pro Jahr angegeben. Aus der Fertigungsperspektive
ist Effizienz ein kritischer Erfolgsfaktor. Die Entwicklung eines Automobils nimmt ziemlich
viel Zeit in Anspruch, so dass Hersteller in Verbindung mit dem Fertigungsprozess jedes Jahr
Riesenbeträge für die Werkzeugbestückung aufwenden müssen. Ein bisschen mit dem Produkt
herumzuspielen nach dem Motto „lass uns mal dieses oder jenes ausprobieren“, um dann eine
Entscheidung zu treffen – das funktioniert bei Autos nicht besonders gut.
DMR: Wie werden wir uns in 2020 fortbewegen? Welcher Prozentsatz wird auf selbstfahrende Autos
entfallen, welcher auf Car Sharing und andere innovative Mobilitätskonzepte?
Dr. Beiker: Wir veranschlagen die Dauer eines Modellzyklus mit zirka sieben Jahren. Wenn wir
über 2020 reden, dann bewegen wir uns sogar noch unter dieser Zeitmarke. Das Voranschreiten
der Technologie erfolgt offensichtlich viel schneller und in wesentlich kürzeren Iterationszyklen.
Man geht jedoch davon aus, dass sich im Automobilsektor sehr viel Neues in der zweiten Hälfte
41
Detecon Management Report blue • 1 / 2015
dieses Jahrzehnts ereignen wird. Fahrer-Assistenz-Systeme und partielle Automatisierung werden sich durchsetzen und bis zu einem gewissen Grad etablieren. Das bedeutet, dass Autos bei
sehr langsamem Verkehr so gut wie von selbst fahren. Wenn wir von sehr langsamem Verkehr
sprechen, dann meinen wir Parksituationen, eine starke Verkehrsdichte oder Verkehrsstaus, also
Momente, in denen das Auto die Funktion des Fahrers übernimmt. Trotzdem muss der Fahrer
die Kontrolle über das haben, was gerade passiert. Er muss nach wie vor die Straße im Blick
haben und auf den Verkehr achten.
Vielleicht gibt es um 2020 herum die ersten Lösungen, die den Fahrer in puncto Aufmerksamkeit völlig entlasten, aber bei unvorhergesehenen Ereignissen muss er sofort wieder übernehmen
können. Das heißt, wir betreten den Bereich der Automatisierung, in dem zunehmend mehr
Aufgaben, die das Führen eines Fahrzeugs betreffen, vom Fahrer auf den Computer übertragen
werden. Ich würde in meiner Prognose so weit gehen, dass im Jahr 2020 die Mehrheit der neuen
Fahrzeuge in der einen oder anderen Weise mit dem Internet verbunden sein wird. Egal, ob zu
Unterhaltungszwecken, Media Streaming oder Internet-Radio im Auto. Auch Gestenerkennung
ist ein wichtiger Aspekt und Spracherkennung funktioniert hervorragend im Auto. Da das Auto
eigentlich mit viel zu vielen Knöpfen und Schaltern ausgestattet ist, ist die Gestenerkennung
ganz stark in den Blick der Industrie geraten. Außerdem wird es mehr Elektrofahrzeuge geben.
Meines Erachtens besteht jedoch Einigkeit darüber, dass der Antrieb für solche Fahrzeuge auch
in 2020 mehrheitlich über Benzin- und Dieselmotoren erfolgen wird.
DMR: Dann wird also mehr als die Hälfte aller Fahrer immer noch so fahren wie heute?
Dr. Beiker: Ja. Lassen Sie es uns so formulieren: Wenn wir beide heute eine kleine Zeitreise in
das Jahr 2020 unternehmen würden, müssten wir uns sicherlich neu orientieren, bevor wir ein
Fahrzeug starten könnten. Aber danach könnten wir losfahren. Vermutlich könnten wir nicht
alle kleinen Knöpfe und Schalter zuordnen, die sich irgendwo hinter dem Steuerrad befinden,
um bestimmte automatisierte Fahrfunktionen einzuschalten. Dass sich in einem herkömmlichen Fahrzeug eine Revolution bei der Automatisierung oder dem autonomen Fahren vollzieht, ist nicht sehr wahrscheinlich. Es wäre jedoch möglich und denkbar, dass wir Situationen
erleben, in denen das Fahren innerhalb der Stadt eventuell verboten ist. Eventuell dürfen wir
dann nicht mehr in großen Städten Auto fahren, sondern nur bis zu einem am Stadtrand gelegenen Park+Ride-Parkplatz, wo wir in ein kleines automatisiertes Shuttle-Fahrzeug umsteigen.
Der Shuttle sieht allerdings nicht aus wie ein Bus, so wie wir ihn heute kennen. Es kann ein
Fahrzeug sein, das nicht mehr als vier bis sechs Passagiere befördern kann, das auf Anforderung
exakt zu unserem Aufenthaltsort – in diesem Fall zum Parkplatz – kommt und uns zu sechs
Bushaltestellen bringt, die auf diesem Parkplatz strategisch angelegt sind. Das Fahrzeug kommt
also zu uns, sammelt uns ein, bringt uns in die Innenstadt und verschwindet wieder, um neue
Kunden zu befördern. Der Grad der Automatisierung nimmt zu und es wird irgendwann auch
völlig selbstfahrende Fahrzeuge geben. Ich glaube allerdings, dass der Einsatz dieser Fahrzeuge
sehr beschränkt sein wird. Diese Entwicklung wird sich eher an der Schnittstelle zwischen persönlicher Mobilität und öffentlichen Verkehrsmitteln vollziehen und die privaten PKWs auf der
Autobahn eher vernachlässigen.
42
Detecon Management Report blue • 1 / 2015
DMR: Wo sehen Sie heute im Bereich des Internet der Dinge die interessantesten Aktivitäten?
Dr. Beiker: Das Auto ist ja bereits heute mit sehr vielen Computern ausgestattet, innerhalb des
Autos ist alles miteinander vernetzt. Wir haben erwähnt, dass Fahrzeuge bis 2020 fast alle mit
dem Internet verbunden sein werden. Darüber hinaus werden sie wahrscheinlich mit 20 bis über
100 Sensoren ausgestattet sein, die sowohl die Umgebung als auch den Zustand des Fahrzeugs
selbst erkunden. Wenn Sie dies alles zusammen nehmen, erhalten Sie aus den Fahrzeugen eine
Unmenge von Daten. Sie können Autos auch als Datensonden nutzen – sie sind „allwissend“:
Sie erhalten eine sehr detaillierte Karte über die Temperatur und die Luftdruckverteilung in
der Stadt, Informationen über die atmosphärische Zusammensetzung der Atemluft, natürlich
Informationen über die Verkehrsdichte, und falls Sie Navigationsdaten nutzen, wird Ihnen
­außerdem noch mitgeteilt, wo sich diese Fahrzeuge in den nächsten fünf, zehn, fünfzehn oder
dreißig Minuten befinden werden. Meine These lautet: Autos generieren in Zukunft wesentlich
mehr Daten als Mobiltelefone! Schauen Sie sich zum Beispiel das Verhalten der Leute in einem
Restaurant an: Nehmen wir an, ein Paar sitzt in einem Restaurant und einer verlässt kurz den
Tisch. Ich garantiere Ihnen, dass die andere Person, die am Tisch zurückbleibt, innerhalb von
dreißig Sekunden zum Telefon greift. Dasselbe wird auch im Auto passieren. Wenn Sie den
­Leuten sagen, dass sie das Fahrzeug nicht mehr führen müssen, dann werden sie die gewonnene
Zeit sofort für andere Dinge nutzen. Daher ist es absolut wichtig, dass das Auto für den vernetzten Lebensstil über eine exzellente Datenverbindung verfügt.
DMR: In Sachen Innovation nehmen Deutschland und Japan eine führende Rolle in der
­Automobilindustrie ein. Zurzeit bringen aber auch die USA sehr interessante Innovationen hervor,
größtenteils Anwendungen für vernetzte, elektrische oder selbstfahrende Autos. Wo werden sich Ihrer
Meinung nach in den nächsten Jahren die interessantesten Innovations-Hotspots befinden?
Dr. Beiker: Solche Vorhersagen für die Zukunft zu treffen, ist generell eine heikle Angelegenheit. Was die führenden Standorte für Automobilentwicklung betrifft, so ist das Silicon Valley
dank Tesla hier mittlerweile präsent. Das bedeutet einerseits, dass sich Innovation auf globaler
Ebene vollzieht, andererseits aber auch, dass sich jede Art von Innovation auf das Auto anwenden lässt. Beim Auto geht es längst nicht mehr nur um das Fahren, sondern darum, dass
man im Auto denselben Lebensstil wie außerhalb des Autos verfolgen kann. Daher ist so gut
wie alles auf das Auto anwendbar. Das neue Modell von Mercedes ist zum Beispiel mit einem
Duft-Steuerungssystem ausgestattet – man kann im Auto zwischen bestimmten Düften und
Steuerungssystemen auswählen, und je nach Fahrsituation, Klimaanlageneinstellung oder Laune
hat man dann den passenden Duft im Auto. Wer hätte gedacht, dass so etwas jemals Eingang
in die Welt des ­Autos finden würde, in der man Gerüche eher mit Benzin, Gummi oder Metall
assoziiert? Nach m
­ einer Auffassung hat sich die Automobilindustrie nicht nur im Hinblick auf
den weltweiten Absatz, der in den letzten zwanzig bis dreißig Jahren stattgefunden hat, global
entwickelt, sondern ist zu einer Branche geworden, die Innovation global vorantreibt. Daher
blickt auch jeder auf das Silicon Valley. Es ist sicherlich nicht zu einem neuen Detroit geworden,
aber diese ­Branche kooperiert eng mit Detroit. Übrigens auch mit Stuttgart, Wolfsburg, Paris,
Yokohama und Tokio. Und wenn es in der Zukunft ein neues Innovationszentrum gibt, wäre
ich nicht erstaunt, wenn Automobilhersteller dort eine kleine Außenstelle errichten würden, um
direkt zu sehen, was dort passiert.
DMR: Herzlichen Dank für all die neuen Erkenntnisse!
43
Detecon Management Report blue • 1 / 2015
Business Insights
Big-Data-Technologien machen
das Notwendige möglich
Die Nutzung von Big Data Insights ist heute bereits wesentlich leichter und
­erschwinglicher. Sie erfordert jedoch nach wie vor eine angemessene Governa­nce
­sowie eine klare Strategie, um die vorhandenen Technologien effektiv zu etablieren und
zu nutzen und wertvolle Insights für die Geschäftsbereiche verfügbar zu machen.
atengesteuerte Business Insights innerhalb eines UnterD
nehmens bilden keine Nische mehr. Sie sind ein notwendiger
­ estandteil geworden, da sie sich branchenweit zu einem echB
ten Wettbewerbsvorteil entwickelt haben. Insbesondere das
Internet der Dinge wird das Datenwachstum in Unternehmen
­wesentlich vorantreiben. Künftig wird man fast alles messen und
in Zahlen und Kontexten ausdrücken können. Firmen sollten
diese Daten nutzen – und sich in datengesteuerte Unternehmen
verwandeln!
Herkömmlicher Enterprise-Data-Warehouse-Ansatz ist
nicht mehr ausreichend
Agile Start-ups wie Uber, Zalando, 23andMe und Netflix sind
bereits extensive Nutzer modernster Big-Data- und AnalyticsTechnologien und führend in datengesteuerten Unternehmens­
entscheidungen, die den zentralen Treiber ihres Erfolgs bilden.
Zur Aufrechterhaltung der Wettbewerbsfähigkeit müssen Un-
44
Detecon Management Report blue • 1 / 2015
ternehmen das volle Potenzial aller Daten erschließen, die dem
Unternehmen zur Verfügung stehen. Das heißt, sie m
­ üssen die
Daten in einen Kontext einbetten, Erkenntnisse ableiten und
sinnvolle und durchdachte datengesteuerte Entscheidungen
treffen. Wenn es darum geht, wie verfügbare Daten innerhalb eines Unternehmens genutzt werden, unterscheidet sich
der Ansatz eines vollständig datengesteuerten Unternehmens
grundlegend von einem klassischen Ansatz. Datenvielfalt,
­Datengeschwindigkeit und Datenvolumen erfordern neue und
erweiterte IT-Architekturen und -Technologien, um StreamingDaten, Datenvolumen im Petabyte-Bereich und diverse unstrukturierte Daten managen zu können. Klassische Technologien und Paradigmen wie Enterprise Data Warehouse (EDW)
genügen diesen Anforderungen nicht länger. Insbesondere für
größere Unternehmen wird sich der Prozess, der mit dem Wandel zu einem datengesteuerten Unternehmen einhergeht, als
langwierig und schwierig erweisen. Dennoch ist die Einleitung
dieses Wandels zwingend erforderlich.
Seit Jahrzehnten errichten Unternehmen Reporting-Architekturen auf klassische Weise, und zwar unter Verwendung von
zwei Arten von Datenquellen: Betriebsdaten aus ­
Systemen
wie Enterprise Resource Planning (ERP) und Customer
­Relationship Management (CRM) sowie aus dem zentralen
Enterprise Data Warehouse (EDW). Sämtliche Daten sind in
herkömmlichen relationalen Datenbanken strukturiert, Analytics sind primär als vordefiniertes Reporting konfiguriert. Adhoc-Analysen können nur mit den vom Data Warehouse – oder
Data Marts und Analytics Cubes – gelieferten Daten durchgeführt werden. Weiterhin ist die Durchführung von Advanced
­Analytics mit den zur Verfügung stehenden Datenstrukturen
und Softwareprogrammen kaum möglich. Unternehmen nutzen spezielle Infrastrukturkomponenten, die im Hinblick auf
künftige Bedürfnisse kaum skalierbar sind. Die Kosten für diese
Art Infrastruktur sind hoch, denn aufgrund teurer Lizenzen und
spezieller Infrastrukturkomponenten werden die Kosten für die
Errichtung eines Enterprise Data Warehouse gewöhnlich mit
mindestens einer Million US-Dollar veranschlagt. Tatsächlich
wird dabei nur ein Bruchteil der erzeugten Unternehmensdaten
für das Treffen durchdachter Entscheidungen genutzt. Und
dennoch hat sich die klassische Data-Warehouse-Architektur
nicht überlebt – sie muss mit weiterentwickelten Technologien
ergänzt werden, um die Anforderungen der Zukunft erfüllen
zu können.
Big-Data-Architektur erhöht Gesamtkomplexität
Unter dem Dach von Big Data haben sich in den vergangenen
zehn Jahren mehrere neue Technologien herausgebildet. Diese
Technologien ermöglichen Unternehmen eine verteilte Datenhaltung und Datenanalyse sowie die Identifizierung von Mustern, Trends und sonstigen Insights.
Zusätzlich zu herkömmlichen vordefinierten Reports und
­Ad-hoc-Analytics, Statistical und Predictive Analytics wurden
maschinelles Lernen, Graph Analytics und operative Intelligenz
möglich. Dies wiederum erlaubte den Unternehmen nicht nur
die Durchführung von historischen Analysen und rückwärtsgerichtetem Reporting, sondern auch den Blick nach vorn und
damit die Vorhersage von Business Insights – eine aktive Unterstützung für künftige Entscheidungen!
Die Big-Data-Technologien lassen sich in die sechs unterschiedlichen Schwerpunktbereiche Datenspeicherung, Datenintegration, Analytical Processing, Visualisierung und Daten-­
Governance gruppieren, in denen spezielle Technologien
genutzt werden (siehe Abbildung).
Die neue Big-Data-Architektur ergänzt die traditionellen Systeme, erhöht aber gleichzeitig die Gesamtkomplexität. Es sind
Abbildung: Vereinfachter Big Data Stack
Datenintegration
Visualisierung
EchtzeitIntelligenz
Erweiterte
Visualisierung
Dashboard
Datenkonnektivität
Datensicherheit
und
Daten-Governace
Identitätsmanagement
Analytical Processing
Data
Ingestion
Video
Audio
Georäumlich
Web
Textsemantik
Datenverschlüsselung
Prädiktiv
Data
Mining
Maschinelles
Lernen
Reporting
Mandantenfähigkeit
(Multitenancy)
Governance
Datenzugriff
BatchVerarbeitung
Streaming und
Verarbeitung
Suchen und
Finden
Anfrage
Datenspeicherung
Hadoop
HDFS
NoSQL
Datenbanken
In-Memory
Datenbanken
Analytische
Datenbanken
Transaktionsdatenbanken
Quelle: Detecon
45
Detecon Management Report blue • 1 / 2015
diverse spezielle Systeme erforderlich, um die unterschiedlichen
Anforderungen und Methoden handhaben zu können. Insbesondere für das Internet der Dinge, M2M und Sensordaten ist
die Anwendung von In-Memory- und Streaming-Datenbanken
unverzichtbar, da die für die Daten erforderliche Echtzeitverarbeitung und Analyse mittels herkömmlicher Systeme nicht
geleistet werden kann.
Hadoop wird als zentrale Technologie für Big Data oft
falsch verstanden
Hadoop hat einen regelrechten Hype erfahren. Das bedeutet jedoch nicht, dass Hadoop wirklich von jedem Unternehmen verstanden wird. Bei Hadoop handelt es sich nicht um eine einzige
Technologie, sondern um ein ganzes Framework, das aus vielen
unterschiedlichen Technologien fast den gesamten Big Data
Stack zusammenfasst. Die Hadoop-Technologien sind Open
Source Software unter der Apache-Lizenz und w
­ urden in ihrem
Kern zuerst als Teil eines von Yahoo gestarteten Forschungsprojekts entwickelt. Die wichtigsten Bestandteile von Hadoop sind
Hadoop Common (Shared Library), Hadoop HDFS (verteilte
Datenhaltung), Hadoop MapReduce (­
Datenverarbeitung),
Pig (Datenmanipulation), Hive (Data Warehouse) und HBase (Bigtable NoSQL-Datenbank). Das Hadoop Distributed
File System (HDFS) löste eines der Hauptprobleme traditioneller relationaler Enterprise Data Warehouses: Es kann unstrukturierte Daten aus unterschiedlichsten Quellen speichern
und die Gesamtheit der gespeicherten Daten über verteilte
Standardsysteme – zum Beispiel x86-Architekturen – auf Tausenden von kostengünstigen Servern verteilen. Die Nutzung
von HDFS ermöglicht eine kostengünstige Speicherung von
­Datenvolumen im Terabyte-Bereich und ist in der Regel etwa
20 Mal preiswerter als spezialisierte BI-Systeme. Darüber ­hinaus
ist HDFS hoch skalierbar, sodass neue Server der verteilten
Infrastruktur einfach hinzugefügt werden können und historische Daten nicht mehr ausgelagert werden müssen, wie es bei
EDW-Systemen häufig der Fall ist. Die Hadoop-Komponente
MapReduce wird zur Koordinierung und Programmierung von
Batch-Verarbeitungsjobs verwendet, um Daten zu laden, zu verarbeiten und zu analysieren. MapReduce basiert nicht auf der
Datenbanksprache SQL (Structured Query Language), sondern
nutzt im Vergleich zu der weit verbreiteten SQL ein komplexeres Programmiermodell und Paradigma. Um die Datenabfragen und Datenverarbeitung zu erleichtern, versuchen viele
Anbieter, zusätzliche SQL-Layer auf MapReduce aufzusetzen.
Für Unternehmen, die gewaltige Datenvolumen, Datenvielfalt
46
Detecon Management Report blue • 1 / 2015
und Datengeschwindigkeit handhaben müssen, kann Hadoop
als zugrunde liegender Enabler für Big Data Insights betrachtet werden. Hadoop ist jedoch keine Lösung für alle Big-DataHerausforderungen, und Unternehmen, insbesondere, wenn es
sich um kleine Unternehmen handelt, sollten sorgfältig prüfen,
ob ihnen nicht gegebenenfalls bestehende traditionelle Ansätze dabei helfen können, ihren Bedarf an Daten-Insights zu
befriedigen. Kommerzielle Hadoop-Anbieter haben bis Mitte
2014 eine Risikokapitalfinanzierung in Höhe von mehr als anderthalb Milliarden US-Dollar erhalten, wodurch das enorme
Wachstum der Hadoop-basierten Technologielösungen gefördert wurde. Innerhalb des Hadoop-Marktes haben sich dabei
vier große Anbieter als deutliche Marktführer positioniert:
Hortonworks, MapR Technologies, Cloudera und IBM. Diese Unternehmen haben es geschafft, das Open Source Framework mit zusätzlichen Services und klaren Geschäftsmodellen
anzureichern. Sie bieten zum Beispiel professionelle Services
für Implementierungs-Support, Enterprise-Grade-Support und
Release-Zyklen sowie weitere (Analytics) Funktionen.
Analytics-Lösungen und industriespezifische Anwendungen
Hadoop und NoSQL-Datenbanken fördern die unternehmensweite Nutzung unterschiedlicher Datenquellen und ermög­
lichen daher eine einzige Schnittstelle für Business Analytics für
vielfach strukturierte Daten. In erster Linie geht es hier jedoch
nicht um die Technologie, sondern um den geschäftlichen Nutzen und die Nutzung der Insights für Entscheidungsprozesse
in Unternehmen. Relevante Analytics und deren Anwendung
innerhalb der Geschäftsbereiche sind ausschlaggebend, nicht
die technologischen Lösungen. Vorausschauende AnalyticsModelle werden von vielen Branchenteilnehmern genutzt, um
Angebot und Nachfrage angemessen abschätzen zu können.
Branchen wie Telekommunikation, Finanzdienstleistungen
und Einzelhandel agieren bei der Nutzung der Daten stärker
vorausschauend. Visualisierung ist für Unternehmen wichtig,
die ­
regelmäßig massive Datenvolumen erzeugen. Moderne
­Visualisierungstools sind zur Identifizierung von Mustern unverzichtbar und bewirken stärker durchdachte Entscheidungen.
Insbesondere im Bereich der Visualisierung haben diverse innovative Unternehmen in den letzten Jahren neue Lösungen
auf den Markt gebracht. Tableau und Quid sind Beispiele für
die erfolgreiche Positionierung neuer Visualisierungslösungen,
um Muster und Verbindungen zu identifizieren, Insights zu
veranschaulichen oder ganze Marktlandschaften abzubilden.
Die Verbesserung der Rechenleistung für Analytics und die Ge-
schwindigkeit von Datenströmen führen dazu, dass die Bedeutung von Echtzeit-Analytics zunimmt. Unternehmen wollen bei
neuen Ereignissen mit der Analyse auf dem Laufenden bleiben,
um so die Durchführung ihrer Geschäftsprozesse optimieren zu
können. SAP investiert seit einiger Zeit mit großem Aufwand
in seine HANA-Lösungen für In-Memory-Datenverarbeitung
mit der Zielsetzung, hiermit zentrale Enabler für Data Analytics
in Echtzeit zu ermöglichen. Die steigende Komplexität der ITLandschaft erzeugt eine Menge an Log- und Maschinendaten,
die es zu analysieren gilt. Unternehmen wie Splunk oder Sumo
Logic haben sich diesen Bereich mit operativen Data Analytics
erschlossen, die Insights über Ausfälle und IT-Probleme liefern
und diese zeitweise sogar automatisch lösen können. Neuere Bereiche wie Text Analytics und Web & Social Analytics gewinnen
ebenfalls an Bedeutung, da Unternehmen ihre Onlinepräsenz
erweitern und Soziale Medien zunehmend an Akzeptanz gewinnen.
Generische Analytics-Produkte ohne spezifische Branchenausrichtung sind der von Big-Data-Analytics-Anbietern am
häufigsten genutzte Ansatz. Sie liefern den Unternehmen die
­passenden Tools, um Analytics-Lösungen an ihre Anforderungen anzupassen und somit ihre speziellen organisatorischen
oder branchenspezifischen Herausforderungen meistern zu
können. Für manche Industrien, zum Beispiel die Finanz­
industrie, ­haben Anbieter aufgrund sich wiederholender Probleme spezielle Lösungen entwickelt, um etwa Credit Scores
innerhalb ­einer Sekunde zu analysieren oder Betrugsmuster zu
identifizieren und Risiken zu vermeiden. Der Schwerpunkt der
Lösungen für Retailer und E
­ -Commerce liegt auf prädiktiver
und operativer­­Analytics, um Kundenverhalten vorhersagen zu
können, sowie auf der Analyse operativer Daten, um effektiver
agieren zu können.
Telekommunikationsunternehmen stehen ebenfalls im Mittelpunkt, wenn es um die industriespezifische Nutzung geht. Prädiktive und operative Analytics werden insbesondere eingesetzt,
um Kundenabwanderungen vorherzusagen, Zeitreihendaten
und gewaltige Kundendatenmengen wie CDRs zu analysieren,
operative Effizienz und Marketing-Insights zu erzielen oder gar
Mobilfunkinfrastruktur auf Basis von Nutzerdaten oder durchschnittlicher Bandbreite zu planen. Weiterhin sind die visuelle
Datenentdeckung (Data Discovery) und Mustererkennung für
das Gesundheitswesen von großer Bedeutung. Stärker als andere
Branchen setzt die Hightech- und Media-Branche ebenfalls auf
Web und Social Analytics.
Neue Delivery-Modelle bilden sich im Big-Data-Ecosystem
heraus
Um mit spezialisierten und innovativen Start-ups Schritt halten
zu können, nehmen etablierte Hersteller wie Microsoft, IBM
und Oracle Anpassungen an ihren Produktangeboten und -strategien vor. Diese setzen verstärkt auf M&A-Maßnahmen, um
ihre Portfolios entsprechend der neu generierten Nachfrage zu
ergänzen. Flexible Lizenzmodelle und Open-Source-Produkte
wirken sich dabei ebenfalls auf die Einkaufsmuster von Unternehmen aus. Stark beeinflusst wird dies durch die zunehmende
Nutzung der SaaS-Delivery-Modelle für Big-Data-Lösungen.
Um einfache und schnelle Lösungen liefern zu können, offerieren viele Anbieter Out-of-the-Box-Lösungen ihrer Produkte,
die Hosting, Datenverarbeitung und auch die Software selbst
beinhalten können. Dieser Ansatz ist nicht ganz problemlos,
kann Unternehmen jedoch dabei helfen, Analytics-Lösungen
kostengünstiger, schneller und flexibler einzusetzen. Self-Service-Analytics-Lösungen für nicht technische Nutzer sind ­dabei
ein zentraler Enabler für geschäftliche Nutzer, um Daten-Insights entsprechend ihren eigenen Bedürfnissen zu entdecken,
zu analysieren und zu visualisieren. Hierbei sind insbesondere
Advanced-Analytics-Lösungen sind von schwerfälligen, komplexen und umständlich zu nutzenden Tools hin zu Use-Casebasierten und intuitiven „Dashboards“ gereift.
Die Nutzung von Big-Data-Insights stellt nach wie vor eine
technologische und organisatorische Herausforderung dar
Analytics-Lösungen und die zugrunde liegenden Technologien
haben sich weiterentwickelt und sind während der vergangenen
Jahre extrem gereift. Die effektive Nutzung von Big Data ist aber
immer noch keine einfache Standard-Aufgabe. Anwendungsfälle und Business-Anforderungen müssen von den Unternehmensbereichen nach dem Top-down-Prinzip definiert werden.
Bis heute erfordern die zugrunde liegenden Datenbanktechnologien ein hohes Maß an Anpassung und Implementierungsaufwand, damit diese Lösungen angemessen in die bestehenden
IT-Architekturen integriert werden können.
Lars Bodenheimer ist Senior Consultant und Experte für Strategie, Planung
und Rollout neuer ICT-Produkte und Technologien sowie für eine Vielzahl von Themen im Bereich ICT-Migration. Er arbeitet mit Festnetz- und
­Mobilfunkbetreibern in Nord- und Südamerika und anderen Regionen
weltweit.
Kolja Schluetter arbeitet als Consultant bei Detecon Inc., USA, und
­unterstützt Klienten weltweit dabei, neue Technologien einzuführen und die
Transformation in die digitale Geschäftswelt zu meistern.
47
Detecon Management Report blue • 1 / 2015
Implementierung von Big Data
Warum Prozesse und Kultur
von zentraler Bedeutung sind
Big Data bedingt eine ganzheitliche und grundlegende ­Transformation
des Unternehmens. Solange Unternehmen hierin nur eine weitere
­Technologieimplementierung sehen, können sie das Potenzial nicht ­ausschöpfen.
48
Detecon Management Report blue • 1 / 2015
Das starke Interesse von Unternehmen an Big Data und dessen zahlreichen Applikationen ist mehr als gerechtfertigt: Vom Internet der Dinge bis hin zu Marketing Analytics verändert Big Data die Geschäftswelt. Die Implementierung von Big
Data wird allerdings in vielen Unternehmen nur wie „noch eine weitere“ Technologieimplementierung behandelt. Diese Sichtweise ist nicht nur falsch, sondern vor
allem ineffektiv.
Wer die Leistung von Big Data wirklich nutzen will, muss die internen Prozesse
und operativen Ziele eines Unternehmens völlig neu gestalten. Wir sehen hierfür
vier Gründe:
Alte Hierarchien sind ein Hindernis: Die Bezeichnung Big Data er-
folgte aus gutem Grund. Damit Big Data sich für ein Unternehmen als effizient erweist, müssen so viele Daten wie möglich aggregiert werden. Das bedeutet jedoch,
dass Daten nicht separat gemäß den alten Linienfunktionen oder Hierarchien gespeichert werden können. Individuelle Linienfunktionen oder Abteilungen, die ihre
Daten in separaten Data Warehouses speichern, verfehlen den Zweck für Big Data.
Data Pockets stehen im Gegensatz zu Big Data: Technische
Einschränkungen und die Nachteile der Linienfunktion – mangelndes „linienübergreifendes“ Denken und Wissen auf der Fachseite sowie Machtinteressen –
führen dazu, dass Daten heute oft nur eingeschränkt verfügbar sind. Damit Big
Data effektiv ist, müssen die Daten jedoch für alle zugänglich sein. Big Data ist mit
Linienfunktionen unvereinbar.
Verfügbarkeit der Rohdaten für alle: Die Rohdaten müssen allen
Abteilungen und Mitarbeitern innerhalb eines Unternehmens zur Verfügung s­ tehen
und nicht über eine Abteilung oder Mitarbeitergruppe gefiltert werden. Zusätzliche
Einblicke und Erkenntnisse, die nicht planbar oder vorhersehbar sind, können erst
dann generiert werden, wenn verschiedene Personen und Abteilungen die Analysen
aus unterschiedlichen Perspektiven durchführen.
Management der Analyse statt Management der Daten:
Eines der größten Probleme bei Big Data ist nicht das Management der Daten,
­sondern das Management der Analyse. Das Problem „Paralyse durch Analyse“
wird sich in großen Unternehmen mit der Implementierung von Big Data noch
­potenzieren. Da viele Personen und Abteilungen Analysen durchführen, besteht
für die Unternehmen das Risiko, eine Überfülle an Analysen zu erhalten und daher
wichtige Entscheidungen nicht rechtzeitig zu treffen.
In welcher Weise müssen Unternehmen sich also neu aufstellen, um die Leistung
von Big Data effektiv nutzen zu können?
49
Detecon Management Report blue • 1 / 2015
Eine effektive Big-Data-Implementierung beinhaltet ­Folgendes:
Neugestaltung der Unternehmenshierarchie:
Falls Globalisierung und Soziale Medien es noch nicht geschafft haben, die alten Funktionssilos in
den Unternehmen aufzubrechen, wird Big Data den Anstoß zum Handeln geben!
Damit Big Data gut funktionieren und effektive Analysen auf der Basis von aggregierten Daten liefern kann, ist es erforderlich, die Datenströme neu zu definieren.
In den meisten Unternehmen verläuft der Datenstrom „bottom-up“, da der Großteil der Daten sich aus den täglichen Interaktionen zwischen Unternehmen und
Kunden generiert. Die Verwaltung dieser Daten ist entscheidend für den Erfolg von
Big Data. In der Vergangenheit war das Management dieser massiven Datenvolumen durch die Linienfunktionen eine wahre Herkules-Aufgabe. Wir sehen jedoch
zwei Trends, die das Aufweichen dieser alten starren Struktur bewirken: Erstens
geht mit dem Eintritt der Generation Y ins Arbeitsleben ein Wertewandel einher.
Zweitens stehen heute leistungsstarke und kostengünstige Technologien für die
Speicherung, Verarbeitung und Analyse unendlich vieler Daten zur Verfügung, die
atemberaubend sind im Vergleich zu den Möglichkeiten der letzten drei Jahrzehnte.
Geschwindigkeit und Datenvolumen der Analysen haben sich vervielfacht.
Zentrale Datenerfassung und -speicherung:
Big Data ist nur
dann effektiv, wenn alle Daten zentral aggregiert werden. In diesem Kontext sollte
darauf hingewiesen werden, dass zentralisiertes Erfassen und Speichern nicht identisch ist mit zentraler Kontrolle. Das zentrale Erfassen und Speichern ist absolut
wichtig, damit gewährleistet werden kann, dass alle Daten für eine sorgfältige Analyse und Interpretation der relevanten Fragen, die es zu beantworten gilt, verfügbar
sind.
Verhindern, dass das Erfassen und Speichern von Daten
in der Unternehmenshierarchie „verloren geht“: Eine der einschneidendsten Änderungen, die Unternehmen bei der Implementierung von Big
Data kontinuierlich überwachen müssen, ist, dass die Daten nicht innerhalb der
einzelnen Linienfunktionen oder Hierarchien „versteckt werden“ oder „verloren
gehen“.
Bereitstellung der erforderlichen Tools, Schulungen und
Support: Big Data ermöglicht es, die Daten innerhalb der gesamten Unter-
nehmensstruktur „freizusetzen“. Diese Datenfreiheit ist jedoch mit einer großen
Verantwortung in Bezug auf Analysen verknüpft. Eine freie Verfügbarkeit der Daten ohne die erforderlichen Schulungen, Tools und Support ist die Anleitung für
eine perfekte Unternehmenskatastrophe. Ein konsequentes Schulungsprogramm ist
unverzichtbar.
Dedizierter Support in Bezug auf Unternehmensressourcen:
Eine effektive Big-Data-Implementierung erfordert ein mit Ressourcen ausgestat-
50
Detecon Management Report blue • 1 / 2015
tetes Team, dessen Aufgabe nicht nur in der schnellen Durchsetzung der kulturellen
Veränderungen und Überprüfung der Prozesse besteht, sondern das zur effektiven
Implementierung von Big Data angemessene Schulungen durch- und Regeln innerhalb des Unternehmens einführt.
Kultureller Wandel: Mit der Neukonzeption der Datenströme und
der ­Verfügbarkeit von Datenanalysen müssen im Unternehmen neue kulturelle
­Normen gesetzt werden, um effektive Entscheidungsprozesse zu ermöglichen und
der ­„Paralyse durch Analyse“ vorzubeugen. Die Verankerung einer entsprechenden
Kultur ist von zentraler Bedeutung in einem Umfeld, in dem Daten ausgetauscht
werden und für jeden verfügbar sind, insbesondere auch zur Vermeidung von
­Silobildung. Ebenso wichtig ist die Offenheit in Bezug auf Daten-Sharing und
Analyse.
Bereinigte Daten ja, „politisch“ bereinigte Daten nein: Mit
konsequent bereinigten Daten kann sichergestellt werden, dass die Analysen ­präzise
sind und relevante Erkenntnisse liefern. Bereinigte Daten dürfen jedoch nicht als
Daten interpretiert werden, die so bearbeitet wurden, dass einzelne P
­ ersonen oder
Abteilungen „gut aussehen“. Außer in Bezug auf die Konsistenz dürfen an den
­Daten keine Änderungen vorgenommen werden.
C-Level-Support:
Das größte Hindernis bei der effektiven Implementierung von Big Data ist die Gewährleistung eines durchgehenden und dedizierten
C-Level-Supports. Ohne C-Level-Support wird jeder Versuch einer effektiven BigData-Implementierung zum Scheitern verurteilt sein.
Da Big Data für den Ausbau von Wettbewerbsvorteilen unverzichtbar sein wird,
müssen Unternehmen schnell handeln und adäquate Implementierungspläne erstellen. Die hohe Relevanz, die Technologiepläne haben, muss auch den Veränderungen in Kultur, Prozessen und HR beigemessen werden. Unternehmen sollten
Big Data auf keinen Fall bloß als ein weiteres Technologieprojekt betrachten, das
einfach nur implementiert werden muss. Vielmehr geht es bei Big Data um eine
ganzheitliche und grundlegende Transformation des Unternehmens, die kurz- wie
auch langfristig mit großer Sorgfalt angegangen werden muss. Nur wenn diese
­Prämisse eingehalten wird, können Unternehmen daraus ihren Nutzen ziehen.
Eric Quon-Lee ist als Management Consultant bei Detecon Inc., USA, tätig. Er ist Spezialist für
­Themen in den Bereichen Finanzen, Humankapital und Projektmanagement.
Thomas Peters, Senior Consultant, nutzt seine Erfahrungen aus der Telekommunikationsindustrie
und erbringt Beratungsleistungen für Kunden in Sachen ICT-Systeme und -Infrastruktur in service­
orientierten Umgebungen. Darüber hinaus erstellt er Geschäfts- und Marktanalysen und ist spezialisiert auf die Entwicklung und Ausrichtung von Geschäfts- und Technologiestrategien.
51
Detecon Management Report blue • 1 / 2015
Big Data für Telekommunikationsunternehmen
Die Sweet Spots treffen –
kurzfristige Chancen
intern realisieren
Für Telekommunikationsunternehmen liegen die Chancen von Big Data in Einsparungen, die
sie durch interne ­Effizienz­steigerungen ihres Netzes und ihrer Abläufe erzielen. Sie sollten die
zentralen ­Anwendungsfälle für Big Data identifizieren, die für ihre Organisation nutzbringend
sind, und Pilotprojekte starten, um den potenziellen Nutzen eines datengesteuerten Betreibers
zu testen.
enn das Wachstum stagniert und die Gewinne sinken,
W
halten Telekommunikationsbetreiber in entwickelten Märk-
ten Ausschau nach neuen Potenzialen. Über Konnektivitätslösungen hinaus streben Telekommunikationsunternehmen
nach Möglichkeiten, IoT-Plattformen und -Analytics, also die
Big-Data-Komponente des Internet der Dinge, anzubieten. Die
zentrale Frage lautet: Wird „Big Data“ zum „Big Thing“, das
den nächsten Wachstumsschub auslöst?
Studie zeigt Potenziale und Grenzen auf
Um diese Frage für einen integrierten Tier-1-Betreiber (Festnetz
und Mobilfunk) beantworten zu können, haben wir eine umfangreiche Studie durchgeführt. Ziel war es, den tatsächlichen
Wert von Big Data für die Unternehmen zu quantifizieren. Die
Ergebnisse waren überzeugend: Die Möglichkeiten, die Big
Data eröffnet, sind enorm. In unserem Fall könnte die potenzielle Gesamtauswirkung einer bis an die Grenzen genutzten
Big-Data-Strategie für diesen Betreiber mehr als fünf Milliarden
52
Detecon Management Report blue • 1 / 2015
US-Dollar Umsatz sowie Kostenersparnis während der nächsten
fünf Jahre innerhalb eines einzigen Marktes generieren. Blickt
man auf die Treiber dieser Möglichkeiten, ergeben sich zusätzliche Erkenntnisse für die Entwicklung einer Big-Data-Strategie
von Telekommunikationsbetreibern: Für integrierte Betreiber
mit unternehmenszentrierten ICT-Portfolios eröffnet sich die
Möglichkeit, Big-Data-Lösungen als Service zu ­
entwickeln.
Sie nutzen hierzu bestehende Ressourcen, um H
­ osting, pro­
fessionelle Dienste sowie Big-Data-zentrische Innovationen,
zum Beispiel Sicherheit und M2M, zur Erweiterung ihres Portfolios anzubieten. Unsere Quantifizierung zeigt jedoch auf, dass
mehr als 60 Prozent aller Möglichkeiten in Bezug auf Big Data
für die Betreiber realisiert werden können, wenn Big Data als
eine potenzielle Effizienzquelle innerhalb des Unternehmens
genutzt wird. Big-Data-Technologien können bei der Neu­
definition und Verbesserung bestehender interner Abläufe unterstützend wirken – von der Optimierung der Netzplanung
über die Aktualisierung der Speicherinfrastruktur bis hin zur
Reduzierung von Betrug.
Unsere Studienergebnisse zeigen aber auch, dass das Potenzial
für Big Data als Enabler neuer Geschäftsmodelle für Telekommunikationsunternehmen nur ein Hype ist. Zwar ist es richtig,
dass Daten eine wirtschaftliche Goldmine sind. Der Kreis der
echten Gewinner bleibt jedoch klein und erstreckt sich letztendlich auf digitale Giganten wie Google, Facebook oder Amazon,
die sich mit ihrem immensen Volumen an personalisierten, kontextuellen Insights den größten Wertschöpfungsanteil sichern.
Auch wenn Telekommunikationsunternehmen innerhalb des
digitalen Ökosystems als vertrauenswürdige Partner gelten,
­befinden sie sich aufgrund ihrer begrenzten Menge an kundenspezifischen Datenbeständen – insbesondere im Vergleich zu
­digitalen Diensteanbietern – in einer relativ schwachen Position. Wir sehen wenig Sinn in der Verfolgung einer Strategie,
die ein kurzfristiges Eindringen in diesen Markt bewirken soll,
denn gemäß unserer Studie generiert selbst eine hocheffektive,
erfolgreiche Markteindringung weniger als zehn Prozent der
gesamten Big-Data-Umsätze. Da wir die Möglichkeiten in diesem wettbewerbsintensiven Umfeld als suboptimal einschätzen,
raten wir Betreibern, in diesem Bereich zurzeit nicht aktiv zu
werden.
Es gibt allerdings einige sehr überzeugende Anwendungsfälle,
aus denen Telekommunikationsunternehmen erheblichen geschäftlichen Nutzen entwickeln können. Entscheidend ist, zu
wissen, wo und wie Betreiber in dieses Ökosystem eindringen
können, um neue Umsätze als Anbieter von Big-Data-Services
generieren zu können. Noch wichtiger ist es aber, die internen
„Sweet Spots“ zu finden, Bereiche, für die Big Data zur Verbesserung interner Prozesse genutzt werden kann.
Big Data als Wachstumschance
Mobilfunkbetreiber haben den Vorteil, dass sie die in ihrem Besitz befindlichen Daten zu Geld machen und zusätzliche Umsatzströme generieren können. Diese Daten könnten wertvoll
für kundennah arbeitende Unternehmen diverser Branchen wie
Einzelhandel, Werbung, Marketing, Gesundheitswesen und
­Finanzen sein. Große Chancen liegen in der Analyse von Kundendaten, um den Absatz zusätzlicher Produkte und Dienste
über Cross- oder Up-Selling zu steigern.
Die Abbildung zeigt die externen Möglichkeiten für Betreiber
auf. Abgebildet sind das Volumen und die Geschwindigkeit von
Big Data mit dem Wert, den Big Data auf den unterschiedlichen Stufen der Wertschöpfungskette – von den Rohdaten bis
zu den vollständig analysierten Daten – generiert. Die inverse
Beziehung zwischen Datenwert, -volumen und -geschwindigkeit zeigt, dass der tatsächliche Wert in der Bedeutung und Auslegung der Daten liegt.
Rohdaten: Mobilfunkbetreiber können Rohdaten wie Standort,
Kundenprofil und -demografie oder Verkehrsdaten an Unternehmen verkaufen. Diese Daten werden von den Unternehmen
vorrangig dazu verwendet, um ihre bestehenden Produkte mit
Mehrwert aufzuladen. Ein Beispiel ist Locaid, ein LaaS-Unternehmen (Location-as-a-Service), das Netzwerkstandortdaten an
Life360, einem Anbieter für Family Safety Apps, vertreibt. Als
reiner Datenanbieter haben Betreiber weniger Möglichkeiten,
erweiterte Dienste anzubieten. Daher ist die Datenvermittlung
eine weniger attraktive Option.
Abbildung: Big Data – eine Wachstumschance
Geschwindigkeit
~ € 700 Millionen
~ € 350 Millionen
€ 1 Millarde
Rohdaten
• Rohe, unverarbeitete Quelldaten
• Location, Bewegung, Verkehr etc.
Hosting/Management
• Datenerfassung und -transport
• Data Hosting, Datenspeicherung und Datenmanagement
Big Data VAS
• Data-Analytics-Plattform, Insights, Präsentation
•M2M-Lösungen
Produktverbesserung/Marketing
• Datengesteuerte Interaktionen mit Endanwendern
• Cross-Selling, Up-Selling, Produktempfehlungen
und -verbesserungen
Volumen
= Beispielhafte, sich steigernde Umsatzchance in den nächsten 5 Jahren für repräsentativen Service Provider
Quelle: Detecon
53
Detecon Management Report blue • 1 / 2015
Hosting/Management: Seit Betreiber mit dem Hosting, Verarbeiten, Verwalten und der Zusammenfassung von Daten für
Unternehmen, die eine Plattform für Big Data benötigen, begonnen haben, steigt diese Option im Wert. M2M- und IoTUnternehmen benötigen eine solide Datenverarbeitungs- und
-managementplattform für ihre Lösungen. Sprint ist ein Beispiel
für einen solchen Betreiber, der mit der Entwicklung einer offenen Plattform für M2M-Lösungen diese Chance ergriffen hat.
Die Plattform bietet M2M-Lösungen für vernetzte Kraftfahrzeuge, vernetzte Flotten, integrierte Versicherungs­
leistungen,
Asset Tracking, Einzelhandel und Gastronomie, Fernüberwachung und Fernkontrolle oder das Gesundheitswesen. Andere
Beispiele beinhalten Unternehmen wie Integra Telecom und
Macquarie Telecom, die Daten-Hosting und Speicherlösungen
für unterschiedliche Unternehmen und Branchen anbieten.
Big Data VAS: Betreiber haben Applikationen und Produkte
entwickelt, die einen Einblick in die Daten ermöglichen und
sie damit für Unternehmensentscheidungen branchenweit noch
nützlicher machen. Solche Angebote ermöglichen es Unternehmen, ihre Produkte mit Mehrwert aufzuladen und Plattformen
für datengesteuerte Transaktionen für Bereiche wie M2M Analytics, Echtzeit-Netzsicherheit/-Risikoerkennung und Customer
Insights für Werbung zu entwickeln. Ein Beispiel dafür ist die
von Telefónica Dynamic Insights kürzlich eingeführte Lösung
für Händler. Sie liefert Erkenntnisse, die auf dem Verhalten
von Crowds basieren und Unternehmen und staatliche Organisationen dabei unterstützen, durchdachte Entscheidungen zu
treffen. Dieses Produkt, das Kundendaten in Echtzeit anonym
sammelt und aggregiert, zeigt die Verhaltensmuster der unterschiedlichen Bevölkerungsschichten. Ein Händler kann beispielsweise vor Geschäftsöffnung die Anzahl der Kunden kennen, die – aufgeschlüsselt nach Zeit, Geschlecht und Alter – in
einem Gebiet verweilen. Verizons Precision Market Insights, ein
weiteres Beispiel in diesem Kontext, anonymisiert und verkauft
Informationen über Standort und Nutzerverhalten der Kunden.
Werbeunternehmen können erfahren, welche Inhalte ihre Zielgruppe mit hoher Wahrscheinlichkeit mobil konsumiert und
somit ihr Cross- und Up-Selling optimieren.
Produktverbesserung/-Marketing: Der höchste Wachstumswert
in Bezug auf Big Data kann dann erzielt werden, wenn Betreiber
Daten nutzen, um ihre Kunden besser zu verstehen und sie mit
kontextbezogenen Angeboten gezielt ansprechen. Die Daten,
die mit Zustimmung der Kunden erfasst werden, ermöglichen
es den Betreibern, eine 360-Grad-Sicht auf den Kunden zu erhalten und diesen mit stärker personalisierten und kontextbezogenen Inhalten, Produkten und Diensten anzusprechen. Ein
Beispiel in diesem Zusammenhang ist die O2-App „Priority
54
Detecon Management Report blue • 1 / 2015
Moments“, die den O2-Mobilfunkkunden exklusive und maßgeschneiderte Angebote liefert, die auf detaillierten und mit Zustimmung der Kunden zur Verfügung gestellten Daten basieren.
OTT-Provider wie Netflix und Amazon zählen in diesem Segment wahrscheinlich zu den Fortschrittlichsten. Netflix nutzt
beispielsweise intelligente Algorithmen zur Analyse von Daten,
die von den Abonnenten stammen, um diese mit personalisiertem Content gezielt anzusprechen und eine Auswahl künftiger
Inhalte vorzuschlagen.
Betreiber haben die Wahl, ob sie einen oder mehrere Anwendungsfälle implementieren. Sie können den passenden Ansatz
mittels Durchführung einer Analyse des lokalen Marktes, der
im aktuellen Portfolio enthaltenen Lücken, der Potenziale, der
regulativen und rechtlichen Probleme, des Datenschutzes und
der Ressourcen entwickeln.
Big Data als Treiber für Kosteneinsparungen
Der bei weitem größte Anteil des Big-Data-Nutzens ergibt sich
allerdings aus den potenziellen Einsparungen durch die internen Anwendungen der datengesteuerten Systeme. Die potenzielle Reduzierung der globalen Kosten, die sich daraus ergibt,
beträgt 54 Milliarden US-Dollar pro Jahr oder fast sechs Prozent der Gesamtkosten der Telekommunikationsunternehmen
(IDATE 2013). Von den Möglichkeiten, Big Data in den operativen Geschäftsablauf eines Unternehmens zu implementieren,
heben sich drei Anwendungsfälle aufgrund ihres erheblichen
Einsparpotenzials und ihrer frühzeitigen Zugkraft ab: Netzplanung und -optimierung, Identifizierung von Betrug (Fraud
Detection) und Reduzierung der Kundenabwanderungsquote.
Netzplanung und -optimierung: Die Netzinfrastruktur verschlingt bei den meisten Unternehmen fast die Hälfte der
Investitionskosten. Deshalb können sogar geringe Kostensenkungsmaßnahmen, die für das gesamte Netz eines Telekommunikationsunternehmens durchgeführt werden, enorme Einsparungen bringen. Netzoptimierungsplattformen sind keine
Standardlösungen. Es sind komplexe Systeme, die auf einer
Server- und Datenbankinfrastruktur, Datenmanagement- und
Analysesoftware und kundenspezifischen Integrationen basieren, die auf die individuellen Spezifikationen eines Unternehmens zugeschnitten sind. Datengesteuerte Netzplanung und
-optimierung wird schon seit einiger Zeit genutzt, aber die
­neuen Entwicklungen, Netzleistung in Echtzeit zu erkennen
und zu analysieren, ermöglichen es, dass Plattformen wesentlich
größere Datenvolumen verarbeiten können. Gemäß unserer
Studie ergeben sich dadurch für die Betreiber innerhalb der
nächsten fünf Jahre Kosteneinsparungen in einer Größenord-
nung von 19 Milliarden US-Dollar. Das Unternehmen AT&T
beispielsweise ist dafür bekannt, Unmengen an Daten in seinem
Netz zu erfassen – das Volumen ist während der vergangenen
sechs Jahre um sagenhafte 50.000 Prozent angestiegen und ermittelt 30 Milliarden Datenpunkte pro Stunde. Mit einem intern entwickelten Analyse-Tool, dem Tower-Outage-Analyzer,
kann AT&T feststellen, wie sich die Ausfälle auf Kundenaktivitäten auswirken, um dann die Reparatur solcher Funkmasten zu
priorisieren, deren Auswirkungen auf die Kunden am stärksten
sind. Laut eigener Aussage konnte AT&T die Customer Experience mit dieser Methode um 59 Prozent steigern.
und Reduzierung der Kundenabwanderungsquote führt. Als
zum Beispiel die Kundendatensysteme von Telefónica Ireland
ltd. hohe IT-Kosten und starke Verzögerungen bei der Datenanalyse verursachten, änderte das Unternehmen die Strategie
und setzte zur Analyse des Kundenverhaltens eine einheitliche
­Data-Warehousing-Strategie ein. Das reduzierte die Total Cost
of Ownership und verbesserte die Erreichbarkeit der Kunden
über Location-based Marketing, das auf Personen abzielt, die
sich in der Nähe von Telefónica-Niederlassungen bewegen.
Fraud Detection: Nach Angaben der Communications Fraud
Control Association haben Telekommunikationsunternehmen
aufgrund von Betrug weltweit einen Verlust in Höhe von 46
Milliarden US-Dollar allein in 2013 erlitten. Betrug kann überall vorkommen. Unternehmen sind daher gezwungen, in FraudDetection-Systeme zu investieren. Mithilfe solcher Systeme
können Riesendatenströme länder- und kundenübergreifend
durchsucht werden, um betrugsverdächtige Nutzungs- und
Zahlungsmuster zu identifizieren. Turkcell ging eine Partnerschaft mit Oracle ein, um eine Big-Data-Plattform zu implementieren, die Beziehungen und Muster zwischen Schlüssel­
parametern zur Vorhersage betrügerischer Handlungen erkennt.
Dies ermöglicht eine schnelle Betrugsaufdeckung und minimiert die negativen finanziellen Auswirkungen.
Für Anwendungsfälle wie die Reduzierung der Kundenabwanderungsquote, Customer Experience Management und
Netzplanungsoptimierung gilt, dass sie bereits jetzt mittels herkömmlicher Data-Analytics-Technologien ständig optimiert
werden. Der durch Hadoop herbeigeführte Technologiesprung
liefert jedoch in all diesen Fällen Größenordnungen, höhere
Transparenz und Effizienz. Daraus ergibt sich wiederum das
Potenzial, die Leistungssteigerung voranzutreiben. Damit verbunden ist – wie in unserer Studie ermittelt – eine erhebliche
finanzielle Auswirkung.
Reduzierung der Kundenabwanderungsquote: Als Wettbewerber in gesättigten Märkten entsteht für Telekommunikationsunternehmen der Nebeneffekt, dass sie mit steigenden Kosten
für Kundengewinnung und Kundenbindung (SAC/SRC) konfrontiert werden, die einen großen Teil des Kunden-ARPU verschlingen. Zur Aufrechterhaltung ihres Kundenstamms nutzen
Betreiber eine Vielzahl spezieller Techniken einschließlich Kundenbindungsprogramme wie „Net Promoter Score“ und „Voice
of the Customer“, bei denen es sich um Methoden handelt, die
Feedback in messbaren Datenpunkten zusammenfassen. Die
Vielfalt an Kundenkontaktpunkten, aus denen sie CustomerExperience-Daten extrahieren, ermöglicht Kundenbindungsexperten die gezielte Nutzung dieser Informationen. Hier kommt
die Verbreitung der Customer-Experience-ManagementPlattformen ins Spiel. Unternehmen wie Medallia entwickeln
CEM-Softwaresysteme, die Kundenfeedback und CRM-Daten
abteilungsübergreifend integrieren, um daraus umsetzbare Insights zur Verbesserung der Kundenerlebnisse abzuleiten. Da
Big-Data-Plattformen Kundenberatern einen leichteren Zugriff
auf Kundendaten erlauben, können Telekommunikationsunternehmen eine persönlichere Beziehung zu ihren Kunden aufbauen, was wiederum zu einer erhöhten Kundenzufriedenheit
Wir sehen erst die Spitze des Eisbergs
In den nächsten fünf Jahren wird Big Data weitere Möglichkeiten eröffnen, die wir zum jetzigen Zeitpunkt noch nicht
quantifizieren können. Donald Rumsfeld, ehemaliger US-Verteidigungsminister, formulierte es in seinem berühmten Statement zum Irak-Krieg so: „ ... aber es gibt auch unbekannte Unbekannte – Dinge also, von denen wir nicht wissen, dass wir sie
nicht wissen.“ Diese Formulierung trifft auch für Big Data zu.
Was wir allerdings wissen, ist, dass Big Data für Telekommunikationsbetreiber kurzfristig beträchtliche Chance bereithält.
Langfristig betrachtet haben wir möglicherweise erst die Spitze
des Eisbergs entdeckt.
Yasmin Narielvala leitet den Bereich Strategy & Innovation bei Detecon
Inc., USA. Mit fast 20 Jahren Branchenerfahrung führt sie strategische
Technologie­bewertungen für Kunden durch und entwickelt Maßnahmen für
das Innovations­management, die Wachstum vorantreiben und der Disruption
entgegenwirken.
Daniel Means ist Consultant und Mitglied des Teams Strategy & ­Innovation
bei Detecon Inc., USA. Er unterstützt Kunden aus vielfältigen Branchen
dabei, in jeweils angrenzenden Branchen aktiv zu werden und neue Produkte
einzuführen.
55
Detecon Management Report blue • 1 / 2015
Auswirkungen des Internet der Dinge auf die Transportnetze
Wie sich Netzbetreiber auf den
Vormarsch der Maschinen vorbereiten
Die heutigen Telekommunikationsnetze sind nicht für Anwendungsfälle des Internet der Dinge
ausgelegt. Welche Auswirkungen wird es auf die Netze der Betreiber haben, wenn bis 2020
26 Milliarden Dinge mit ihren Netzen verbunden sind?
56
Detecon Management Report blue • 1 / 2015
enn man über das Internet der Dinge (Internet of Things,
W
IoT) spricht, geht die Auffassung darüber, welche Geräte tat-
sächlich als „Dinge“ betrachtet werden – und somit auch die
Anzahl der Dinge, die mit dem Internet jetzt schon verbunden
sind und künftig verbunden sein werden –, weit aus­einander.
Im Folgenden konzentrieren wir uns auf innovative IoT-Anwendungsfälle wie implantierbare Herzmonitore, BiochipTransponder bei Nutztieren, Fahrzeuge mit eingebauten Sensoren oder intelligente Thermostatsysteme. Aus diesem Grund
bleiben Endgeräte wie Smartphones, Tablets und Laptops unberücksichtigt. Wir gehen auf die Netzanforderungen ein, die
die IoT-Anwendungsfälle dem Transportnetz abverlangen, beispielsweise hinsichtlich Adressierung, Sicherheit, Verkehr und
Servicequalität. Betreiber müssen ihre Netze für diese Anforderungen rechtzeitig vorbereiten, um das Umsatzpotenzial zu
nutzen, das die IoT-Anwendungsfälle versprechen.
Die Adressierung des Internet der Dinge
Das gegenwärtig weit verbreitete Internet-Protokoll Version 4
(IPv4) wurde vor langer Zeit entwickelt mit der Folge, dass der
Adressraum jetzt allmählich ausgeschöpft ist. Weltweit gibt es
keine nicht zugewiesenen IPv4-Subnetze mehr. Um der steigenden Anzahl an Geräten, die an das Netz angebunden sind,
Adressen zuweisen zu können, wurde das Internet-Protokoll Version 6 (IPv6) entwickelt. IPv6 bietet einen riesigen Adressraum
von zirka 3,4×1038 eindeutigen IP-Adressen, und selbst wenn
wir sämtliche Adressen abziehen, die von Standardisierungs­
gremien reserviert sind, bleiben noch etwa 4,6×1018 Adressen,
die für Endsysteme, die mit dem Internet verbunden sind, genutzt werden können. Auch wenn die Weltbevölkerung im Jahr
2020 auf acht Milliarden Menschen angewachsen sein wird,
wird jeder Mensch weltweit zirka 575 Millionen IPv6-Adressen
bekommen. Das ist der Grund, warum das IPv6-Protokoll für
das Internet der Dinge das Protokoll der Wahl sein wird.
Derzeit liegt das Problem darin, dass die Internet Provider IPv6
nur sehr langsam einführen. Die RIPE-Statistik zeigt, dass zum
jetzigen Zeitpunkt nur 18 Prozent der autonomen ­Systeme*
IPv6 eingeführt haben. Aus Abbildung 1 geht ebenfalls deutlich hervor, dass die Betreiber nach einer ­Wachstumsphase der
IPv6-Einführung während der Jahre 2010 bis 2012, die durch
den zunehmend knappen IPv4-Adressraum ausgelöst wurde,
ihre Bemühungen zur Einführung von IPv6 gedrosselt haben.
Lateinamerika bildet aufgrund des schnellen Internetwachs­
tums und der fehlenden freien IPv4-Ressourcen die einzige
Ausnahme.
Die tatsächliche Situation hinsichtlich der IPv6-Einführung
ist noch gravierender, weil die RIPE-Statistik nur die Anzahl
der IPv6-Subnetze ausweist, die von Organisationen erworben
wurden, während aus Googles Statistik hervorgeht, dass nur
* Teil des Internet, das von einem Netzbetreiber betrieben wird.
Abbildung 1: Prozentsatz der Netze (ASes), die ein IPv6-Präfix ankündigen
28 %
=
=
=
=
=
=
26 %
24 %
22 %
20 %
EU
USA
Lateinamerika und Karibik
Asien-Pazifik
Afrika
Alle Länder
18 %
16 %
14 %
12 %
10 %
8%
6%
4%
2%
0%
2004
2005
2006
2007
2008
2009
2010
2011
2012
2013
2014
2015
Quelle: RIPE
57
Detecon Management Report blue • 1 / 2015
4,5 Prozent der Besucher der Google-Website IPv6-Adressen
verwenden. Es liegt daher auf der Hand, dass Telekommunikationsbetreiber und Internet Service Provider stärkere Anstrengungen zur Einführung des IPv6-Protokolls unternehmen
­müssen, um ihre Netze für das IoT-Zeitalter zu rüsten.
Implikationen in Bezug auf Sicherheit
Auch wenn das Adressenproblem mit dem IPv6-Protokoll gelöst werden kann, erfordert die Nutzung von IPv6 gleichzeitig
ein stärkeres, verlässlicheres und komplexeres Sicherheitsmodell
als das zurzeit verwendete. Im Folgenden geht es um die Sicherheit, die das Netz und nicht die Anwendungsschicht bietet.
Die derzeitige Beschränkung des IPv4-Adressraums führte zur
Entwicklung der nachstehend üblichen Vorgehensweise, die
in Kundennetzwerken zur Anwendung gelangt: Der Provider
weist dem Kunden eine „öffentliche“ Adresse zu, während der
Kunde in seinem privaten Umfeld mit seinem Internetzugangsgerät (IAD) „private“ IP-Adressen für seine Geräte verwendet.
Eine Network Address Translation(NAT)-Funktion im IAD
übersetzt dynamisch private in öffentliche IP-Adressen. Während NAT als Verfahren zur Überwindung des eingeschränkten
IPv4-Adressraums ­entwickelt wurde, wird es fälschlicherweise
auch als Sicherheitstool betrachtet, weil es die Topologie des
privaten Kundennetzwerks verbirgt und die Verbindung vom
Internet zum privaten Netzwerk ­einschränkt. Fälschlicherweise
wird NAT als Sicherheitstool wahrgenommen. Aufgrund seiner
Ubiquität und Einfachheit präferieren Betreiber und Nutzer
jedoch NAT statt Firewalls, die verlässlicher, aber gleichzeitig
auch komplizierter zu handhaben sind.
Ein weiterer Aspekt bei NAT ist, dass es Probleme für alle Protokolle verursacht, die eine direkte Verbindung zwischen den
Internet-Hosts, zum Beispiel VoIP-Gespräche und -Signalisierung, Internet-Video-Anrufen oder unterschiedlichen Cloud-­
Synchronisierungsprotokollen, erfordern. Entwickler von Internet-Anwendungen müssen große Anstrengungen unternehmen,
um unterschiedliche Methoden zur Überwindung dieser NATHindernisse zu entwickeln. Dies führt dazu, dass ihre Lösungen
teurer, weniger skalierbar und weniger zuverlässig sind.
Mit der Entwicklung des IPv6-Protkolls fiel das NAT-Verfahren
weg, weil IPv6 jedem Nutzer ausreichend öffentliche Adressen zuweisen kann. NAT bedeutet ein einfacheres Applika­
tionsdesign für viele IoT-Anwendungsfälle, aber gleichzeitig
erfordert es ein besseres Sicherheitskonzept, um die Verbindung
zu und von den mit dem Internet verbundenen Dingen zu kon-
58
Detecon Management Report blue • 1 / 2015
trollieren. Dies ist insbesondere für viele IoT-Anwendungsfälle
wichtig, da sie die Kontrolle kritischer Infrastrukturen (Smart
City, Smart Energy) oder die Überwachung sensibler Daten ermöglichen.
IADs mit IPv6-Support verfügen heute bereits über eingebaute
Firewalls. Konfiguration und Handhabung jedes dieser SmartHome-Geräte wie Glühbirnen, Kaffeemaschinen, Kühlschrank,
Klimaanlage oder Überwachungskamera sind jedoch für den
typischen Nutzer zu kompliziert. Für den Internet Service Provider liegt darin die Chance, den Nutzer von dieser Bürde zu
befreien und die Netzsicherheitsregeln für das Heimnetzwerk
des Kunden zu managen. Um dies zu tun, muss der Provider die
Geräte kennen, die im Netzwerk des Kunden eingesetzt sind.
Anderseits ist der typische Kunde nicht mit allen technischen
Einzelheiten seiner Geräte vertraut, weil er diese einfach nur
nutzen, aber nicht verwalten will.
Heute gibt es neue Technologien, die dieses Dilemma lösen und
es dem Kunden ermöglichen, sein Gerät mit dem Heimnetzwerk über Plug-and-Play zu verbinden, und es gleich­zeitig dem
Internet Service Provider erlauben, alle erforderlichen Sicherheitsanforderungen für das installierte Gerät automatisch zu
empfangen und geeignete Sicherheitsregeln auf dem IAD des
Kunden und/oder den Edge Devices des Betreibernetzwerks zu
implementieren. Diese Technologie wird als Software Defined
Networking bezeichnet.
Verkehrswachstum und Qualitätsanforderungen
Aus sämtlichen Prognosen geht deutlich hervor, dass die Anzahl der mit dem Internet verbundenen Geräte die Anzahl
der Menschen, die online sind, sehr bald übersteigen wird. In
2020 werden wahrscheinlich fünfmal mehr Geräte als Nutzer
vernetzt sein, wenn man das Wachstum der Weltbevölkerung
und die optimistische Annahme berücksichtigt, dass 75 Prozent
der Bevölkerung bis 2020 online sind. Dieses eindrucksvolle
Wachstum der vernetzten Dinge ist jedoch nicht der zentrale
Treiber des Internet-Verkehrswachstums bis 2020, wie sich anhand einer einfachen Berechnung aufzeigen lässt: Die meisten
IoT-Anwendungsfälle verfügen über integrierte Sensoren oder
Aktuatoren, die den Datenverkehr mit zirka 5 bis 15 Kilobytes
pro Minute übertragen, wohingegen die durchschnittliche
Hauptverkehrsstunde pro Internetnutzer eine Bandbreite von
100 bis 200 Kilobit pro Sekunde aufweist. Abbildung 2 zeigt die
auf diesen Annahmen basierende Entwicklung der vernetzten
Nutzer, Dinge und des Verkehrs.
IoT-Anwendungsfälle werden den Internet-Verkehr in den
kommenden Jahren wahrscheinlich nicht beschleunigen, aber
sie erhöhen die Qualitätsanforderungen für Transportnetze. Anwendungsfälle wie die Überwachung von Herzschritt­machern,
Waldbränden, die frühzeitige Erdbebenerkennung oder die
Überwachung der Energie- oder Gasindustrie stellen hohe
Anforderungen an Netzqualitätsparameter, insbesondere hinsichtlich Paketverlust oder Latenz. Die derzeitigen Netze sind
für Breitbandnutzer und in erster Linie für Best-Effort-Verkehr
und Kostenoptimierung konzipiert. Auch wenn für Video-­
Streaming oder Sprachanwendungen eine Verzögerung von
100 Millisekunden ausreichend sein kann, erfordern viele IoTAnwendungsfälle eine Latenz von nur wenigen Milli­sekunden.
Bei der Entwicklung ihrer Netze sollten die Betreiber diese
erweiterten Qualitätsanforderungen berücksichtigen und zum
Beispiel Edge Clouds – dezentrale Netz-, Rechner- und Speicherressourcen – in ihre künftigen Netzwerkarchitekturen einbinden. Da IoT-Anwendungsfälle generell ein hohes Maß an die
Flexibilität der Transportnetze fordern, muss die ­Netzqualität
ebenfalls flexibel und auf Abruf verfügbar sein. Zusätzliche Qualitätsanforderungen resultieren ebenfalls aus der Entwicklung
der traditionellen Breitbanddienste für Netzbetreiber. Cloudbasierte TV- oder Gaming-Dienste erfordern ein hohes Maß an
Interaktivität und eine geringe Latenz. Daher steht die Transportnetzqualität bereits ganz oben auf der Agenda der Betreiber.
Diese können Synergien nutzen, wenn die Transportqualität für
Breitbanddienste und IoT-Anwendungsfälle verbessert wird.
Doch selbst wenn die eigenen Netze der Betreiber Qualität
­liefern, reicht dies nicht aus, um die Anforderungen der IoTAnwendungsfälle zu unterstützen. Sensoren sind weltweit
verteilt und mit den Netzen unterschiedlicher Betreiber verbunden. Wenn die Betreiber das Umsatzpotenzial des qualitätsgarantierten Transports für Smart City-, Smart Environment-,
industrielle Steuerungs- oder eHealth-Applikationen nutzen
wollen, muss diese Netzqualität Ende-zu-Ende verfügbar sein.
Diese aus den IoT-Anwendungsfällen resultierende Anforderung für Ende-zu-Ende-Qualität könnte sich als neuer Treiber
für Inter-Operator-Vereinbarungen über Netzqualität erweisen.
Während des letzten Jahrzehnts waren die Inter-Operator-Vereinbarungen über die Lieferung einer Ende-zu-Ende-Qualität
nicht besonders erfolgreich: Die Herausforderung, Transportqualität für Video-Streaming-Applikationen zu liefern, wurde
zum Beispiel von CDN-Providern und nicht von Netzbetreibern gelöst. Doch insbesondere für Applikationen, die anfällig
für Paketverluste sind und kein großes Verkehrsaufkommen generieren, können Inter-Operator-Qualitätsvereinbarungen eine
gute ­Lösung sein. Betreiber sollten schnell den Bereich Endezu-Ende-Qualität besetzen, weil sonst die Gefahr besteht, dass
die Applikationsebene eine ­Lösung liefern.
Abbildung 2: Wachstum der mit dem Internet verbundenen Dinge und Nutzer
Mit dem Internet verbundene
Nutzer/Dinge in Milliarden
Teil des IoT-Verkehrs
= Mit dem Internet verbundene Nutzer
= Mit dem Internet verbundene Dinge
= Teil des Geräte-Verkehrs
30
10 %
26,3
25
9%
8%
7%
20
6%
15
5%
13,4
4%
10
5
0
3%
3,8
3,4
3,0
0,9
2015
3,5
4,4
6,9
5,6
5,0
2%
1%
1,8
0%
2016
2017
2018
2019
2020
Quelle: Gartner, UN, Detecon
59
Detecon Management Report blue • 1 / 2015
Die Lieferung von Netzqualität für IoT-Anwendungsfälle ist für
Betreiber sowohl ein Erfordernis als auch eine ­Umsatzchance,
wobei die zusätzliche Lieferung von Netzwerkdiensten eine
­weitere Möglichkeit darstellt. Da viele IoT-Anwendungsfälle
Sensoren oder Aktuatoren mit Einschränkungen hinsichtlich
des Energieverbrauchs und der Funktionen beinhalten, können
die Betreiber mehrere Dienste wie standortbezogene Dienste,
Synchronisierungsdienste oder Notrufdienste zur Unterstützung der diversen IoT-Anwendungsfälle anbieten. Wenn diese
Funktionen durch das Netz verfügbar gemacht werden, dann
können die Sensoren, zum Beispiel durch Ent­fernung der GPSModule, vereinfacht und Kosten und Energieverbrauch entsprechend optimiert werden.
Das Internet der Dinge und Software Defined Networking
Wie soll das IoT-Netzwerk aussehen? Kurz zusammengefasst:
Das Netzwerk, das die Anforderungen des Internet der D
­ inge erfüllt, muss agil sein, um Verbindungen, Management und Kontrolle der diversen Dinge, die über unterschiedliche Zugangstechnologien verbunden sind, mit Plug-and-Play-Mechanismen
zu ­ermöglichen. Zusätzlich zu der gestiegenen Zahl an Endpunkten (IPv6-fähig) müssen die Verbindungen zwischen den
Endpunkten flexibel und auf Abruf eingerichtet werden, und
zwar unter Verwendung unterschiedlicher Kommunikations­
modelle, die sich von Hub and Spoke-Modellen für Thin ­Clients
über lokale ­Vorverarbeitung bis hin zu Peer-to-Peer-Modellen
für Smart Clients ­erstrecken. Ein weiterer zentraler Aspekt des
IoT-Netzwerks ist die Interoperabilität, die die Integration von
Geräten unterschiedlichster Hersteller ermög­licht. ­Einige der
IoT-Anwendungsfälle stellen zusätzliche Anforderungen an das
Netz – beispielsweise eine stärkere Zuverlässigkeit sowie erhöhte
Sicherheit und Datenschutz bei Anwendungsfällen aus den Bereichen Gesundheitswesen und Sicherheit.
Sind die Netze der Betreiber für das Internet der Dinge ­gerüstet?
Die bestehenden Netze weisen keine ausreichende Flexibilität
auf, um sich den Anforderungen schnell anzupassen, die sich
aufgrund ändernder Netzanforderungen, innovativer Service
Offerings und der konsequenten Ende-zu-Ende-Betrachtung,
um das gesamte Netz zu managen, ergeben. Es müssen neue
Netztechnologien untersucht werden, damit das Internet der
Dinge Realität werden kann, ohne dass für die bestehenden
Netze zu hohe Belastungen entstehen. Software Defined Networking (SDN) kann die erforderliche Flexibilität, Interoperabilität und Netzwerkprogrammierung liefern.
SDN zeichnet sich aus durch die Trennung von Weiterleitung
und Kontrolle des Verkehrs, die Existenz eines logisch zentrali-
60
Detecon Management Report blue • 1 / 2015
sierten Netzmanagements und dadurch, dass das Netzwerk über
offene APIs zur Anwendungsschicht verfügt. Die zentrale anbieterunabhängige Kontrolle des gesamten Netzwerks von einem
einzelnen ­logischen Punkt ermöglicht eine erhebliche Vereinfachung von Netzwerkdesign und -betrieb. Im Gegensatz zur
gegenwärtig vorherrschenden Konfiguration auf Geräteebene
ermöglicht die Ende-zu-Ende-Netzwerkansicht darüber hinaus
die Bereitstellung von Diensten Ende-zu-Ende mit der erforderlichen Sicherheit und den Servicequalitätsparametern (QoS).
Aufgrund der permanent steigenden Anzahl der IoT-Anwendungsfälle werden sich neue Umsatzchancen für Telekommunikationsunternehmen und in noch stärkerem Maße für
Betreiber ergeben, die in der Lage sind, innovative Dienste
rechtzeitig anzubieten. SDN liefert einen Mechanismus, um
Netzwerkressourcen schnell zu konfigurieren, zu verwalten und
zu o­ ptimieren, und zwar mit Hilfe von automatisierten SDN-­
Anwendungen, die auch wieder verwendet oder bei Bedarf
leicht erzeugt werden können.
Eine zu SDN komplementäre Technologie, die zur Optimierung der Betreibernetze beitragen kann, um die Anforderung
des IoT zu erfüllen, ist die Virtualisierung von Netzfunktionen
(NFV). NFV wendet die weiterentwickelte IT-Virtualisierungstechnologie auf Netzwerkfunktionen an, um zu ermöglichen,
dass statt proprietärer Plattformen standardisierte IT-Server,
Switches und Speicher verwendet werden. Dies ermöglicht sowohl die Skalierung der Kapazität als auch die Mobilität von
Netzwerkfunktionen. Diese Flexibilität in der Dimensionierung
und Lokalisierung von Netzwerkfunktionen wird sich für Betreiber als leistungsstarkes Tool erweisen, um die Anforderungen des Internet der Dinge erfüllen zu können.
Dr. Stefan Schnitter ist Partner im Bereich International Telecommunications
mit langjähriger, internationaler Erfahrung auf dem Gebiet IP-basierter Netze
und Dienste. Der Schwerpunkt seiner Beratung umfasst Strategien für den
Breitbandausbau für Festnetz- und Mobilfunk­betreiber sowie die Architektur, Planung und Implementierung der Netze für Telekommunikationsunter­
nehmen weltweit.
Vera Markova und Alexey Gumirov sind Senior Consultants aus dem Bereich
­International Telecommunications.
Bereit für die Zukunft ?
Agilität in Prozessen und IT
Integrierter Ausbau
der Netzkapazitäten
Infor
mati
onen
Differenzierte
Marktbearbeitung
Fokussierte
Innovation
unte
r: w
ww.
dete
con.
com
Empowerment
Wholesale
Forcierung
Partnering
Herausforderung „Zukunft“
Moderne
Netzkonzepte
Consulting
DETECON
M2M für Telekommunikationsunternehmen
Strategiedimensionen für
den Eintritt in den M2M-Markt
62
Detecon Management Report blue • 1 / 2015
Telekommunikationsunternehmen sehen sich sich mit einem stagnierenden oder sogar sinkenden
Mobilfunkgeschäft konfrontiert. Neue Geschäftsmodelle nahe den eigenen Kernkompetenzen
und mit Umsatzsteigerungspotenzial rücken in den Fokus. Noch bietet der sich entwickelnde
M2M-Markt eine vielversprechende Chance für Telekommunikationsunternehmen.
ie Einführung von Machine-to-Machine (M2M) in das
D
Portfolio scheint zunächst für Telekommunikationsunternehmen
einfach möglich, da sich das M2M-Geschäft vom traditionellen
Mobilfunkgeschäft auf den ersten Blick nicht wesentlich unterscheidet. Grundprozesse wie die Bereitstellung von SIM-Karten
und Endgeräten sowie deren Provisionierung und Abrechnung
sind in beiden Geschäften notwendig. Auf den zweiten Blick
werden jedoch erhebliche Unterschiede mit Konsequenzen in der
Bereitstellung von M2M-Dienstleistungen durch Telekommunikationsunternehmen deutlich.
Um erfolgreich in den M2M-Markt einzutreten, sollten Telekommunikationsunternehmen eine umfassende Strategie entwickeln. Hierbei müssen die Charakteristika des M2M-Marktes
und der Betriebsmodelle ebenso betrachtet werden wie die notwendige Technologielandschaft, die für die Bereitstellung von
M2M-Dienstleistungen erforderlich ist (siehe Abbildung 1). Im
Folgenden stellen wir zu diesen Themenkomplexen unsere Erfahrung aus einer Vielzahl von Kundenprojekten vor, um entsprechende Hilfestellungen an die Hand zu geben.
Charakteristika des M2M-Marktes
Der M2M-Markt unterscheidet sich deutlich vom klassischen
Mobilfunkgeschäft. Das M2M-Geschäft wird bestimmt durch
eine Vielzahl von geschäftlichen Anwendungsfällen, in d­ enen
M2M-Kommunikation zum Einsatz kommt. Dies reicht von
branchenspezifischen Lösungen, zum Beispiel Industrielle
Automatisierungen oder Remote Health Monitoring, Smart
­
Metering, mit lokal oder regional angepassten M2M-Service
­
Portfolios bis hin zu generischen Tracking-Lösungen, die weltweit zum Einsatz kommen können.
Aufgrund des breiten Einsatzspektrums von M2M-Technologie
müssen Telekommunikationsunternehmen beim Einstieg in das
M2M-Geschäft eine klare strategische Positionierung ent­wickeln.
Dazu müssen die angestrebte Wertschöpfungstiefe, das Produktportfolio und der regionale Fokus definiert werden. D
­ arüber
­hinaus nehmen der Aufbau und die Pflege von Unternehmens­
kooperationen und Partnernetzwerken eine heraus­
ragende
­Stellung ein.
Abbildung 1: Die M2M-Strategie
Der Markt
Der Betrieb
Die Technologie
•Wertschöpfungstiefe
•Kundensegmentierung
und Produktportfolio
•Regionalität
•Partnerschaften
•Organisation
•Governance
•SIM/Roaming
•Plattform
•Netzwerk
Quelle: Detecon
63
Detecon Management Report blue • 1 / 2015
Die Wertschöpfungskette für M2M-Dienstleistungen kann
schematisch in die notwendigen Hardware-Komponenten wie
Kommunikationsmodule und Sensoren, Konnektivität, die ITPlattform für das Management von Konnektivität und SIMVerwaltung, die Plattform für „Solution Enabling“ und die (vertikale) Lösung für den Endkunden zerlegt werden. Für letztere
sind oftmals umfassende Dienstleistungen für die Integration der
M2M-Plattformen in die bestehende IT-Landschaft der Kunden
notwendig.
In dieser komplexen Wertschöpfungskette müssen Telekommunikationsunternehmen sich positionieren. Aus unserer Projekterfahrung ergeben sich im Wesentlichen drei mögliche Platzierungen, die in Abhängigkeit von den eigenen Möglichkeiten
bewertet werden müssen.
Telekommunikationsunternehmen können sich für das reine
Anbieten der Konnektivität, das „Connectivity Wholesale“Modell, entscheiden. In diesem Modell erfährt der Anbieter
nur eine limitierte Wahrnehmung im Markt – keinen direkten
Endkundenzugang – und kann nur einen geringen Anteil am
Gesamtumsatz einer M2M-Lösung abschöpfen. Dies veranlasst
viele Telekommunikationsunternehmen, ihr Angebot ­„Managed
Connectivity“-Szenario um die Bereitstellung von Diensten
zum Konnektivitäts- und SIM-Management zur Verfügung zu
stellen. Entscheidet sich das Telekommunikationsunternehmen,
die Position als „End-to-End Solution Provider“ einzunehmen,
ist neben einer Plattform für „Solution Enabling“ auch die Orchestrierung möglicher Partner entlang der gesamten Wertschöpfungskette nötig. Mit dieser Option hat der Operator jedoch
einen direkten Endkundenzugang und kann seine eigene Marke
für die Vermarktung nutzen.
Kundensegmentierung und Produktportfolio: Abgeleitet aus den zuvor genannten möglichen Positionierungen eines Telekommunikationsunternehmens im M2M-Markt stellen B2B oder B2B2C
die wesentlichen Modelle dar. Das Spektrum potenzieller Kunden deckt die komplette Bandbreite von kleinen Unternehmen,
vielfach auch Start-ups, bis hin zu globalen Großkonzernen ab.
Die avisierten Kundensegmente haben erheblichen Einfluss auf
die Art der angebotenen Dienstleistungen. So müssen für kleine Unternehmen standardisierte Produkte angeboten werden,
während für große Kunden vielfach maßgeschneiderte Lösungen
zum Einsatz kommen, die auch eine tiefe Integration in bestehende IT-Systeme erfordern. Die Auswahl der zu adressierenden
Kundensegmente hängt deshalb stark von den eigenen Kompetenzen beziehungsweise von den Partnerschaften des Anbieters
im Bereich Systementwicklung und Systemintegration ab.
Das Dienstleistungsportfolio ist zudem branchenspezifisch auszurichten. Spezifische Lösungen und Produkte werden angeboten und auf die jeweiligen Bedürfnisse einer Industrie angepasst.
Abbildung 2: Die M2M-Wertschöpfungskette
M2M-Wertschöpfungskette
Trend bei
Telekommunikationsunternehmen
Geräte und Module
Konnektivität
Solution
Enabling
Option 1: Wholesale Provider
Konnektivität
Option 2: Managed Connectivity Provider
Konnektivität
Konnektivitäts- und
SIM-Management
Option 3: End-to-End Solution Provider
Konnektivität
Quelle: Detecon
64
Konnektivitäts- und
SIM-Management
Detecon Management Report blue • 1 / 2015
Konnektivitäts- und
SIM-Management
Solution
Enabling
Vertikale Lösungen
Integration
Horizontale Lösungen hingegen sind Standardprodukte, welche
branchenübergreifend angeboten werden können. Die Anwendungsfälle für horizontale Lösungen sind jedoch nach wie vor
begrenzt.
Regionalität: Ein Großteil der Komplexität des M2M-Geschäfts
hängt von der geographischen Reichweite des M2M-Angebots
ab. Weltweit ist zu beobachten, dass sich Telekommunikationsunternehmen dazu entschließen, ausschließlich im Heimatmarkt
oder in benachbarten Regionen M2M-Dienstleistungen anzubieten. Nur wenige große Anbieter, beispielsweise Vodafone, setzen
auf eine globale Bereitstellung von Lösungen. Ein Kriterium zur
Bestimmung der geographischen Reichweite ist die derzeitige
Marktabdeckung, Partnerschaften und das Marktpotenzial des
Anbieters.
Partnerschaften: Der M2M-Markt ist vielfältig und komplex.
Um hier zu bestehen, sind Partnerschaften unabdingbar. Diese
können in allen zuvor beschriebenen Dimensionen – Wertschöpfungstiefe, Produktportolio und Regionalität – genutzt werden.
Die funktionalen Partnerschaften decken Bestandteile der M2MWertschöpfungskette ab, die nicht im Kompetenzbereich des
eigenen Unternehmens liegen, zum Beispiel Entwicklung von
Hardware-Komponenten. Vertikale Partner unterstützen bei
der Entwicklung und Vermarktung von Dienstleistungen in den
­fokussierten Industrien. Mithilfe von geographischen Partnerschaften können Telekommunikationsunternehmen ihren „Footprint“ erweitern – im M2M-Markt kann dies in Form von einzelnen Roaming-Verträgen, M2M-Kooperationen mit anderen
Anbietern oder durch den Eintritt in bestehende M2M-Allianzen
erreicht werden. Nicht zuletzt sollten auch in der Vermarktung
von M2M-Produkten Partnerschaften angestrebt werden. Neben
Vertriebskooperationen, die insbesondere in großen Deals Anwendung finden, hat sich für Telekommunikationsunternehmen
die Bereitstellung eines Marktplatzes als veritables Modell herausgestellt. Hier können Kunden Partnerlösungen erwerben, die auf
Basis einer Plattform für „Solution Enabling“ funktionieren. Die
Wahl des Partnermodells hängt stark von der Produktreife und
Kundenbeziehung des Partners im Vergleich zur eigenen ab.
Operatives M2M-Geschäft
Nicht nur bei der Segmentierung des Marktes und der zugehörigen Positionierung birgt das M2M-Geschäft Besonderheiten,
sondern auch bei der operativen Bereitstellung von M2M-
Dienstleistungen. Durch die typischerweise niedrigen ARPUs,
die notwendige IT-Expertise und die Anforderungen bezüglich
Flexibilität und Schnelligkeit der Lösungsbereitstellung sind die
Organisation und Governance im Vergleich zum traditionellen
Mobilfunkgeschäft anders aufzustellen.
Organisation: Die optimale interne organisatorische Aufstellung
hängt im Wesentlichen von der gewählten Wertschöpfungstiefe
und der Priorität des M2M-Bereichs im Unternehmen ab. Es
können drei Basisvarianten für die Einbindung von M2M in die
Organisation unterschieden werden.
Die integrierte M2M-Organisation bindet ein M2M-Team innerhalb einer bestehenden B2B-Organisationeinheit des Anbieters ein. Diese Variante ist durch ihre schnelle Umsetzbarkeit
vor allem im Szenario „Connectivity Wholesale“ relevant. Die
geringe Autonomie bei der Budgetgestaltung und die geringere Wahrnehmung innerhalb der Organisation hindert jedoch
die Umsetzung höherer M2M-Ambitionslevels. Der Aufbau
­einer strategischen Business Unit für M2M verspricht dahingehend die Nutzung von Querschnittsfunktionen bei gleichzeitig
­höherer Eigenbestimmung. Eine Gefahr liegt jedoch im Wettbewerb mit bereits etablierten Einheiten, dem sich die M2M-Einheit mit ihren typischerweise geringeren Margen und längeren
­Akquisezeiten stellen muss. Die Einführung einer unabhängigen
Legaleinheit für M2M, mit eigenverantwortlicher GuV und Vertragsautonomie gegenüber Kunden und Partnern, ist die typische
Lösung bei End-to End-Solution Providern.
Klare Governance: Telekommunikationsunternehmen mit mehr
als einer operativen Gesellschaft, zum Beispiel mehreren Landesgesellschaften, müssen die Rollen und Verantwortungen
im Bereich M2M eindeutig festlegen. Bei einer zentralisierten
­Governance wird das M2M-Geschäft aller operativen Gesellschaften auf der Konzernebene gesteuert und kontrolliert. Wird
dieses Governance-Modell mit dem Aufbau eines zentralen
M2M-Kompetenzteams verbunden, das mit den lokalen B2BEinheiten kooperiert, kann kurz- bis mittelfristig ein entscheidender Wettbewerbsvorteil entstehen, da die M2M-Expertise
schnell und zielgerichtet aufgebaut werden kann. Im Gegensatz
dazu, wird bei in einem Modell mit lokaler Governance das
M2M-Geschäft auf Ebene der operativen Gesellschaften geführt.
Diese Option verspricht eine hohe lokale Spezialisierung auf die
jeweiligen Märkte bei geringeren Synergieeffekten auf Konzern­
ebene. Bei der föderierten Governance werden die Verantwortlichkeiten zwischen Konzern und operativen Gesellschaften
65
Detecon Management Report blue • 1 / 2015
aufgeteilt. Der höhere Abstimmungsaufwand kann durch den
Aufbau eines zentralen M2M-Kompetenzteams bei gleichzeitig
gezieltem Angang der lokalen Märkte ausgeglichen werden.
Schlussendlich hängt die Wahl des Governance-Modells stark
von der etablierten Organisationsstruktur des Konzerns und der
Mitwirkung der einzelnen operativen Gesellschaften ab.
Technologische Landschaft
Neben Markt und Betrieb ist Technologie der dritte Bestandteil
einer M2M-Strategie. Auf den Ebenen Plattform – für Konnektivität & SIM-Management und Solution Enabling –, SIMStrategie/Roaming und Netzwerk müssen wesentliche Dinge
beachtet werden.
Plattform: Die Art und der Umfang der notwendigen M2MPlattform hängt insbesondere von der verfolgten Positionierung
innerhalb der Wertschöpfungskette ab.
Eine Plattform für Konnektivitäts- und SIM-Management dient
als eine Art „Self Service Portal“. Sie stellt wesentliche Funktionen
zur Verwaltung von SIM-Karten – zum Beispiel SIM-Karten Aktivierung und Deaktivierung, Bestellung, Provisionierung – und
die zugehörigen Verbindungen für den Geschäftspartner zur Verfügung. Darüber hinaus kann sie als Basis für den Aufbau einer
Plattform für Solution Enabling dienen. Eine Solution-EnablingPlattform stellt Programmbibliotheken häufig benutzter Funktionalitäten und sonstige Programmierschnittstellen zur Verfügung.
Hiermit kann die Entwicklung branchenspezifischer, vertikaler
M2M-Lösungen vereinfacht und beschleunigt werden.
„Solution-Enabling-Plattformen wurden lange Zeit sehr stiefmütterlich behandelt. Sie gewinnen jedoch zunehmend an
Bedeutung wenn Telekommunikationsunternehmen größere
Anteile der Wertschöpfung und damit des Umsatzes von M2MLösungen abschöpfen möchten.“, erklärt Claus Eßmann, Senior
Consultant bei Detecon. „Die aktuelle Marktentwicklung, insbesondere von dem Hintergrund des Internet der Dinge, deutet
klar in die Richtung, dass Solution-Enabling-Plattformen zum
essentiellen Angebotsbaustein von Telekommunikationsunternehmen im M2M-Markt werden.“
Ist die Entscheidung für den Aufbau einer M2M-Plattform gefallen, muss die „make or buy“-Frage gestellt werden. Soll die
Plattform selbst aufgebaut werden oder auf ein existierendes
Standardprodukt zurückgegriffen werden? Unsere Erfahrung
66
Detecon Management Report blue • 1 / 2015
zeigt, dass Projekte zur Eigenentwicklung nur selten im geplanten Zeit­horizont realisiert werden können. Häufig werden
die ­Komplexität, zum Beispiel für die direkte Netzintegration,
beziehungsweise der mangelnde Einfluss auf gewisse Faktoren,
zum Beispiel die Bereitstellung benötigter Leistungsmerkmale
auf Systemen von Drittanbietern, unterschätzt. Im Gegensatz
dazu können beim Einsatz einer Standardsoftware mit dem Zulieferer Vertragsstrafen im Falle von Nichteinhaltung von Lieferterminen vereinbart werden. Darüber hinaus werden zunehmend
Betriebsmodelle angeboten, in denen die Plattform über ein
Umsatzbeteiligungsmodell mit dem Zulieferer finanziert werden
kann. Bei diesem Modell zahlt das Telekommunikationsunternehmen meist nur einen geringen Betrag für den Aufbau, die Bereitstellung und die Integration der M2M Plattform in das eigene
Netz. Hinzu kommt ein bestimmter Anteil des Verkaufspreises
für jede verkaufte SIM-Karte, der an den Zulieferer gezahlt wird.
Diesen Vorteilen bezüglich der finanziellen Risikominimierung
steht jedoch die reduzierte Möglichkeit zur Individualisierung
der Leistungsmerkmale der Plattform gegenüber.
M2M-Experte Eßmann rät: „Übergreifend muss die Auswahl
der M2M-Plattform in ­enger Abstimmung mit vorhandenen
Technologiestrategien, zum Beispiel Netzwerk-/IT-Strategie, erfolgen, um eine nahtlose Integration in die existierende Technologielandschaft sicher zu stellen. Eine „tiefe“ Integration in schon
vorhandene BSS- und OSS-Systeme ist jedoch aufgrund der
Wachstumsvorhersagen im M2M-Geschäft nicht zu empfehlen.“
Durch mögliche Skalierbarkeitsprobleme können sich unmittelbar negative Auswirkungen auf das Kerngeschäft im Massenmarkt ergeben.
SIM/Roaming: Im M2M-Geschäft gilt es, bei der Auswahl der
SIM-Karte zwei wesentliche Zielrichtungen zu verfolgen: minimale Kosten für die Bereitstellung der SIM-Karte bei Sicherstellung der gewünschten Netzabdeckung. Als Basis für die Auswahl
dienen also das geplante Einsatzgebiet der SIM-Karte – lokal versus regional versus global – und die geforderten Anforderungen
an die Netzabdeckung. So kann es beispielsweise für beide Seiten von (finanziellem) Vorteil sein, statt einer lokalen SIM-Karte
dem Kunden eine sogenannte „Global Roaming SIM“ Karte zur
Verfügung zu stellen. Diese SIM-Karte hat kein „Heimatnetz“
und ist in jedem Netz, in dem sie sich anmeldet, im RoamingModus.
Netzwerk: Auch im Netzwerkbereich müssen Spezifika des M2MGeschäfts beachtet werden. So können existierende Netzwerkknoten für die M2M-Kommunikation verwendet werden, das
heißt M2M SIM-Karten und M2M-Datenverkehr werden in
den bestehenden Sytemen (HLR/HSS beziehungsweise GGSNs)
verwaltet. Insbesondere die großen Telekommunikationsanbieter
verfolgen jedoch zunehmend einen anderen Ansatz. „Aufgrund
der Vorhersagen zum drastisch steigenden Kommunikationsvolumen in den nächsten Jahren wird die M2M-Kommunikation zunehmend über dedizierte Netzwerkknoten durchgeführt.“, so die
Einschätzung von Eßmann. ­Diese Separierung bietet eine Reihe von Vorteilen. Zum einen lässt sich der M2M-Datenverkehr
so einfacher von herkömmlichem ­Datenverkehr unterscheiden,
zum Beispiel um einfach und ­flexibel zusätzliche (Roaming-)Tarife anzubieten. Zum anderen benötigen M2M SIM-Karten viele
(teure) Funktionen im HLR/HSS nicht. Hier kann aufgrund
günstigerer Lizenzgebühren pro SIM-Karte im dedizierten HLR/
HSS ein erhebliches Einspar­potenzial realisiert werden.
Sorgfältige Analyse ist erfolgsentscheidend
Telekommunikationsunternehmen sollten sich vor dem Eintritt
in den M2M-Markt die Unterschiede gegenüber dem traditionellen Mobilfunkgeschäft bewusst machen. Das M2M-Geschäft
bietet ein breites Spektrum an Gestaltungsoptionen und fordert
entsprechend grundlegende Entscheidungen. Für die Entwicklung einer umfassenden, erfolgreichen M2M-Strategie sind
marktseitige, betriebliche und technische Aspekte zu berücksichtigen. Aus unserer Erfahrung heraus sollten für den Entscheidungsweg zunächst die marktseitigen Ziele im Fokus stehen,
gefolgt von der betrieblichen Ausgestaltung und der technischen
Umsetzung. Alle drei Komponenten müssen dabei aufeinander
abgestimmt sein und sich zu einer einheitlichen M2M-Strategie
zusammenfügen. Zudem muss der Abgleich mit der übergreifenden G
­ eschäfts- und Technologiestrategie sichergestellt werden.
Dr. Philipp Bodenbenner ist Management Consultant und berät Klienten
aus der Dienstleistungsbranche. Er beschäftigt er sich mit Themen an der
Schnittstelle von Geschäftsstrategie und Informationstechnologie und berät
Unternehmen zu Geschäftsmodellinnovationen und Marktangangsstrategien
für innovative (Technologie-)Produkte.
Andreas Winter ist Management Consultant. Sein Beschäftigungsfeld liegt in
der Erstellung von Marktangangsstrategien und der kommerziellen Bewertung
von innovativen ICT-Produkten für Kunden in der Telekommunikationsund Automobilindustrie. Im Bereich IoT und M2M unterstütze er bereits
Unternehmen bei der Konzipierung der Geschäftsfeldstrategie und deren
Implementierung.
67
Detecon Management Report blue • 1 / 2015
Wearable Technology
Trends, Ökosystem und
strategische Optionen für Carrier
Marktforschungsstudien liefern sehr optimistische Perspektiven für das Wachstum des Wearables-Marktes.
Für Carrier liegt die offensichtlichste Chance im Reselling der Geräte über ihre bestehenden Kanäle und der
Bereitstellung von Konnektivität.
„ Wearables bestimmen die Zukunft!“, prognostiziert Mary
Meeker, Expertin aus dem Silicon Valley. Die von aller Welt erwartete Ankündigung der Apple Watch hat unsere Social Media
Feeds geradezu überschwemmt und Wearables als neue Gerätekategorie etabliert. Damit sind sie aus dem Nischendasein befreit und zum Standard erhoben.
Wearables sind mit Sensoren ausgestattete Geräte, die am
Körper getragen werden. Die Landschaft dieser neuen MiniComputer ist vielfältig und fragmentiert und reicht von FitnessArmbändern, Uhren und Brillen bis hin zu Hautpflastern und
intelligenter Kleidung. Die meisten Wearables können zurzeit
noch nicht direkt an das Internet angeschlossen werden. Mit auf
dem Smartphone installierten Companion Apps, einer Schnittstelle zwischen Smartphone und Wearables, kann aber über
Bluetooth auf die Wearables zugegriffen werden. Diese Apps
sammeln und synchronisieren Sensordaten in der Cloud und
senden Updates und Benachrichtigungen an die Wearables.
Bedürfnisse des Verbrauchers im Fokus
Marktforschungsstudien liefern sehr optimistische Perspektiven
für das Wachstum des Wearables-Marktes. Sie prognostizieren
für den Zeitraum von 2013 bis 2018 durchschnittliche jährliche Wachstumsraten (CAGRs) von mehr als 50 Prozent. Sie
68
Detecon Management Report blue • 1 / 2015
zeigen jedoch eine große Wachstumsabweichung, wenn es um
die Entstehung des Marktes geht. Während ABI die Zukunft
der Smartwatches sehr optimistisch einschätzt und insbesondere
für Brillen und Kontaktlinsen 485 Millionen Lieferungen für
2018 vorhersagt, ist Junipers Marktstudie konservativer und
prognostiziert 130 Millionen Lieferungen.
Der Wearable-Markt wird durch eine hohe Smartphone-Durchdringung und die allgegenwärtige drahtlose Konnektivität sowie
durch kleinere und erschwinglichere Sensoren angetrieben. Zu
den weiteren Enablern gehören intelligente Warnsysteme und
Nutzererkenntnisse, die auf Predictive Analytics und Big Data
basieren, darüber hinaus neue Anwendungsfälle im Internet
der Dinge, die Technologien wie M2M-Kommunikation und
integrierte SIM-Karten ermöglichen. Doch bevor Wearables
­massentauglich sind, müssen noch einige Hindernisse überwunden werden. Wearable-Hardware muss einen Reifeprozess
durchlaufen, um den Mode- und Designansprüchen der Verbraucher gerecht zu werden. Verbesserungswürdig ist darüber
hinaus die Batterieleistung. Software und Apps müssen bislang
nicht gelöste Datenschutz- und Sicherheitsprobleme lösen, insbesondere in Anbetracht der personenbezogenen Daten.
Die meisten Geräte, die auf den Markt kommen, zielen auf die
Bedürfnisse der Verbraucher ab, das heißt auf Fitness und auf
die Quantified-Self-Bewegung sowie auf Nischen im Gesundheitsbereich wie die Überwachung der Herzfrequenz und des
Blutzuckerspiegels. Anwendungsfälle im B2B-Umfeld befinden
sich in der Entstehungsphase. Intelligente Brillen könnten zum
Beispiel für die Baubranche nützlich sein, um die Arbeitskräfte
untereinander zu vernetzen oder die Leistungsfähigkeit der Fernwartung zu steigern. Im Gesundheitssektor öffnen die Applikationen der intelligenten Brillen ein breites Anwendungsfeld: Sie
ermöglichen Ärzten, direkt am Krankenbett ihrer Patienten auf
klinische Informationen zugreifen und diese bestätigen zu können. Auch das Fern-Coaching bei Live-Operationen per Augmented Reality, wo genau angezeigt wird, an welcher ­Stelle ein
Instrument platziert werden muss oder ein chirurgischer Eingriff vorzunehmen ist, ist realisierbar.
Angesichts der leichten Zugänglichkeit für den Nutzer sind
Wearables überzeugende Begleitgeräte für das Internet der
­
Dinge. Selbst in diesem frühen Stadium lassen sich bereits
­interessante Implementierungen beobachten, zum Beispiel das
Kontrollieren der Beleuchtung anhand einer Armbanduhr oder
die Entwicklung bedingter Anweisungen über die App IFTTT,
die eine beliebige Anzahl von Home-Automation-Systemen
integrieren kann. Überzeugende M2M-Anwendungen für
­Connected Cars beinhalten die Überprüfung des Ladezustands
der Batterie auf der Smartwatch mit anschließender Benachrichtigung auf dem Display über einen eventuellen Dienst­
leistungsbedarf.
Entwicklung des Ökosystems
Ähnlich der Entwicklung von Dumbphones zu Smartphones
entwickeln sich auch Wearables von zweckorientierten Geräten
zu Plattformen. Die Leistungsmerkmale der ersten Wearables
beschränkten sich lediglich auf Aufgaben wie Schritt-, Herzschlag- oder Schlafüberwachung. Erst in letzter Zeit haben Apple
und Google Wearable-Plattformen eingeführt, auf denen ThirdParty-Apps laufen. Im Einklang mit der Android-SmartphoneStrategie entwickelte Google das Android-Wear-Betriebssystem
sowie Protokolle, hielt aber für die Fertigung der Geräte nach bestehenden Android-Hardware-Partnern Ausschau. Apple dagegen entwickelte ähnlich dem iPhone für die Apple Watch beides
– das Betriebssystem und die Hardware. In Bezug auf die Apps,
die auf diesen Plattformen – bis jetzt nur auf Android Wear –
laufen, scheint es so, dass die beliebtesten Android SmartphoneApps ihre Führungsposition auf diese neuen Plattformen ausweiten: Spotify für Musik, Runkeeper für Fitness und andere mehr.
Für die Aussage, dass ihre Dominanz eine ausgemachte Sache ist,
ist es jedoch zu diesem Zeitpunkt noch zu früh, da neue Formfaktoren und Daten aus neuen Sensoren den Wettbewerbern sowohl das Eindringen in bestehende App-Kategorien als auch die
Entwicklung gänzlich neuer Kategorien ermöglichen.
Da dieselben OEMs, OTTs und App-Entwickler, die auf
dem Smartphone-Markt im Wettbewerb stehen, auch bei den
­Wearables um die Customer Ownership konkurrieren, sollten
die MNOs diesen Bereich für sich in Anspruch nehmen, um die
Bedeutung und Nutzung bestehender Kunden-Smartphoneund Datenübertragungsverträge zu erweitern, ARPU zu steigern
oder zu stabilisieren und gegen Disintermediation zu wirken.
Die offensichtlichste Chance für Carrier auf dem WearableTechnologiemarkt liegt im Reselling der Geräte über ihre bestehenden Kanäle und der Bereitstellung von Konnektivität.
Während man davon ausgeht, dass nur wenige Wearables in
den nächsten Jahren SIM-fähig sein werden, wird das Umsatzpotenzial im Zuge der Entwicklung des Internet der Dinge
steigen. Zweitens bilden die Wearables für MNOs ein weiteres
Fenster, um ihre eigenen Mehrwertdienste, zum Beispiel Zahlungs- und IP-basierte Kommunikations-Apps, voranzutreiben
und sich gegen den Wettbewerb zu wappnen. Darüber hinaus
haben Carrier wie AT&T und NTT DoCoMo das Potenzial
zur Entwicklung von Ökosystemen erkannt, die auf Vertikale
wie Gesundheit abzielen, um ihre bestehenden Fähigkeiten in
der Sicherung von Datenspeicherung und Cloud-Plattformen
zu nutzen. Daten aus unterschiedlichen Geräten und Quellen
können auf einer integrierten Plattform gesammelt und aggregiert werden, um Nutzer, Ärzte, Krankenhäuser und Versicherungsgesellschaften mittels eines zweiseitigen Geschäftsmodells
zu vernetzen.
Laut Markus von Blumröder, Vice President Product & Innovation Terminals, Deutsche Telekom, der das Wearables-Geschäft
der Deutschen Telekom leitet, sollten sich Carrier frühzeitig
positionieren, um so Anspruch auf ihre Nische zu erheben
und Entwicklungen im Wearables-Ökosystem voranzutreiben:
„Angesichts des niedrigen Umsatzes und der eingeschränkten
Verbrauchernachfrage sollten wir unsere Bemühungen auf
keinen Fall reduzieren. Jede Innovation benötigte bislang eine
Anlaufzeit, immer steht man vor der Herausforderung, Dienstleistungen und Geschäftsmodelle so zu gestalten, dass das Ergebnis einen deutlichen Kundenutzen liefert. Daher hat die
Deutsche Telekom damit begonnen, diese neue Kategorie zu
entwickeln, sich auf die Herausforderungen einzustellen und
die strategische Bedeutung und zukünftigen Chancen für Carrier zu adressieren.“
Lars Theobaldt verantwortet als Managing Partner den Bereich Innovationsund Geschäftsentwicklungsstrategie und berät die Deutsche Telekom in
Deutschland und den USA. Er ist durch seine Beiträge über die Zukunft des
ICT-Marktes bekannt.
Miriam Jansche ist Senior Consultant bei Detecon Inc., USA, und berät
­Unternehmen aus dem Telekommunikationsumfeld zu Strategie und Innovation.
69
Detecon Management Report blue • 1 / 2015
Agile Economics
Eine Methode zur wirtschaftlichen
Bewertung und Steuerung von
Innovationen wie Big Data
Big Data und das Internet der Dinge befinden sich auf dem ­Höhepunkt der
Erwartungen. Erweisen sie sich als herausragende Innovationen für die
Telekommunikationsbranche mit entsprechenden Auswirkungen auf viele
andere Wirtschaftszweige? Agile Economics liefert Antworten.
W
er weiß schon genau, was eine Innovation so alles nach
sich zieht? Klassische Innovationscontrolling-Methoden helfen
nicht immer weiter. Sie funktionieren oft nach dem „WasserfallPrinzip“: Man beginnt mit einer Idee, erstellt eine Machbarkeitsstudie, bevor ein detailliertes Design entwickelt wird – die
Dinge nehmen ihren Lauf. Bei jedem Übergang in die nächste
Phase sollte der Business Case präziser sein und weniger Risiken
aufweisen. Auf den ersten Blick erscheint alles gut und schön.
Aber wie sieht es aus, wenn die Prämissen dieser Business Cases
fast ausschließlich auf „Papierkram“ basieren?
Wasserfall-Prinzip ist für die Steuerung vieler Innovationen
ungeeignet
Controlling-Methoden müssen agiler werden, um eine stärkere
Kontrolle zu erlangen und Risiken aktiv managen zu können.
Agile Economics ermöglicht es, auf I­ nnovation beruhende Geschäftsprinzipien in der Praxis zu testen, sodass Business Cases
auf einer echten Faktengrundlage basieren. Die Methode beruht auf iterativen Lernzyklen, in denen über P
­ raxistests Wissen
gewonnen wird, um die Annahmen im Hinblick auf Umsatz
und Kosten des Geschäftsmodells zu ­validieren. Sowohl Erfolge
und unerwartete positive Neben­effekte als auch Fakten, die den
Business Case nicht unterstützen, werden erfasst. Praxisorientierte Pilotprojekte als Basis verringern so das Risiko der „Luftblasenbildung“.
Prinzip I: Den Umbruch schrittweise zu verstehen lernen
Da nur geringe Investitionsspielräume vorhanden sind, um in
der Anfangsphase marktbezogene Pilotstudien durchzuführen,
führt der Mangel an einschlägigen Marktdaten dazu, dass sich
Umsatzannahmen nur sehr schwer untermauern lassen. Es ist
daher keine Überraschung, wenn die Blase nach einer ­Weile
platzt und zur Enttäuschung wird. Oft wird zu wenig Geld
ausgegeben, um eine echte Faktengrundlage für den Business
Case zu schaffen. Das Ergebnis ist leider, dass diese Projekte zurückgestellt werden. Und wenn der Paradigmenwechsel endlich
eingetreten ist, ist es bereits zu spät, um auf dem Markt wirklich
erfolgreich zu sein. Ein Teufelskreis!
70
Detecon Management Report blue • 1 / 2015
Agile Economics zwingt dazu, zuerst ein Geschäftsmodell zu
entwickeln und dieses dann anhand praxisorientierter Pilotprojekte ausreichend nachzuweisen. Die Praxistests werden nicht
nur dazu verwendet, um die Technologie zu testen und potenzielle Kosten zu schätzen, sondern auch, um die Nutzenseite des
­Geschäftsmodells soweit wie möglich zu validieren.
Die Verwendung praxisorientierter, geschäftsgesteuerter Tests
führt dazu, dass Agile Economics durch das systematische und
schrittweise Sammeln von Informationen die Erfolgswahr-
scheinlichkeit erhöht. Der relativ kleine Umfang der Praxistests
begrenzt die Anfangsinvestition und bewirkt einen Ausbruch
aus dem Teufelskreis:
> Definieren und aktualisieren Sie den Business Case oder das
Geschäftsmodell, indem Sie sich auf den wirtschaftlichen Wert
der Informationen konzentrieren, den es im Praxistest zu definieren und validieren gilt. Definieren Sie wirtschaftliche Kriterien!
> Erstellen Sie die vorläufigen Testumfänge basierend auf der
Validierung wirtschaftlicher Kriterien. Dies betrifft beispielsweise die Auswahl der Technologie und der Testpopula­tion.
> Treffen Sie die endgültige Rangfolge und Auswahl der Bestandteile des Testumfangs basierend auf erwartetem ROI oder
anderen geeigneten Kriterien des Pilotprojekts.
> Führen Sie den Praxistest unter Verwendung eines Bewertungsrahmens durch, um die Geschäftstreiber zu validieren.
> Bewerten Sie den Praxistest mit Fokussierung auf Geschäftstreiber und gleichzeitiger Erfassung unerwarteter Nebeneffekte.
> Validieren Sie den Business Case und treffen Sie eine Entscheidung über das weitere Vorgehen.
Prinzip II: Risiko und Ungewissheit zur Kenntnis nehmen
„Agile Economics kann Risiken und Ungewissheit m
­ inimieren.“,
sagen Detecon-Berater Daniela Ujhelyiová und Julian Oberloer.
Der Business Case-/Geschäftsmodell-Ansatz ist eine Anpassung
an eine Methode, die in der Öl- und Gasindustrie vorherrschend
ist. Sie basiert auf Variablen, die mit Wahrscheinlichkeitsverteilungen definiert werden. Da Experten hiermit eine realistischere
Bewertung abgeben können, werden die Annahmen dadurch in
ihrer Genauigkeit erfasst. Ein weiterer Vorteil ist, dass sie nicht
nur wirtschaftsübliche Projektbewertungsdaten, sondern auch
Zahlenwerte der in diesen Kriterien enthaltenen Risiken liefert.
Die erforderlichen Monte-Carlo-Simulationen werden von bewährter Standardsoftware unterstützt, wobei Oracle Crystal Ball
quasi den Industriestandard darstellt.
Lösung des Big-Data-Hype als zentraler Anwendungsbereich
Agile Economics passt sich aufgrund der Tatsache, dass die
­Methode auf dem Konzept des Informationswertes basiert, besonders gut in den Big-Data-Kontext ein:
> Die statistische Beschaffenheit ist stark an die Eigenheiten von
Big Data angepasst.
> Da die Methode auf dem Konzept des Informationswertes
basiert, werden die Kerngrößen direkt adressiert und innerhalb
der Big-Data-Anwendungen validiert.
Abbildung: Agile Economics und Big Data
Funktionale
Auswirkung
Wirtschaftliche
Auswirkung
Informationswert
(Verbesserungspotenzial)
Wahrscheinlichkeit
Steigert
Volumen
Verringert zumeist
Kosten
Big Data Use Cases
Verbesserung in %
Wahrscheinlichkeit
Verbessert
Geschwindigkeit
Agilität der Entscheidung wirkt sich aus auf
Umsatz/Kosten
Verbesserung in %
Wahrscheinlichkeit
Beinhaltet
Vielfalt
Qualität der Entscheidung wirkt sich aus auf
Umsatz/Kosten
Verbesserung in %
Quelle: Detecon
71
Detecon Management Report blue • 1 / 2015
> Da Big Data sich nach wie vor in der Hype-Phase befindet,
ist es für Unternehmen sehr schwierig, fundierte wirtschaftliche
Bewertungen abzugeben.
Der Big-Data-Use-Case wird in seine zentralen Auswirkungen
zerlegt. Das Modell basiert auf der Big Data inhärenten 4VDefinition:*
Volume: Die Big-Data-Technologie sollte große Datenvolumen
managen können. Das Versprechen von Big Data lautet, dass es
diverse Terabytes im zweistelligen Bereich – das Volumen einer
derzeitigen Speicherlösung – in Minuten verarbeiten und ein
Gesamtvolumen im Petabyte-Bereich (= 1015 Bytes: entspricht
der Größe Tausender aktueller Festplattenlaufwerke) managen
kann.
Velocity: Die Big-Data-Technologie sollte große Datenvolumen
schnell analysieren können. Die Leistung, die von den Big-Data-Systemen versprochen wird, liegt in der Unterstützung der
Right-Time-Datenverarbeitung. Unter „Right-Time“ verstehen
wir, dass das Ergebnis der Datenverarbeitung dann vorliegen
muss, wenn es betrieblich gebraucht wird, was nicht notwendigerweise in Einklang mit Echtzeit sein muss. So muss Big Data
in der Lage sein, die Threads in den sozialen Medien schnell
genug interpretieren zu können, um Änderungen der „Stimmungsbilder“ aufspüren zu können, sodass die Steuerung der
Kundenwahrnehmung proaktiv ermöglicht wird.
Variety: Die Big-Data-Technologie sollte unterschiedlichste
Datentypen bearbeiten können. Sie sollte nicht nur Antworten
in solchen Daten finden, die, ähnlich wie Bewegungsdaten wie
Billing-Daten, stark strukturiert sind, sondern auch in der Lage
sein, aus Quellen mit wenig oder überhaupt keiner Struktur,
zum Beispiel E-Mails oder Kundenanrufen, Informationen zu
ziehen.
Value ist der erwartete Net Present Value für Big-Data-Investi­
tionen, der mit diesem Modell analysiert wird.
Ein Volumeneffekt, zum Beispiel aufgrund der Migration eines
klassischen Data Warehouses in einen Hadoop Cluster, wirkt
sich zumeist auf die Kosten aus. Aufgrund bisheriger Erfahrungen führt das meist zu einer Kostenverbesserung pro gespeichertem Volumen, jedoch nur mit einem gewissen Grad an
Gewissheit. Daher besteht der Wert der zu validierenden Informationen in dem Kostensenkungspotenzial, das es im Lernzyklus zu validieren gilt. Da das Kostensenkungspotenzial von
Fall zu Fall variiert, liegt das Verbesserungspotenzial in einer
Verteilung.
* Dr. Frank Wisselink, Intelligent Business by Big Data, Detecon Opinion Paper,
July 2013
72
Detecon Management Report blue • 1 / 2015
Ein weiteres Beispiel, das sich stärker an dem Informationswert orientiert, ist der Geschwindigkeitsaspekt bei Big Data.
In diesem Zusammenhang sollte die Frage gestellt werden:
„Welchen wirtschaftlichen Beitrag hat es, wenn ich dies vorher wissen ­
würde?“ Der Geschwindigkeitsaspekt von Big
Data wirkt sich auf die Kosten aus, beispielsweise verkürzte
Abwicklungszeiten im einem Call Center oder Umsatzeffekte
oder ein verringerter Umsatzrückgang aufgrund optimierter
­Entscheidungszeiträume, die dadurch ermöglicht werden.
„Die Mehrwertschöpfung von Big Data lässt sich durch
­Anwendung statistischer Verfahren am besten ermitteln.“, sagt
Dr. Bert Klöppel, Consulting Enterprise Architect bei T-Systems.Die Vielfalt kann die Qualität von Entscheidungen durch
das Kombinieren unterschiedlicher Datentypen steigern. Dies
betrifft die Antwort auf folgende Frage: „Welchen wirtschaftlichen Nutzen hätte es, wenn ich darüber vorher umfassender
Bescheid wissen würde?“ Das Kombinieren stark strukturierter
Daten (­Bewegungsdaten) mit gering strukturierten Daten wie
Social Media Feeds ist ein Beispiel dafür. Die Serviceleistung
kann ­daher verbessert werden und ermöglicht, abhängig vom
Anwendungsfall, Umsatzsteigerungen oder Kostenersparnis.
Ein anderes Beispiel für Vielfalt ist die vorausschauende Wartung. Es werden unterschiedliche Kennzahlen für Abnutzung
erfasst und miteinander in Beziehung gesetzt, um Wartungen
recht­zeitig, also bevor sich der tatsächliche Ausfall ereignet,
durch­zuführen und somit Kosten zu sparen.
Bessere Steuerung von Innovationen bei schneller
Time-to-Market
Da Agile Economics auf statistischer Wertschöpfungsrechnung
basiert, sind die Innovationsrisiken präziser quantifizierbar und
können systematisch bewertet und gemanagt werden. Mit Einführung dieser Methode wird das Time-to-Market verkürzt,
„Paralyse durch Analyse“ verhindert und Risiken minimiert,
weil die Methode auf echten Daten und nicht auf spekulativen
Prognosemodellen basiert und ausdrücklich Risiken quantifiziert. Die Methode ist kosteneffizient, weil Ressourcen nur
schrittweise und bedingt zugeteilt werden. Daher stehen mehr
Gelder für Diversifizierung oder zur Erforschung anderer Möglichkeiten zur Verfügung. Agile Economics steigert somit die
Investitionssteuerung und leistet große Unterstützung, wenn es
um die Bewältigung von Big-Data-Umbrüchen geht.
Dr. Frank Wisselink ist Interimsmanager und Managing Consultant. Er leitet
Innovations- und Strategiegroßprojekte innerhalb und außerhalb des DeutscheTelekom-Konzerns.
Tim Horn ist Junior Business Development Manager für Big Data bei ­T-Systems
und berät Kunden über deren innovative Anwendung.
Art meets Consulting
www.detecon-dmr.com
Detecon
Management Report
DMR
blue
Ausgabe 1 / 2015
Wir geben Kunst eine Bühne.
Die neue Detecon-Webseite ist online!
Internet der Dinge
Künstler haben unsere Themen neu interpretiert
und unsere neue Webseite mitgestaltet.
Wir stehen mit unseren Geschäftsfeldern
Besuchen Sie uns unter: www.detecon.com
Detecon Management Report
blue
Die Vernetzung globaler Information und Kommunikation.
• 1 / 2015
an einer der spannendsten Baustellen unserer Zeit:
Car-to-X-Technologien verändern die Zukunft :
K.I.T.T. Bitte kommen!
Interview mit Hagen Rickmann, T-Systems :
„Wir verstehen uns als Partner der Industrie
auf dem Weg zu Industrie 4.0“
Big Data für Telekommunikationsunternehmen :
Die Sweet Spots treffen – kurzfristige Chancen intern realisieren