Fast Data mit Stream-Processing: Der Game Changer für das

Transcription

Fast Data mit Stream-Processing: Der Game Changer für das
Fast Data mit Stream-Processing: Der Game Changer für das Internet der Dinge
http://cs.brown.edu/~ugur/8rulesSigRec.pdf
http://www.infoq.com/articles/stream-processing-hadoop
Fast Data mit Stream-Processing:
Der Game Changer für
das Internet der Dinge
Die Nachfrage nach Stream-Processing steigt in diesen Tagen enorm an. Der Grund dafür ist, dass die reine Verarbeitung von großen Datenmengen (Big Data) nicht mehr ausreichend ist. Datenströme müssen sofort in Echtzeit
verarbeitet werden (Fast Data), um auf die heutzutage benötigte Flexibilität bei durchgehend digitalen Prozessen
reagieren zu können. Dies gilt insbesondere beim Internet der Dinge (Internet of Things, IoT), wo viele Geräte Datenströme produzieren. Am Beispiel von Predictive Analytics wird in diesem Artikel der Mehrwert von Stream-Processing aufgezeigt. Verschiedene Open-Source-Frameworks und kommerzielle Produkte werden dabei vorgestellt.
Stream-Processing ist insbesondere für das
Verarbeiten von Datenströmen und Sensordaten geeignet. Die Verarbeitung von
mehreren Milliarden Datensätzen pro Tag
ist dabei keine große Herausforderung.
Stream-Processing verarbeitet verschiedene
Datenströme (z. B. Nachrichten von Sensoren, die sekündlich inklusive Zeitstempel verschickt werden). Ein Beispiel ist die
Verarbeitung der Sensordaten von Zügen,
Schienen und Bahnhöfen. Die Sensoren
senden stark frequentiert Daten mit ständig
identischen Datenstrukturen. Die Datenströme werden in Echtzeit verarbeitet, beispielsweise gefiltert und aggregiert.
Konzepte des Stream-Processing
Stream-Processing wurde konzipiert, um
Datenströme in Echtzeit zu analysieren
und sofort auf Ereignisse reagieren zu
können. Aufgaben sind unter anderem das
Filtern, Aggregieren oder Korrelieren von
Daten. Dazu werden so genannte Continuous Queries verwendet, die im Gegensatz zum Request-Response-Konzept von
Datenbank-Sprachen wie SQL zusätzliche
Funktionalität anbieten. Sliding Windows
überwachen beispielsweise Datenströme
in einem kontinuierlich fortlaufenden Zeitfenster bezüglich definierter Patterns. Die
Kernaufgabe beim Stream-Processing ist
Streaming Analytics – ein Begriff, der durch
Analysten wie Gartner und Forrester entstanden ist. Dabei werden Abfragen einmal
definiert und dann kontinuierlich „on the
fly“ innerhalb des Streams berechnet, um
Daten zu korrelieren.
Dies steht im starken Gegensatz zu dem
traditionellen Datenbank-Modell, bei dem
Daten zuerst gespeichert und indexiert
werden, bevor sie dann von Abfragen verarbeitet werden. Aber auch beim StreamProcessing können Informationen aus
Datenquellen wie relationaler Datenbank,
10
NoSQL oder Hadoop mit einbezogen werden, beispielsweise um bestimmte historische Informationen mit in den Datenfluss
einzubetten oder um verarbeitete Informationen in einer externen Datenbank zu
speichern.
Neben der rein automatisierten Verarbeitung von Datenflüssen gibt es mittlerweile
auch die Möglichkeit, dass der Endnutzer
mittels einer grafischen Benutzungsoberfläche die kontinuierlich in Bewegung stehenden Daten mittels Push-Nachrichten in
Echtzeit überwachen und proaktiv reagieren kann. Die Datenströme werden dabei
kontinuierlich im Hauptspeicher aggregiert
und dem Endnutzer im grafischen Frontend
zur Verfügung gestellt. Abbildung 1 zeigt,
wie diese Echtzeit-Oberfläche (inklusive
Stream-Processing-Komponente) in die Gesamtarchitektur passt.
Nach der Erläuterung der Grundkonzepte
zeige ich im folgenden Abschnitt auf, warum Stream-Processing in Zukunft insbesondere für das Internet of Things (IoT) so
relevant ist.
Abb. 1: Die Stream-Processing-Architektur.
Anwendungsfall:
Predictive Analytics
Predictive Analytics – also das proaktive
Reagieren auf ein wahrscheinlich eintretendes Ereignis – ist eines der Kernthemen,
für die Stream-Processing ideal geeignet ist.
Aus technischer Sicht enthält die Realisierung üblicherweise zwei Schritte. Zuerst
werden historische Daten (z. B. gespeichert
im Data Warehouse, in Hadoop, oder in einer NoSQL-Datenbank) mit einer BusinessIntelligence- oder Data-Discovery-Software
wie „Tableau“ oder „TIBCO Spotfire“ analysiert, um Muster zu erkennen. Im zweiten
Schritt werden die Muster in einer StreamProcessing-Plattform implementiert, um in
Echtzeit im richtigen Kontext proaktiv auf
neue Ereignisse zu reagieren. Die Anwendung kann außerdem auch diese Daten wieder in einer Datenbank speichern, sodass
sich der Zyklus schließt, indem bestehende
Muster optimiert und neue Muster gefunden werden können.
Im Umfeld des IoT ist insbesondere Predictive Fault Management sehr spannend, bei
www.objektspektrum.de
dem (mit hoher Wahrscheinlichkeit) bald
ausfallende Komponenten ausgetauscht
werden, bevor sie einen Schaden anrichten.
So kann beispielsweise eine Ölplattform,
auf der diverse Sensoren massenweise Datenströme senden, mittels Predictive Fault
Management die Hardware überwachen
und Teilbereiche für Beträge im Tausenderbereich austauschen, bevor diese wegen
Probleme (mit einer gewissen Wahrscheinlichkeit) bald explodieren und einen weitaus höheren Schaden im Millionen-Bereich
anrichten. Abbildung 2 zeigt, wie ein Muster definiert wird, um Stromspannung,
Temperatur und Vibration von einem Gerät miteinander zu korrelieren. Diese so
genannten Sliding Windows analysieren in
diesem Beispiel kontinuierlich die letzten
zwölf Minuten. In der Realität sehen solche
Regeln natürlich komplexer aus und beinhalten deutlich mehr Schnittstellen.
Anforderungen für
Stream-Processing
Stream-Processing kann entweder selbst implementiert werden oder es wird ein Framework oder Produkt für die Verarbeitung der
Datenströme verwendet. Eine selbstentwickelte Lösung macht in der Regel keinen
Sinn, da auch gute, kostenlose Open-SourceFrameworks zur Verfügung stehen. Während mit einem Framework aber noch viel
Entwicklungsaufwand notwendig ist, bieten
Produkte viele Funktionalität out-of-the-box
an. Neben der Gesamtlaufzeit eines Projekts
gilt es hier auch, die Gesamtkosten (Total
Cost of Ownershiop, TCO) eines Projekts
über Entwicklung, Test, Betrieb und Wartung zu betrachten, und nicht nur die reinen
Lizenzkosten für kommerzielle Produkte.
Aus technischer Sicht werden die folgenden
Komponenten benötigt, um Stream-Processing-Projekte umzusetzen:
Server: Ein auf Performance optimierter
Anwendungsserver mit hoher Durchsatz-Rate und sehr geringen Latenzzeiten bildet die Grundlage für die Verarbeitung von Datenströmen. Mehrere
Milliarden Events täglich sind hier keine Seltenheit oder besondere Schwierigkeit für eine einzelne Maschine.
n Entwicklungsumgebung:
Die Umgebung umfasst die Entwicklung, das Debugging und die Testen/Feed-Simulation
von Streaming-Prozessen unter Verwendung von Komponenten zum Filtern,
Aggregieren, Korrelieren und Transformieren. Streaming-typische Operatoren
n
01/2016
Abb. 2: Muster für die Analyse von Sensordaten (mit SQL-ähnlicher Abfragesprache).
wie „Sliding Windows“ oder „Continuous Queries“ sind ebenfalls Pflicht.
Die Entwicklung erfolgt entweder mittels Kodierung oder einer grafischen
Oberfläche. Wichtig ist außerdem eine
offene IDE für eigene Erweiterungen,
z.B. durch die Integration von anderen
Code-Bibliotheken oder selbst gebauten
Operatoren bzw. Konnektoren.
n Konnektoren: Hierzu zählen vorgefertigte Schnittstellen, um mit Datenquellen auf eine standardisierte Weise zu
kommunizieren, sowohl für Input als
auch Output. Im Fokus stehen natürlich
insbesondere Streaming-Schnittstellen,
basierend auf Standards wie MQTT
(Message Queue Telemetry Transport)
(ein offenes Nachrichten-Protokoll für
Machine-to-Machine-Kommunikation)
oder Low-Level-TCP-Sockets, aber auch
explizite Konnektoren zu IoT-Geräten
und -Technologien, z.B. „Zigbee“, „Beacons“ oder „OSISOFT Pi“. Weitere
Schnittstellen, die oft benötigt werden,
sind analytische Datenbanken (z.B. „HP
Vertica“), Marktdaten (z.B. „Bloomberg“, „FIX“, „Reuters“), statistische
Modelle (z.B. „SAS“, „MATLAB“,
„R“, „TERR“) oder andere Technologien (z.B. „JMS“, „Hadoop“, „Java“,
„.NET“, relationale Datenbanken).
n Visual Streaming Analytics: Hierbei
handelt es sich um eine Benutzungsoberfläche, mit der Daten in Echtzeit
überwacht werden können. Neben der
Analyse von Streams (Live-StreamVisualisierung, kontinuierliche und dynamische Abfragen, Ad-hoc-Abfragen,
Slice&Dice) sollte auch proaktive Interaktion möglich sein (z. B. einen Alarm
auslösen, ein Gerät sicherheitshalber
abschalten oder einem Kollegen eine
Nachricht schicken).
Aktuell existieren am Markt nur wenige
Lösungen, die all diese Komponenten aus
einem Guss anbieten. Es ist abzuwägen, ob
der Fokus eines Projekts eher auf der Kodierung einer eigenen Lösung aus verfügbaren
kostenlosen Bausteinen oder auf der Verwendung einer verfügbaren kommerziellen
Lösung liegen soll. Im Folgenden werden
– ohne Anspruch auf Vollständigkeit – einige der wichtigsten Open-Source-Lösungen
und kommerziellen Lösungen vorgestellt.
Open-Source-Frameworks für
Stream-Processing
Apache Storm (vgl. [Apa15-a]) ermöglicht
eine massiv skalierbare Event-Verarbeitung.
Das Projekt wurde von Twitter entwickelt
und an die Apache-Community übergeben.
Storm basiert auf anderen Open-SourceKomponenten, insbesondere:
„Zookeeper“ für Cluster-Management
„ZeroMQ“ für Multicast-Messaging
n „Kafka“ für Queued-Messaging
n
n
Storm ist bereits in zahlreichen Deployments produktiv im Einsatz. Aktuell ist
kein kommerzieller Support von einem dedizierten Hersteller verfügbar. Allerdings
haben einige Hadoop-Hersteller Storm in
ihre Distribution aufgenommen, worüber
das Projekt dann auch unterstützt wird.
Storm ist eine gute Wahl, wenn ohne Lizenzkosten eine eigene Anwendung selbst
entwickelt werden soll. Brian Bulkowski,
Gründer von Aerospike (einem Anbieter
einer NoSQL-Datenbank mit Konnektoren
11
Fast Data mit Stream-Processing: Der Game Changer für das Internet der Dinge
für Storm), hat ein gutes Präsentationsdeck
zusammengestellt, das ein Gefühl dafür
gibt, wie mit Storm das Thema Stream-Processing bezüglich Installation, Entwicklung
und Deployment angegangen und umgesetzt wird (vgl. [Bul14]).
Zusammenfassend kann festgehalten werden, dass – wie auch bei den anderen hier
vorgestellten Frameworks – das Coding und
viel Detailwissen im Vordergrund stehen
müssen, um ein Projekt erfolgreich umzusetzen. Auf der Webseite von Storm werden
zahlreiche interessante Referenz-Anwendungsfälle erläutert (vgl. [Apa15-b]), darunter bekannte Firmen wie Groupon, Twitter,
Spotify, HolodayCheck oder Alibaba.
Apache Spark (vgl. [Apa15-c]) ist ein generisches Framework für die Verarbeitung
von großen Datenmengen, das verschiedene Konzepte wie Batch-Processing, InMemory-Computing, Graphen-Analysen
und Machine-Learning unter Nutzung einer „Unified Core API“ für zahlreiche Programmiersprachen wie Java, Scala, Python
oder R unterstützt. Die verschiedenen Konzepte ergänzen den Kern mit Add-on-Bibliotheken, beispielsweise Spark-Streaming
für Stream-Processing. Kommerzieller Support wird durch die 2013 gegründete Firma
Databricks (vgl. [Datab15]) angeboten.
Spark wird mittlerweile als eines der wichtigsten Big-Data-Projekte angesehen und von
vielen Firmen unterstützt. So hat beispielsweise IBM im Juni 2015 angekündigt, dass
sich 3.500 IBM-Forscher und -Entwickler
mit Spark-bezogenen Projekten beschäftigen werden (vgl. [IBM15-a]). Im Gegensatz
zu Storm ist Spark allerdings nicht nur auf
Stream-Processing fokussiert – Spark-Streaming ist nur eine Komponente unter vielen
und verwendet den Batch-orientierten Kern,
um das Streaming mittels Micro-Batches zu
implementieren, anstatt jedes Tuple einzeln
zu verarbeiten(vgl. [Dat14]).
Weitere Open-Source-Frameworks sind:
Apache Samza: Ein noch junges StreamProcessing-Framework, das 2014 von
LinkedIn freigegeben wurde. Es basiert
auf Apache Kafka und Hadoop YARN
(vgl. [Apa-a]).
n Apache Flink: Ein sehr junges generisches Framework, das auf einer StreamProcessing-Engine basiert. Es bietet
darauf aufbauend aber auch die Umsetzung anderer Konzepte, wie BatchProcessing, Machine Learning oder
Graphen-Analysen an (vgl. [Apa-b]).
n Esper: Hierbei handelt es sich um ein
ausgereiftes CEP-Framework für Java
Abb. 3: Entwicklungsumgebung (IBM InfoSphere Streams).
und .NET. Kommerzieller Support wird
vom Unternehmen EsperTech angeboten, das auch zusätzliche „closed source”
Add-ons anbietet (vgl. [Esp15]).
Man sollte sich bewusst sein, dass die verschiedenen Frameworks gewisse Stärken
und Schwächen haben und auf Grund ihrer
Konzepte für unterschiedliche Anwendungsfälle genutzt werden. Mit Storm werden
große Datenströme in Echtzeit gesammelt
und weiter verarbeitet, während Spark seine
Stärke insbesondere in den Bereichen Analytics und Maschine Learning zeigen kann
und oftmals als Ersatz für Hadoops MapReduce eingesetzt wird. Aus diesem Grund
werden verschiedene Frameworks auch ger-
ne kombiniert, beispielsweise Apache Storm
für das Sammeln der Datenströme und Esper für die kontinuierliche Korrelation der
eingehenden Informationen (vgl. [Dud11]).
Zusätzlich werden in einem Projekt schnell
weitere Frameworks notwendig, beispielsweise Hadoops YARN oder Mesos für
Ressourcen- und Cluster-Management. Der
Coding-Aufwand, die Komplexität für die
Integration verschiedener Frameworks sowie der mangelnde kommerzielle Support
und Tool-Support für das gesamte Projekt
sind bei der Kombination verschiedener
Frameworks nicht zu unterschätzen.
Einen anderen Ansatz wählen kommerzielle
Anbieter wie IBM oder TIBCO, auch wenn
diese natürlich trotzdem Open-Source-
n
12
Abb. 4: Entwicklungsumgebung (TIBCO StreamBase).
www.objektspektrum.de
Frameworks wie Storm, Spark oder Hadoop unterstützen und integrieren.
Kommerzielle Lösungen für
Stream-Processing
IBM InfoSphere Streams (vgl. [IBM15-b])
ist IBMs Flaggschiff-Produkt für StreamProcessing. Es bietet eine hohe Skalierbarkeit, sehr gute Performance und Integration
zu vielen Schnittstellen und Technologien.
Die Entwicklungsumgebung basiert auf Eclipse und bietet grafische Entwicklung (siehe Abbildung 3).
Zubair Nabi und Eric Bouillet vom IBM
Research Dublin haben gemeinsam mit
Andrew Bainbridge und Chris Thomas
von der IBM Software Group Europe eine
Benchmark-Studie (vgl. Bai14]) erstellt, der
IBM InfoSphere Streams mit Apache Storm
vergleicht. Einer der Kernunterschiede ist
die deutlich bessere Performance gegenüber
der Open-Source-Lösung.
Bei TIBCO StreamBase (vgl. [TIB15-a])
ist der größte Mehrwert laut Hersteller
neben hoher Performance und ausgereiftem Produkt die sehr einfache und schnelle Entwicklung von Streaming-Prozessen.
Die Entwicklungsumgebung unterstützt
die grafische Entwicklung von Streamingtypischen Problemen wie Sliding Windows,
Continuous Queries oder Feed Simulation
ohne Coding (siehe Abbildung 4).
TIBCO Live Datamart (vgl. [TIB15-b])
konsumiert Datenströme in Echtzeit und
erzeugt ein In-Memory Datamart – ähnlich
einem klassischen Datamart eines Data-
Abb. 5: Live-Benutzungsoberfläche (TIBCO Live Datamart).
Warehouse, aber eben in Echtzeit. Das
Live-Datamart bietet push-basierte Abfrageergebnisse und Alarme für Endnutzer
(siehe Abbildung 5).
Der Client des Live-Datamart (Rich Client,
Web-UI oder Mobile App) ist eine Pushbasierte Anwendung, die mit dem Server
kommuniziert. Dies ermöglicht die Analyse
von Daten in Echtzeit, Alarm-Management
und interaktive Aktionen auf allen visuellen Elementen, z. B. Tabellen, Charts und
Maps.
Der Business-Anwender kann beispielsweise beim oben beschriebenen Anwendungsfall verschiedene Sensoren wie Temperatur,
Vibrationen und Stromspannung nicht nur
passiv in Echtzeit überwachen, sondern
bei Gefahren proaktiv reagieren und Ge-
genmaßnahmen treffen, bevor ein Schaden
(mit hoher Wahrscheinlichkeit) eintritt.
Dies ist auch der konkrete Unterschied
eines Live-Datamart im Vergleich zu nur
auf dem Desktop verfügbaren DashboardProdukten, wie beispielsweise „Datawatch
Panopticon“ (vgl. [Dat15]).
Weitere Frameworks und
Produkte für Stream-Processing
Neben TIBCO und IBM bieten auch die
meisten anderen großen Softwarehersteller
ein Produkt für Stream-Processing an, beispielsweise Apama von der Software AG,
Oracle CEP oder Sybase CEP von SAP. Im
Folgenden stelle ich einige weitere kommerzielle Frameworks und Produkte kurz vor,
Abb. 6: Kombination von Apache Spark und TIBCO StreamBase/Live Datamart.
01/2016
13
Fast Data mit Stream-Processing: Der Game Changer für das Internet der Dinge
Links
[Ama15] Amazon Kinesis, 2015, siehe: https://aws.amazon.com/de/kinesis/
[Apa15-a] The Apache Software Foundation, Apache Storm, 2015, siehe: https://storm.apache.org/
[Apa15-b] The Apache Software Foundation, Companies Using Apache Storm, 2015, siehe:
http://storm.incubator.apache.org/documentation/Powered-By.html
[Apa15-c] The Apache Software Foundation, Spark, 2015, siehe: http://spark.apache.org/
[Apa-a] The Apache Software Foundation, Samza, siehe: http://samza.apache.org/
[Apa-b] The Apache Software Foundation, Apache Flink, siehe: https://flink.apache.org/
[Bai14] Z. Nabi, E. Bouillet, A. Bainbridge, C.Thomas, Of Streams and Storms, 2014, siehe:
https://developer.ibm.com/streamsdev/wp-content/uploads/sites/15/2014/04/Streams-and-Storm-April-2014-Final.pdf
[Bul14] B. Bulkowski, Real-time analytics with Storm, NoSQL, and Hadoop, Aerospike, 2014, siehe:
http://2014.nosql-matters.org/cgn/wp-content/uploads/2014/05/Aerospike_NoSQL_Matters-Brian-B.pdf
[Dat15] Datawatch, 2015, siehe: http://www.datawatch.com/
[Datab14] Databricks, 2014, Spark 1.1: The State of Spark Streaming, siehe:
https://databricks.com/blog/2014/09/16/spark-1-1-the-state-of-spark-streaming.html
[Datab15] Databricks, 2015, siehe: https://databricks.com/
[DataT15-a] DataTorrent, 2015, siehe: https://www.datatorrent.com/
[DataT15-b] DataTorrent, DataTorrent Open Sources DataTorrent RTS, 2015, https://www.datatorrent.com/press-releases/datatorrent-open-sources-datatorrent-rts-industrys-only-enterprise-grade-unified-stream-and-batch-processing-platform/
[Dud11] T. Dudziak, Thomas Dudziak’s Blog, Storm & Esper, 2011, siehe: https://tomdzk.wordpress.com/2011/09/28/storm-esper/
[Esp15] EsperTech, Esper, 2015, siehe: http://www.espertech.com/esper/
[IBM15-a] IBM, IBM Announces Major Commitment to Advance Apache Spark, Calling it Potentially the Most Significant Open Source Project
of the Next Decade, 2015, siehe: https://www-03.ibm.com/press/us/en/pressrelease/47107.wss
[IBM15-b] IBM, InfoSphere Streams, 2015, siehe: http://www-03.ibm.com/software/products/en/infosphere-streams
[SQL15] SQLstream, 2015, siehe: http://www.sqlstream.com/
[Tib15] siehe: http://www.tibco.de/products/event-processing/complex-event-processing/streambase-complex-event-processing
[TIB15-a] TIBCO Software, Inc., TIBCO StreamBase Named Leader in Forrester Wave for Big Data Streaming Analytics Platforms 2014, 2015,
siehe: http://www.tibco.de/products/event-processing/complex-event-processing/streambase-complex-event-processing
[TIB15-b] TIBCO Software, Inc., TIBCO Live Datamart, 2015, siehe:
http://www.tibco.de/products/event-processing/complex-event-processing/streambase-liveview
[TIB15-c] TIBCO Software, Inc., TIBCO Spotfire, siehe:
http://spotfire.tibco.com/discover-spotfire/what-does-spotfire-do/predictive-analytics/tibco-enterprise-runtime-for-r-terr
die ihren Fokus insbesondere auf StreamProcessing setzen:
Amazon Kinesis ist ein Cloud-Service
für Stream-Processing von Amazon und
Bestandteil der AWS-Plattform (Amazon Web Services). Der Service kann
daher gut mit anderen AWS-Services
wie S3, Redshift oder DynamoDB kombiniert werden. Es handelt sich hierbei
um ein Framework, d. h. die Entwicklung funktioniert ähnlich wie bei Apache Storm oder Spark mittels Quellcode
(vgl. [Ama15]).
n DataTorrent ist eine Plattform, die
nativ auf Apache Hadoop läuft und
sowohl Batch- als auch Stream-Processing in einer Lösung ermöglicht (vgl.
[DataT15-a]). Das Produkt bietet grafische Tools für Entwicklung und Monitoring. Im Juni 2015 hat DataTorrent
angekündigt, den Kern des Produkts,
die „DataTorrent RTS Core Engine“,
als Open-Source unter Apache Lizenz
n
14
zu veröffentlichen (vgl. [DataT15-b]),
der Rest des Produkts ist weiterhin nur
kommerziell verfügbar.
n SQLstream bietet mit Blaze eine StreamProcessing-Plattform an, die auf dem
SQL-Standard aufbaut und diesen um
proprietäre Streaming-Konstrukte erweitert. Dadurch können Anwendungsfälle
mit SQL-ähnlichen Abfragen implementiert werden. Das Produkt StreamLab
ermöglicht das einfache Erstellen von
grafischen Dashboards ohne Implementierungsaufwand. Im Gegensatz zu beispielsweise TIBCO Live Datamart ist mit
diesen Dashboards allerdings nur eine
Überwachung, jedoch keine menschliche
Interaktion möglich (vgl. [SQL15]).
keit, großartige Tools und tolles Monitoring. Da insbesondere bei kommerziellen
Lösungen laut den Herstellern das eigene
Produkt immer eine einfache und effiziente
Entwicklung ermöglicht, sollten Alternativen unbedingt ausgiebig getestet werden
bezüglich einfacher Benutzbarkeit, effizienter Entwicklungsumgebung, Testing/Simulation, Performance usw. Auch Themen wie
einfache Installation, Betrieb, Wartung und
Weiterentwicklung sind wichtig. Ein Proof
of Concept mit zwei oder drei Frameworks
bzw. Produkten ist dringend anzuraten.
Die unterschiedlichen Frameworks und
Produkte unterscheiden sich in einigen Aspekten stark voneinander:
Eine explizit für Stream-Processing entwickelte (oft SQL-ähnliche) Programmier-/Abfragesprache.
n Kodierung vs. grafische Entwicklung,
Debugging, Testing und Simulation.
n Hoch optimierte Performance.
n Monitoring- und Alerting-Dashboards.
n
Evaluierungsprozess: Framework, Produkt oder beides?
Die meisten Frameworks und Produkte hören sich sehr ähnlich an, wenn man auf die
jeweilige Webseite schaut. Alle bieten RealTime-Stream-Processing, hohe Skalierbar-
www.objektspektrum.de
Unterstützung von Hochverfügbarkeit
und Disaster Recovery.
n Ausgereifte Produkte.
n Echzeit-Oberfläche
für
proaktive,
menschliche Interaktionen mittels Echtzeit-Frontend.
n Out-of-the-Box-Konnektoren für viele
relevante Streaming-Technologien (z. B.
IoT, Trading-Markets, Social Feeds).
n Globaler „Mission Critical“ Support,
Consulting und Training.
n
Man sollte sich zu Beginn überlegen, welche dieser Aspekte im konkreten Projekt
benötigt werden. Zusätzlich sind die Gesamtkosten (TCO) zu beachten, inklusive
Lizenzkosten und Aufwand für Installation, Entwicklung und Betrieb. Oftmals ist
auch eine kurze Gesamtlaufzeit der wichtigste Aspekt für ein Projekt.
Auf Grund zahlreicher mangelnder „outof-the-box“ Funktionalität in Frameworks
werden sie oftmals auch mit einem Produkt
kombiniert. Beide sind daher durchaus auch
komplementär zueinander. Abbildung 6
zeigt, wie eine bestehende Anwendung für
das Sammeln von Datenströmen – auf Apache Storm basierend und bereits produktiv
im Einsatz – um TIBCO StreamBase ergänzt
wurde, um zusätzlich Analysen, Abfragen,
Integration und Visualisierung sehr schnell
und einfach ohne Kodierung umzusetzen.
Gerade bei diesen Themen ist die Realisierung mit einem Produkt oftmals deutlich
effizienter.
Einbindung in die
Gesamtarchitektur
Neben der Evaluierung der Kernfunktionalität bezüglich Stream-Processing sollte von
Beginn an betrachtet werden, wie die Integration mit anderer Middleware und anderen
Anwendungen zusammenspielt. Die Projektarchitektur kann beispielsweise verschiedene
Messaging-Technologien, einen Enterprise
Service Bus (ESB) als Integrationsplattform
oder ein MDM-System (Master Data Management) für die zentrale Verwaltung von
01/2016
Stammdaten beinhalten. Hier gilt es zu klären, inwieweit diese Komponenten lose gekoppelt, aber dennoch gut miteinander integriert sind. Ansonsten kann viel Aufwand
und hohe Komplexität für die Integration
der verschiedenen Komponenten entstehen.
Auch hier kann ein „Proof of Concept“ in
wenigen Tagen viele harte Fakten bezüglich
Eignung für das Projekt aufzeigen.
Ein weiterer wichtiger Aspekt ist die Einbindung von statistischen Modellen und
Machine Learning in eine Stream-Processing-Engine. Typischerweise werden Modelle von Data Scientists mit Technologien wie R, SAS oder MATLAB erstellt und
trainiert, um neue Erkenntnisse und Muster zu finden. Diese Muster können dann
ebenfalls in einen Datenfluss integriert
werden, um in Echtzeit auf neue Ereignisse
zu agieren. Anstatt die Modelle neu zu implementieren, werden solche Modelle von
manchen Herstellern von Haus aus auch
in der Stream-Processing-Plattform unterstützt – beispielsweise „TIBCOs Runtime
for R” (TERR) (vgl. [TIB15-c]), wodurch
Standard-R-Skripte ohne Änderungen des
Codes in die Echtzeitverarbeitung eingebunden werden können. Ansonsten ist es
auch möglich, ein Modell aus Tools wie
SAS oder MATLAB im XML-basierten
PMML-Standard (Predictive Model Markup Language) zu exportieren und dann in
Frameworks oder Produkte zu importieren.
Diese Methode ist deutlich flexibler und
mächtiger, als „nur“ Muster aus historischen Daten mittels Business IntelligenceWerkzeugen zu entdecken und dann statisch
im Stream-Processing zu implementieren.
Stream-Processing
unumgänglich für das IoT
Stream-Processing wird verwendet, um Datenströme mit Milliarden von Datensätzen
in Echtzeit zu verarbeiten. Im Zeitalter des
IoT wird dieses Konzept mit größerer Verbreitung daher jedes Jahr immer relevanter.
Auf dem Markt sind zahlreiche Frameworks und Produkte verfügbar. Viele Lö-
sungen sind allerdings noch nicht allzu
ausgereift und es mangelt an guter ToolUnterstützung. Sofern Coding erwünscht
ist sowie Tool-Unterstützung und kommerzieller Support nicht die höchste Priorität
haben, steht Apache Storm als sehr gute
Open-Source-Lösung an erster Stelle für
das Sammeln und Verarbeiten großer Datenströme. Apache Spark wird ebenfalls immer relevanter, zielt aber eher auf Themen
wie Analytics (als Ersatz für MapReduce)
und Machine Learning. Produkte wie IBM
InfoSphere Streams oder TIBCO StreamBase bieten ausgereifte Produkte, grafische
Tool-Unterstützung, einfache Integration
in das restliche Unternehmensumfeld und
weltweiten Support sowie Consulting an.
Eine Echtzeit-Oberfläche ermöglicht neben
automatisierter Verarbeitung auch proaktive menschliche Interaktionen. Da alle
Frameworks und Produkte mit quasi identischen Merkmalen und Vorteilen werben,
sind eine ausführliche Evaluierung bzw. ein
Proof of Concept mit Bezug zu Aufwand,
Benutzbarkeit, Time-to-Market und Ge||
samtkosten dringend zu empfehlen.
Der Autor
|| Kai Wähner
([email protected])
ist Technical Lead bei TIBCO. Seine Schwerpunkte liegen in den Bereichen Integration, Big
Data, Analytics, SOA, Microservices, BPM, Cloud
Computing, Java EE and Enterprise Architecture
Management. Er ist Autor von Fachartikeln und
hält Vorträge auf internationalen IT-Konferenzen.
15