«Die Nutzung von Smart Data ermöglicht neue, innovative Lösungen für Datenspeicherung und Data Science.»
Gegenwärtig werden die meisten Analysen per Batch-Verarbeitung ausgeführt, wobei die Daten nach einem bestimmten Zeitplan erfasst, in den gewünschten Zustand transformiert, in eine Datenbank kopiert und dann über Nacht verarbeitet werden. Der wesentliche Nachteil dieses Ansatzes ist, dass die Daten bereits alt sind, wenn sie analysiert werden.
Im Gegensatz dazu überwacht ein Streaming Analytics alle in Echtzeit erzeugten Daten direkt an der Datenquelle, erfasst wichtige Ereignisse, bewertet Ausnahmen, trifft eine Entscheidung und teilt die Ausgabe mit anderen IT-Applikationen - alles innerhalb sehr kurzer Zeit.
Im IoT Umfeld hat die Möglichkeit, Daten direkt an der Quelle verarbeiten zu können, eine enorme Bedeutung: Beispielsweise kann ein autonomes Fahrzeug, welches auf ein Hindernis trifft, nicht erst die Daten an eine Cloud senden und dann warten, bis das ausgewertete Ergebnis zurückkommt. Es hat schlicht nicht die Zeit, auf den Befehl für eine Ausweichhandlung zu warten. Die Auswertung muss deshalb sofort und vor Ort erfolgen. Dazu müssen alle über die Sensoren erfassten Daten intelligent sein, damit diese unmittelbar von den Prozessoren des Automobils analysiert werden können. Alle Ergebnisse müssen unmittelbar an die Bedienungselemente gesendet werden, welche die Bremsen und das Lenkrad des Fahrzeugs steuern. Falls die Daten nicht in einer Form vorliegen, die sofort analysiert werden kann, können die Folgen fatal sein.
Smart Data können genutzt werden, um aus Rohdaten neue Erkenntnisse zu gewinnen, Daten intelligent zu speichern oder aufzubereiten oder um neue Modelle für die Datenanalyse im Rahmen von Business Intelligence oder zukünftig auch Data Science zu schaffen. Für viele Unternehmen wird es jedoch eine herausfordernde Aufgabe darstellen, die vorhandenen Datenbestände sowie die Datenlandschaft und IT-Applikationen entsprechend zu gestalten, um den Einsatz von «Smart Data» zu ermöglichen und dessen Vorteile umfassend nutzen zu können.
3.3 «Data Intelligence» ist die Zukunft
Dieser Megatrend ist offensichtlich: Daten sind überall und sie werden in und ausserhalb der Unternehmen sowie im Internet und immer häufiger durch smarte IoT-Geräte erzeugt und genutzt. Diese Daten werden durch Milliarden von Computer-Anwendern und Maschinen erzeugt, liegen in den verschiedensten Formen und Formaten vor und sind in allen möglichen Orten als isolierte oder bereits teilweise integrierte Datensammlungen gespeichert.
Aber wer kann nun bereits alle diese Daten nutzen? Deswegen sollte die Weiterentwicklung des Daten- und Informationsmanagement für alle Unternehmen, die ihre Wettbewerbsfähigkeit im Rahmen des digitalen Wandels erhalten oder steigern wollen, zu einer der wichtigsten Prioritäten werden - und so kommt die «Data Intelligence» ins Spiel:
Der digitale Wandel und die Wettbewerbsfähigkeit
Durch den Einsatz von «Data Intelligence» können Unternehmen die richtigen Daten, Informationen und Erkenntnisse sowie Datenanalysen, KI-Algorithmen und Menschen miteinander verbinden, um für alle Datenproduzenten und Datenkonsumenten die Effizienz zu steigern, Prozesse zu optimieren und Innovationen voranzutreiben. Somit transformiert ein Unternehmen das klassische Datenmanagement in eine transparente «Data Intelligence» unter Einhaltung von Datenschutz, Informationssicherheit sowie Berücksichtigung der Datenethik und darüber hinaus die bestehende Unternehmenskultur in eine „Datenkultur“.
«Der Einsatz von Data Intelligence wird für viele Unternehmen zukünftig essenziell sein.»
Mit «Data Intelligence» möchte ich im sprichwörtlichen Sinne an die von den Nachrichtendiensten seit dem Kalten Krieg (1947-1989) praktizierte „Aufklärungsarbeit“ anknüpfen. Beispielsweise steckt in der Abkürzung CIA für den amerikanischen Auslandsnachrichtendienst „Central Intelligence Agency“ das Wort „Intelligence“ und damit ist tatsächlich auch die „Aufklärung“ - also die Gewinnung - von vertraulichen oder unbekannten Informationen, meist von fremden Mächten, gemeint.
Ich verstehe unter «Data Intelligence» die Kombination der smarten Bereitstellung und Orchestrierung von «Smart Data» in alle Unternehmensbereiche mit der intelligenten Nutzung von Data Science und KIFähigkeiten zur bestmöglichen Generierung von neuen Unternehmenswissen, um datengetriebene Prozesse zu unterstützen sowie datenzentrische Geschäftsmodelle zu realisieren.
Das klingt leider recht kompliziert, nicht wahr? Also beschreibe ich in diesem Buch die notwendigen Grundlagen und definiere alle dazugehörigen Grundbegriffe, hinterlege dies mit Beispielen aus der Praxis und schaffe die zuvor beschriebene Kombination von Datenbereitstellung und Datennutzung.
Dafür möchte ich mit dieser vereinfachten Grafik als ersten Überblick beginnen, selbst wenn noch nicht alle Begriffe bereits klar sein sollten:
Erforderliche Bausteine für «Data Intelligence»
Die Daten und Daten-Streams - also alle Rohdaten des Unternehmens - entstehen in den Geschäftsprozessen und im Internet sowie durch smarte IoT-Geräte.
Als erstes müssen die operativen Daten aus allen benötigten Quellen gesammelt werden - in Erweiterung zu den internen Data Stores auch die externen Daten in deren vielfältigen Formaten (neben PDF und Excel) sowie lokale Bewegungsdaten bis hin zu Daten aus den sozialen Medien (Facebook, LinkedIn, Google & Co.).
Dazu kommen noch die Daten-Streams von smarten IoT-Geräten und Maschinen mit der zugehörigen Stream-Verarbeitung, welche sich für die Echtzeit-Überwachung und für Reaktionsfunktionen auszeichnet.
Bei der Sammlung von Daten für «Data Intelligence» suchen Unternehmen nach einer Vielzahl von Quellen, zu denen geschäftliche Leistungskennzahlen, das Data Mining von Datenkonsumenten und Datenproduzenten, die Kunden und andere beschreibende Datenquellen gehören. Für eine intelligente Datenbereitstellung werden die gesammelten internen und externen Daten als eigenständige Datenbestände benötigt, die so aufbereitet sind, dass nur jene Daten und Informationen, aus denen unmittelbar verwertbares Wissen abgeleitet werden kann, gesammelt und gespeichert werde - es braucht also «Smart Data», wie zuvor beschrieben.
Die Transformation von Daten in «Smart Data» erfolgt, indem die Rohdaten direkt an der jeweiligen Datenquelle - das sind die operativen IT-Systeme, die externen Datensammlungen und die internen oder externen Daten-Streams sowie die Ergebnisse der dispositiven, analytischen IT-Anwendungen - gesammelt, geordnet, analysiert und reduziert werden.
«Smart Data» stellen eigenständige Datenbestände dar, die verwertbare Daten mittels Algorithmen nach bestimmten, vorgegebenen Strukturen aus meist sehr grossen Datenmengen extrahieren und nur „sinnvolle“ Daten enthalten.
Die Speicherung aller Rohdaten erfolgt an einer zentralen Stelle (dem Data Lake), wo externe Daten und die Daten-Streams aus allen möglichen Quellen (smarte IoT-Geräte, soziale Medien) gesammelt werden. Auch der Data Lake wird im Sinne von «Smart Data» aufbereitet.
Durch den Einsatz von Fähigkeiten der Data Science und Künstlichen Intelligenz wird im Rahmen der Datenanalyse das gewünschte Unternehmenswissen als dispositive Daten generiert, indem aus den Rohdaten neue Erkenntnisse gewonnen oder neue, datenzentrische Geschäftsmodelle entwickelt werden.
Die Ergebnisse werden ebenfalls als «Smart Data» aufbereitet und im Data Warehouse oder aus Performancegründen zudem in Data Marts gespeichert. Nach dieser intelligenten Aufbereitung können die Daten an die jeweils nachgelagerten Daten-Plattformen für eine weitere Datenkonsolidierung oder für direkte Datenanalysen im Unternehmen verteilt werden.
Die Verteilung von «Smart Data» im Unternehmen geschieht im idealen Fall über eine zentrale, intelligente Datenorchestrierung oder Datenvirtualisierung