Erfolg mit Big Data – Menge ist nicht Alles!

by Fernando Ducoing

Mathias Golombek ist CTO bei Exasol und in dieser Rolle federführend bei der Weiterentwicklung eines der performantesten Tools im Bereich Datenbanken, Analytics und Data Warehouse. Er hat Top-Unternehmen wie GfK, Vodafone und Zalando dabei unterstützt, das Potenzial der Daten im Unternehmen nutzbar zu machen. Im Vorfeld des Confare CIOSUMMIT 2020, dem größten österreichischen IT-Treffpunkt, auf dem Exasol Implementierungspartner Sphinx-Consulting Exasol Erfolgsprojekte präsentiert, haben wir Mathias gefragt, was es wirklich braucht, um mit Big Data, BI und Analytics die nächsten Schritte in Richtung Data Driven Business zu machen.

  • Was den Erfolg verhindert – und was Sie wirklich voran bringt.
  • Aktuelle Studienergebnisse
  • Data Science: Anforderungen an Technik und Organisation

Wieviel Geschäftspotenzial steckt tatsächlich in den Datenschätzen des Unternehmens? Wie können sie genutzt werden?

Daten haben dann einen Wert für ein Unternehmen, wenn sie Einfluss auf dessen Geschäftsprozesse nehmen, diese also optimieren und automatisieren. Dafür müssen die gesammelten Informationen aus den verschiedenen Datenquellen zusammengebracht, analysiert und interpretiert werden. Im Kontext von Big Data passiert dabei heute meist Folgendes: Die Infrastruktur wird technisch aufgerüstet, um dem Datenwachstum gerecht zu werden. Softwaregestützte Analysen fließen nun in die etablierten Prozesse ein. Dass das funktioniert, beweisen die aktuellen Entwicklungen in den Bereichen Condition Monitoring, Predictive Maintenance und IoT. Hier werden Daten gezielt benutzt, um Leistungsparameter oder ganze Prozesse zu überwachen, auszusteuern und zu planen. Dabei besteht die Kunst darin, die richtigen Daten in sinnvolle und zugleich nützliche Zusammenhänge zu bringen.

Was waren bisher die Show Stopper dabei, die Möglichkeiten für Big Data und Analytics auszuschöpfen?

An beinahe jeder Stelle jedes Geschäftsprozesses werden heute Daten generiert und gespeichert. Entstanden sind auf diese Weise Data Warehouses, in denen Daten für Analysezwecke gesammelt und gelagert werden. Big Data war geboren. Mit Data Analytics und Data Science lässt sich aus diesen Daten nun noch mehr machen, als wöchentliche Management-Reports oder die reaktive Steuerung der Produktion. Doch wie kann es Unternehmen im Geschäftsalltag praktisch nützen?

Dass Big Data Einzug in die meisten Unternehmen gehalten hat, die in irgendeiner Weise auf dem Pfad der Digitalisierung unterwegs sind, mag unbestritten sein. Doch Menge ist nicht alles, Big Data hat noch andere Dimensionen, die oft vernachlässigt werden: So ist es ebenso von Bedeutung, aus welchen Datenquellen die Daten mit welcher Geschwindigkeit kommen und welche Formate diese haben. Zudem steht die Frage im Raum, inwieweit die Daten vertrauenswürdig sind – und das im doppelten Sinn. Kann den Daten als solche, also deren Werten und Inhalten, vertraut werden, weil beispielsweise die Quelle als seriös und integer gilt? Ebenso interessant: Wie verlässlich sind die Daten im technischen Sinne? Bei IoT-Anwendungen (Internet of Things) beispielsweise erfassen oft einfache Sensoren Massendaten. Die Fehlerquote kann hier sehr hoch sein. All dies entscheidet darüber, was mit den Daten geschehen kann und ob sie als Basis für strategische Geschäftsentscheidungen taugen.

CIOSUMMIT 2020 - Mathias GolombekWie sieht dabei die Rollenverteilung von IT und Business aus? Wie sehr kann der Anwender mitgestalten?

Exasol hat dazu gemeinsam mit Vanson Bourne eine Studie in Auftrag gegeben. Darin wurde untersucht, wie und warum Unternehmen in zwei großen europäischen Märkten ihren Fokus immer stärker von Business Intelligence zur Datenanalyse verlagern, um ihre Daten besser zu nutzen. Befragt wurden jeweils 250 verschiedene IT- und Business-Entscheider in Deutschland und Großbritannien mit dem Ziel, die Unterschiede in der Wahrnehmung und im Handeln zwischen diesen beiden zentralen, aber oft unterschiedlich motivierten Entscheidungsträgergruppen vollständig zu verstehen. Die Ergebnisse haben gezeigt, dass sowohl in Großbritannien als auch in Deutschland Unternehmen ihre Datenstrategie aktiv anpassen, um sie stärker auf Analysen auszurichten, anstatt ihre traditionellen BI-Systeme und -Prozesse beizubehalten. In vielen Branchen stehen Unternehmen vor der Herausforderung, intelligentere, agilere und vor allem proaktivere Entscheidungen treffen zu können. Ganze 75 Prozent der Unternehmen gaben an, sich von BI zu moderner Datenanalyse zu entwickeln.

Wie ist dabei die Rolle der Data Scientists? Was sind die Voraussetzungen für ihre Arbeit?

Die Aufgabe von Data Scientists ist es, die Datenstrategie in Modelle, Algorithmen und schlicht verwertbare Ergebnisse umzuwandeln – sie interessieren sich deshalb weniger für Infrastruktur-Details. Unternehmen sollten sich darauf konzentrieren, ihren Spezialisten ein leistungsfähiges Werkszeug an die Hand zu geben, mit dem sie effektiv arbeiten können. Mit der In-Memory Datenanalyse-Plattform bietet Exasol die Möglichkeit, über die sogenannten User Defined Functions (UDFs) Abfragen in verschiedenen Programmiersprachen direkt in der Datenbank auszuführen. Das umständliche und wiederholte Deployment der entwickelten Rechenmodelle entfällt damit vollständig. Data Scientists können Funktionen so viel leichter und schneller erstellen sowie ausführen. Gleichzeitig arbeiten sie in ihrer gewohnten Programmierumgebung und können moderne Data Science/Machine Learning Libraries nutzen. Ein spezielles Protokoll sorgt dafür, dass die beispielsweise in Python, R, Java oder Lua programmierten Abfragen wie eine SQL-Query direkt in der Datenbank durchgeführt werden kann. Der Data-Science-Prozess verkürzt sich insgesamt deutlich. Die neue Version 7 der Exasol-Datenbank verfügt über eine noch schnellere UDF-Funktionalität. Data Scientists und Statistiker können ihre Modelle nun noch zügiger bauen, trainieren und verbessern, da die Iterationen aufgrund der hohen Performance noch schneller aufeinander folgen können.

Was für Daten-Analysten und Data Scientists letztlich zählt, ist, dass sie mit der Infrastruktur flexibel arbeiten können. Denn der Data-Science-Prozess ist komplex und beschäftigt sich mit der Erschaffung von Funktionen und Ausführungsmodellen, nicht mit der IT-Infrastruktur. Mit der hochperformanten Exasol Datenanalyse-Plattform auf Basis der In-Memory-Technologie kann die IT-Infrastruktur aber entscheidend dazu beitragen, dass sich dieser Prozess erheblich verkürzt und nahtlos in die tägliche Arbeit der Daten-Experten einfügt.

Welche Anforderungen ergeben sich an die Daten-Infrastruktur?

Die Infrastruktur muss wichtige Voraussetzungen erfüllen. Zum einen sollte sie flexibel genug sein, um in verschiedenen Programmiersprachen erstellte Modelle und Funktionen integrieren zu können. Data Scientists sollten sich nicht um die passende Infrastruktur kümmern müssen, sondern mit denen von ihnen präferierten Werkzeugen arbeiten können. Egal ob R, Python, Tensor Flow, Julia oder Scala – die Palette an Programmiersprachen ist schon heute groß und ändert sich schnell. Die Datenbank, auf die applied werden soll, muss deshalb offen und zukunftsfähig sein.

Zum anderen sollen diese Modelle dann auf große Mengen an Daten angewendet werden können. Das bedeutet, dass Millionen von Transaktionen in möglichst kurzer Zeit durchgeführt werden müssen – erst recht dann, wenn es sich um Analysen handelt, die zeitnah Einfluss auf weitere Prozesse haben.

Und wie sehen die technischen Anforderungen aus? Welche Tools und Infrastruktur sind erforderlich?

Klassische, diskbasierte Datenbanken kommen im analytischen Echtzeit-Bereich an ihre Grenzen. In Benchmark-Tests mit großen Datenmengen beweisen In-Memory-Datenbanken (IMDB) regelmäßig ihre bessere Performance. Sie nutzen den Hauptspeicher als beschleunigenden Cache und arbeiten blockweise ab. Die IMDB von Exasol beispielsweise wurde von Grund auf für analytische Anwendungsfälle konzipiert – mit integrativer Offenheit und paralleler In-Memory-Performance gelingt es, datenbasierte Geschäftsstrategien mit Technologien wie Machine Learning zu verbinden.

Wenn Daten geschäftlich an Bedeutung gewinnen, was bedeutet das für die Sicherheitsanforderungen? Wo gibt es hier Handlungsfelder?

Business-Entscheidungen, die schnell und datenbasiert getroffen werden, können das Geschäft maßgeblich beeinflussen. Das funktioniert allerdings nur, wenn der Data-Analytics-Prozess fundiert strategisch gedacht und als flexibler Prozess verstanden wird. Klare Definitionen, immer auch im Sinne der DSGVO, hinsichtlich Datenerfassung, Datenspeicherung und Datenzugriff sind notwendig und gehören in den Mittelpunkt der unternehmerischen Architektur. Nicht mehr nur Controller sollten Analysen machen können, sondern im Prinzip jeder Mitarbeiter mit seiner ganz eigenen fachlichen Sicht. Dies verlangt ein mehrstufiges Datenzugriffskonzept und einfach zu nutzende Front-End-Applikationen.

Data-Driven Business, Cyber Security, Leadership, Collaboration, Nachhaltigkeit, Kulturwandel sowie die wichtigsten IT-Management Events im DACH-Raum. Abonnieren Sie den Confare NEWSLETTER – Gemeinsam. Besser. Informiert. Wir halten Sie auf dem Laufenden.

Newsletteranmeldung_horizontal

Interessante Videos zu diversen Themen finden Sie auf unserem YouTube-Kanal.

Für Sie ausgewählt

Leave a Comment