„Die richtige Information zum richtigen Zeitpunkt am richtigen Ort“ so lautet die Grundherausforderung für die Transformation eines Unternehmens zum Data driven Enterprise. Manuel Stecher ist der CDO des größten österreichischen Stromproduzenten, VERBUND. Seine Herausforderungen sind die technischen, organisatorischen und kulturellen Voraussetzungen für eine weitreichende Transformation zu gestalten. Für die Recherche zum nächsten Confare Factsheet rund um Enterprise Data Management, in Zusammenarbeit mit den EDM Experten von Cohesity, hat uns Manuel über die Fortschritte auf diesem Weg berichtet und wie die Transformation auch in Zeiten von Home-Office vorangeht.
Welche Anforderungen bringt das Data Driven Business für die IT-Infrastruktur?
Neben den klassischen Anforderungen wie Ausfallsicherheit, Performance, Wirtschaftlichkeit und natürlich Sicherheit steht immer mehr Agilität im Vordergrund. Die „Time to value“ verbessert sich laufend bzw. steigen hier auch die Erwartungen. Ein Beispiel sind ad-hoc Analysen, welche früher wenigen Anwendern (mit Spezial Wissen) vorbehalten waren. Mit BI-Tools und Dashboards sind diese nun einem breiten Anwenderkreis zugänglich und sind noch dazu viel mächtiger, da fundierte Prognosen zur Verfügung stehen oder sogar konkrete Optimierungsvorschläge einfach abgeleitet werden können.
Was sind die wichtigsten Aufgaben und Ziele für das Enterprise Data Management?
Grundsätzlich soll der einfache Zugang zu der richtigen Information zum richtigen Zeitpunkt ermöglicht werden. Dabei muss einerseits das Verständnis, aber auch die notwendige Qualität der benötigten Daten vorhanden sein. Ebenso sind auch die Anforderungen hinsichtlich Compliance, Datenschutz und IT-Sicherheit zu beachten. Dies sind entscheidende Grundlagen für den Wandel zur datengetriebenen Organisation. Folgende drei Perspektiven ziehen wir dabei in Betracht
Fachlich steht die Identifikation und Umsetzung der einzelnen Use Cases im Vordergrund, welche schlussendlich einen Wert bzw. „Insight“ liefern müssen. Hinsichtlich der Organisation wurde unter anderem eine Data Governance etabliert, welche Verantwortlichkeiten, Rollen und Standards definiert und sich in das bestehende Gerüst einbetten lässt. Daneben steht natürlich der Aufbau von Know-How und ein Kulturwandel im Fokus.
Welche Auswirkungen haben Remote Office und Corona-Krise auf das Data Management?
Auch während des letzten Jahres wurden organisatorische und technische Schritte im Data Management gesetzt. Ein entsprechendes Projekt wurde fast komplett remote umgesetzt. Nur die ersten Besprechungen waren vor Ort. Remote Office ist mittlerweile gut etabliert.
Erkennbar ist, dass Remote Office bei komplexen Themen mehr Disziplin in der Dokumentation voraussetzt. Technisch unterstützte Collaboration mildert hier die Herausforderungen.
Wie haben sich die Anforderungen an Backup und Recovery verändert?
Die Anforderungen an Backup & Recovery haben sich durch „Big Data“ grundlegend verändert. Einerseits durch die hohen Mengen an Daten allgemein, andererseits auch durch die notwendige hohe Verfügbarkeit. Klassische Storage- bzw. File/Object-basierte Ansätze funktionieren in diesem Umfeld nur eingeschränkt. Das heißt die Datenmengen sind einfach zu groß, um ein „full backup“ zu ermöglichen bzw. würde auch das Recovery viel zu lange dauern.
Backup-Lösungen für Big Data müssen inkrementelle Ansätze auf verschiedenen Ebenen unterstützen. Dafür benötigt die Lösung semantisches Wissen um, z.B. nur spezifische Datensets in einem konsistenten Zustand wiederherzustellen. Der alte Ansatz eins vollständigen Recovery in einer alternativen Umgebung funktioniert dabei nicht mehr.
Welche Rolle spielt die Cloud dabei? Was ist beim Cloud Einsatz zu beachten?
Cloud ermöglicht generell ein schnelleres Ramp-up und natürlich Skalierbarkeit, das kommt der oben erwähnten Anforderung „Agilität“ natürlich entgegen. Wir nutzen deshalb aktuell verschiedene Cloud-Anbieter für bestimmte Anwendungsfälle. Gebündelt mit unserer On-Premises Infrastruktur ergibt dies eine Hybrid- bzw. Multi-Cloud Lösung.
Zu beachten sind vor allem die Aspekte Integration, Wirtschaftlichkeit, rechtliche Rahmenbedingungen und Sicherheit. Für viele Anwendungsfälle gibt es eine große Auswahl an Cloud-Lösungen am Markt, von klassischen Infrastruktur-Services bis spezifischen SaaS Lösungen. Eine mögliche Integration bestimmter Lösungen sollte jedoch von Anfang an als ein Kriterium betrachtet werden. Ab einer gewissen Größe bzw. Menge sind „Pay as you go“ Cloud-Angebote ggf. nicht mehr am wirtschaftlichsten. Hier muss aufgrund von raschen Veränderungen ein Auge darauf geworfen werden. Abschließend spielen natürlich rechtliche Rahmenbedingungen und Sicherheit eine große Rolle bei der Auswahl von Cloud-Lösungen. Neben z.B. dem Datenschutz stehen auch grundsätzliche strategische Überlegungen an, ob bestimmte Daten überhaupt einem Cloud-Anbieter anvertraut werden sollen.
Cloud, On Premise, Storage, Archive … Daten sind in diversen Elementen der Infrastruktur verteilt. Was braucht es, um eine ganzheitliche Sicht auf die Unternehmensdaten zu ermöglichen?
Aus technischer Sicht gibt es hier kaum Grenzen die einzelnen Elemente zu verbinden. Auch benötigte Legacy-Systeme lassen sich technisch mit entsprechendem Aufwand integrieren.
Viel wichtiger ist die fachliche und organisatorische Sicht. Grundlage für jede Anforderung im „Daten-Bereich“ sind die bestehenden Datenassets und Datenflüsse zu kennen. Darum wird bei VERBUND u.a. konzernweit ein Datenkatalog, unterteilt in verschiedenen Domänen, eingesetzt. Dieser zeigt transparent z.B. die Verantwortlichkeiten, Quellsysteme, Datenflüsse und fachliche Bedeutung der Daten. Auf Basis dieser Übersicht wird ein ganzheitliches Verständnis gefördert und bilden den kleinsten gemeinsamen Nenner. Zusätzlich kann in den unterschiedlichen Domänen auf spezifische Anforderungen eingegangen werden. Dies ist wichtig, da naturgemäß Anforderungen aus der Energieerzeugung sich von jenen aus dem Vertrieb von Energie- & Umweltprodukten unterscheiden.
Welche Methoden haben sich bewährt, um den Betrieb der Dateninfrastruktur effizient zu gestalten?
Analytische Funktionalität lässt sich mittlerweile kaum kosteneffizient On-Premise bereit stellen. Der Trend hier geht eindeutig Richtung Cloud.
Auch wenn Cloud Infrastruktur auf den ersten Blick einfach zugänglich erscheint und alles schön in einem Portal präsentiert wird, gibt es hier einiges zu beachten. Eine deklarative Beschreibung der (Daten-)Infrastruktur („Was soll der Zielzustand sein?“) ermöglicht einen höheren Automatisationslevel. Orchestrierung statt klassischem Configuration Management geht mehr auf den dynamischeren Lebenszyklus von (Daten-)Infrastruktur ein. Infrastructure As Code ist der Weg, um hier die Anforderungen effizient, qualitativ hochwertig und nachvollziehbar erfüllen zu können.
Wenn Sie keines unserer Factsheets verpassen wollen, einfach den Confare Newsletter abonnieren. Wenn Sie an unseren Publikationen oder bei den Digital Confare CIO ThinkTanks mitwirken wollen, melden Sie sich bei melanie.vacha@confare.at