fbpx

Die 7 wichtigsten Eigenschaften einer Next-Gen IT-Infrastruktur, die fit für das data-driven Business ist

by Stephanie Ellemunter

Im neuen #ConfareFactsheet, powered by Cohesity, erfahren Sie alles zur Rolle der Cloud,  den Säulen eines ausgereiften Enterprise Data Management und wie Sie Backups vor Ransomeware schützen.

Kapitel 1 befasst sich mit den wichtigsten Eigenschaften einer data-driven IT-Infrastruktur.

Die IT-Infrastruktur ist Kern eines jeden datengetriebenen Unternehmens und ein entscheidender Faktor für jene, die noch in das data-driven Business einsteigen wollen. Sie ist das Rückgrat und Herz der Datenverarbeitung, im schlechtesten Fall aber auch die Achilles-Ferse. Die extreme Verflechtung von Business und Technologie sorgt natürlich auch für gesteigerte Anforderungen. Sie muss zuverlässig, leistungsstark und sicher sein und zwar in vielen verschiedenen Dimensionen, von
Servern, über Software, Connectivity und Speicher. Als IT-Verantwortlicher gilt es daher, all diese verschiedenen Aspekte im Auge zu behalten. Sie sind die Voraussetzung dafür, mit neuen Geschäftsmodellen erfolgreich zu sein, auf Basis von Daten Geschäftsprozesse zu verbessern und langfristig in einer Digitalen Welt erfolgreich zu bleiben.

Wir haben die Confare CIO-Community gefragt, welche Eigenschaften eine IT-Infrastruktur heute wirklich haben muss und dabei 7 Faktoren ermittelt.

1) Connectivity

Marcus Frantz ÖBB

Connectivity ist hier ein besonders wichtiges Thema. Wie stellen wir die Verbindung zu all den Sensoren und Assets her, also quasi die Fähigkeit, die Daten aufzusaugen um sie dann weiterzuverarbeiten. Und das stabil und in der richtigen Qualität.“

Marcus Frantz, CIO, ÖBB

Stabilität und Geschwindigkeit sind entscheidende Anforderungen an die Connectivity, und zwar nicht nur im Unternehmen sondern auch darüber hinaus, in das digitale Ecosystem des Unternehmens. Denn Daten sind dann besonders wertvoll, wenn sie vernetzt betrachtet werden.

2) Agilität

Neben den klassischen Anforderungen wie Ausfallsicherheit, Performance, Wirtschaftlichkeit und natürlich Sicherheit steht immer mehr Agilität im Vordergrund. Die „Time to value“ verbessert
sich laufend bzw. steigen hier auch die Erwartungen. Ein Beispiel sind ad-hoc Analysen, welche früher wenigen Anwendern (mit Spezial Wissen) vorbehalten waren. Mit BI-Tools und Dashboards
sind diese nun einem breiten Anwenderkreis zugänglich und sind noch dazu viel mächtiger, da fundierte Prognosen zur Verfügung stehen oder sogar konkrete Optimierungsvorschläge einfach abgeleitet werden können.“

Manuel Stecher, Verbund

Stecher Manuel

Nie wieder wird die technische Entwicklung so langsam sein, wie heute! Daher ist die Zeit von 5-Jahres-Plänen in der IT längst vorbei. Weg von einer rigiden Legacy Datensammlung im Data Center womöglich gar in Daten-Silos strukturiert, hin zu flexibleren, agilen Modellen wie die Public Clouds. Ein schnellerer Einblick in die Gesamtheit der Daten wird immer relevanter, sei es für Analysezwecke oder Fehlerbehebungen. Hier braucht es Transparenz.

3) Hybride Cloud-Ansätze als Basis für agiles Data-Management

Marcus Frantz ÖBB

Die gesamte technologische Infrastruktur wird hybrid eingesetzt, damit wir bei Bedarf zusätzlich große Kapazitäten schnell hinzuziehen können und zwar genau in dem Moment, wo wir sie für die Verarbeitung benötigen. Diese Kapazitäten können wir dann aber auch schnell wieder
abdrehen, damit die Kosten nicht explodieren. Die riesigen Datenmengen, die wir hier produzieren mit eigener Hardware abzubilden wäre nicht finanzierbar.“

Marcus Frantz, ÖBB

Grosse Datenmengen und schnell verändernde Business-Anforderungen überfordern etablierte On-Premise Infrastrukturen schnell. Hybride Lösungen bieten sich an. Sie bieten die notwendige Skalierbarkeit.

4) Moderne Management-Lösungen für eine integrierte Sicht auf Daten

Eine integrierte Sicht auf Daten und eine hohe Analytics Fähigkeit ermöglichen es Führungskräften schnell die richtigen Entscheidungen zu treffen und machen Ergebnisse vorhersehbarer.“

Donat Kaeser, Swisscom

Kaeser Donat 150x150 runde Ecken

Diese recht neue Sichtweise macht Daten erst wirklich zu diesen bedeutenden Schätzen, die Analysten und Experten in ihnen sehen. Durch eine vernetzte Betrachtung werden aus Daten Informationen und Wissen, die dann neue Potenziale sicht- und nutzbar machen. Organisatorische und technische Silos werden dabei zu einem Problem. Es braucht die entsprechende Integration und Schnittstellenkonzepte, die eine gemeinsame Betrachtung ermöglichen.

Confare #CIOSUMMIT Frankfurt

5) Identity- und Accessmanagement als Voraussetzung

Wo mit großen Datenmengen umgegangen wird, ist natürlich auch das Thema Datenschutz von Relevanz. Wer darf zugreifen? Mit wem wird das gesammelte Wissen geteilt? Besonders wenn man in großen digitalen Ecosystemen zusammenarbeitet ist Identitäts- und Access-Management daher unerlässlich. Auch dafür muss die IT-Infrastruktur Sorge tragen.

Daten sammeln alleine ist ja keine Raketenwissenschaft, die Daten müssen aber nutzenstiftend eingesetzt werden können. Dafür braucht es Datenmodelle und eine Dateninfrastruktur, die immer und überall zur Verfügung steht, und die je nach Anwendungsanforderung den richtigen
Menschen und den richtigen Dingen (Stichwort: IoT) zur Verfügung steht. Da sprechen wir über das Thema IAM – Identity and Access Management – wo eine Architektur notwendig ist, die die Basis schafft, wer, wann, und in welchem Kontext auf Daten zugreifen kann. Das ist nicht trivial und sehr komplex.“

Eric-Jan Kaak, SPAR ICS

Erik-Jan Kaak

6) End-to-End Verfügbarkeit ist von hoher Bedeutung 

Für ein data-driven Business braucht es Datenverfügbarkeit, Datenqualität und auch Daten Compliance. Daten werden nicht nur in Echtzeit in großer Menge gesammelt, transferiert und ausgewertet, sondern müssen auch zuverlässig sein. Nur bei ständiger Verfügbarkeit und Stabilität werden die digitalen Services auch angenommen und genutzt. Wenn diese einmal etabliert sind, ist die Erwartungshaltung durch den Nutzer hoch. Leistungsfähige IT-Infrastruktur, aber auch Datenbanken, die mit der Performance der Systeme mithalten können.

In erster Linie wird eine high-performance Infrastruktur benötigt, welche hohe Sicherheit & Geschwindigkeit und sehr geringe Latenzen mitbringt. Man sollte darauf achten, die beste Infrastruktur nicht durch sub-optimale Software-, Daten- und Applikationsprozesse zu torpedieren. Was nützt die High-performance Infrastruktur, wenn z.B. die Datenbanken langsam sind, oder Datenabfragen so sub-optimal, dass jegliche Geschwindigkeit eingebüßt wird? Die Zeiten einer
reinen Hardware-seitigen Betrachtung sind vorbei. Heute muss der Mix aus Hardware, Software, Daten usw. stimmig sein… und das setzt auch Know-How aus unterschiedlichen Disziplinen voraus.“

Nino Messaoud, Barry-Wehmiller

Nino Messaoud_Linkedi

7) ???

Sie wollen mehr erfahren über Enterprise Data Management, wie man eine ganzheitliche, unternehmensübergreifende Sicht auf Daten gewinnt und die Anforderungen an einen modernen Enterprise Data Betrieb?? Dann laden Sie sich gerne unser Factsheet powered by Cohesity herunter

>>>KOSTENLOS<<<

EDM Factsheet Download

Wenn Sie keines unserer Factsheets verpassen wollen, abonnieren Sie unseren Confare Newsletter. Wenn Sie an unseren Publikationen oder bei den Digital Confare CIO ThinkTanks mitwirken wollen, melden Sie sich gerne bei melanie.vacha@confare.at

Confare Newsletter Anmeldebanner

Für Sie ausgewählt

Leave a Comment