Exklusiv im #ConfareBlog mit Christian Sohn, zetVisions GmbH:
Wie schlechte Datenqualität dem Unternehmens-Gewinn schadet – und was man tun sollte
Christian Sohn ist Managing Director der zetVisions GmbH und bezeichnet sich selbst als „Datenversteher aus Leidenschaft“. Christian ist begeistert, dass das Thema Daten und ihre intelligente Nutzung so eine hohe Bedeutung gewonnen haben. Trotzdem scheitern immer noch zu viele der Initiativen auf dem Weg zum Data Driven Business schlicht an der Qualität der vorhandenen Daten. Im Bloginterview beschreibt er, wie sich Datenqualität auf das Unternehmensergebnis auswirkt, wie man Datenqualität überhaupt misst und wie man sie verbessert.
Alle reden von Datenqualität, aber was ist das eigentlich genau? Was sind die wichtigsten Aspekte einer guten Datenqualität?
Datenqualität bedeutet, zu jeder Frage eine richtige Antwort zu erhalten. Das setzt voraus, dass Daten ständig auf Fehlerhaftigkeit, Redundanz und Nutzbarkeit geprüft werden. Neben der Vermeidung von Fehlern und Lücken geht es also auch darum, Daten verschiedenen Adressaten in einheitlicher Weise zur Verfügung zu stellen und sie möglichst einfach nutzbar zu machen.
Datenqualität kann anhand von Merkmalen beurteilt werden. Zu diesen Merkmalen zählen erstens die intrinsische Datenqualität, sie umfasst Glaubhaftigkeit, Genauigkeit, Objektivität und Reputation; zweitens die kontextuelle Datenqualität, damit sind Mehrwert, Relevanz, Zeitnähe, Vollständigkeit und Datenmenge gemeint; drittens die repräsentative Datenqualität, also Interpretierbarkeit, Verständlichkeit, Konsistenz der Darstellung und Prägnanz; und schließlich viertens die Zugriffsqualität, sprich Verfügbarkeit und Zugriffssicherheit.
Warum ist Datenqualität so wichtig?
Branchenübergreifend sind 90 Prozent aller Unternehmen davon überzeugt, dass die Fähigkeit, große Datenmengen effizient zu analysieren und effektiv zu nutzen, für den Erfolg ihres Geschäftsmodells von entscheidender Bedeutung ist. Das Hauptproblem dabei ist die Datenqualität. Auch noch so viele Daten sind ohne das Erkennen von Zusammenhängen, Bedeutungen und Mustern wertlos. Der Einsatz von Verarbeitungs- und Analysemethoden kann aber nur dann einen monetären Wert aus Daten generieren, wenn sie „stimmen“. Auswertungen oder Planungen sind fehleranfällig, wenn sie nicht auf vollständigen, eindeutigen und „richtigen“ Daten basieren.
Hinzu kommt: Schlechte Datenqualität trifft Organisationen dort, wo es weh tut – beim Geld. Nach einer Gartner-Umfrage aus dem Jahr 2017 belaufen sich die durchschnittlichen jährlichen Finanzkosten je Unternehmen auf 15 Millionen US-Dollar. Das sind die direkten Kosten. Unternehmen sind aber nicht nur finanziell betroffen. Schlechte Datenqualitätspraktiken untergraben digitale Initiativen, schwächen ihre Wettbewerbsfähigkeit und säen Misstrauen der Kunden. Thomas C. Redman, Gründer von Data Quality Solutions und in der Community als „the Data Doc“ bekannt, schätzt, dass die Kosten schlechter Daten für die meisten Unternehmen bei 15 bis 25 Prozent des Umsatzes liegen. Das ist schon beachtlich.
Welche Folgen hat schlechte Datenqualität?
Zu den langfristigen Folgen schlechter Datenqualität gehören: erhöhte Betriebskosten, die Beeinträchtigung der Mitarbeiterproduktivität und -effizienz, mangelnde Agilität, schleppende Prozesse, der Verlust der Wettbewerbsfähigkeit und eine steigende Kundenunzufriedenheit.
Wie wir gesehen haben, kosten inkonsistente Daten schlicht Geld. Wenn beispielsweise ein Kunde oder ein Lieferant im System mehrfach vorhanden ist und verschiedene Konditionen hinterlegt sind, kann man sich die Folgen leicht vorstellen. Schlechte Datenqualität bindet zudem interne Ressourcen und verlangsamt Prozesse. Unplausible Daten müssen regelmäßig aufs Neue überprüft werden, von dieser Überprüfung sind häufig mehrere Abteilungen betroffen, und dennoch ist die finale Klärung oft nicht möglich. Unzuverlässige Datenquellen können des Weiteren zu fehlerhaften Managemententscheidungen oder Markteinschätzungen und damit zum Verlust von Marktanteilen führen. Was zudem nicht übersehen werden darf: Bei unzureichender Datenqualität besteht ein erhöhtes Compliance-Risiko durch die mangelhafte Erfüllung regulatorischer Anforderungen oder die unzureichende Transparenz und Rückverfolgung operativer Prozesse. Das kann sich kein Unternehmen leisten.
Wie kann man den Status der Datenqualität erheben?
Es gibt Softwarelösungen für die Analyse der Datenqualität, etwa den zetVisions Data Quality Analyzer, kurz DQA. Mit dem DQA können Unternehmen in ihren SAP-Systemen inkonsistente, doppelte, unvollständige und veraltete Datensätze in den Stammdatendomänen – Kunden/Lieferanten, Debitoren/Kreditoren, Produkt- und Materialstammdaten – aufspüren. So können sie die „gefühlte Datenqualität” mit Fakten untermauern und eine zuverlässige Aussage über den aktuellen Zustand der Datenqualität erhalten.
Und wie lassen sich die Kosten schlechter Datenqualität quantifizieren?
Erfahrungsgemäß ist kaum ein Unternehmen in der Lage, die Kosten schlechter Datenqualität mit harten Fakten, also mit Zahlen zu belegen. Insgesamt können die Kosten, die ein Unternehmen durch einen fehlerhaften Stammdatensatz entstehen, sehr unterschiedlich sein und von einigen hundert bis zu mehreren tausend Euro oder mehr reichen.
Um die monetären Folgen mangelhafter Datenqualität zu illustrieren, kann man die von Thomas Redman beschriebene „Zehner-Regel“ nutzen. Natürlich lassen sich die Kosten nicht exakt bemessen, aber die Zehner-Regel hilft dabei, zumindest eine realistische Vorstellung davon zu gewinnen.
Die Regel besagt, dass „die Fertigstellung einer Arbeitseinheit zehn Mal so viel kostet, wenn die Daten in irgendeiner Weise fehlerhaft sind, als wenn sie perfekt sind“. Nehmen wir als Beispiel eine Gruppe, die Kaufaufträge bearbeitet und sagen wir, sie muss davon 100 Stück pro Tag bearbeiten. Die Bearbeitung eines Kaufauftrags kostet 5 Euro, wenn die Daten perfekt sind. Sind die Daten aller 100 Kaufaufträge perfekt, liegen die täglichen Gesamtkosten bei 100 x 5 Euro = 500 Euro. Wenn nun nur 82 Kaufaufträge perfekte Datensätze haben, 18 aber fehlerhafte, dann sieht die Rechnung wie folgt aus: (82 x 5 Euro) + (18 x 50 Euro) = 410 Euro + 900 Euro = 1310 Euro. Ein Kostenanstieg um 162 Prozent.
Dabei berücksichtigt die Zehner-Regel keine nicht-monetären Kosten wie verlorene Kunden, schlechte Entscheidungen oder einen Reputationsschaden.
Was sind Hindernisse dabei, die Stammdatenqualität durchgehend hoch zu halten?
Das Problem beginnt schon damit, dass oft keine Transparenz hinsichtlich der tatsächlichen Datenqualität vorhanden ist. Der Umfang der Datensätze steigt immer weiter, gleichzeitig nimmt die Anzahl der Quellen und Verantwortungsbereiche für Daten stetig zu. Dies führt zu Abteilungen mit abweichenden Interessen an gleichen Datenobjekten, zu viele „Entscheider” werden eingebunden, es gibt „gefühlte” Vetorechte im Dateneingabeprozess. Das Berechtigungskonzept ist entweder lückenhaft oder gar nicht erst vorhanden, es fehlen klare Verantwortlichkeiten und Eskalationsstufen. Die manuelle Datenpflege und der manuelle Datenaustausch führen zu inkonsistenten, fehlerhaften oder unzureichenden Informationen.
Um das Management von einem Stammdatenmanagement-Projekt zu überzeugen, ist die Quantifizierung der Kosten inkonsistenter und/oder duplizierter Stammdaten und die Entwicklung eines Business Case für Stammdaten wichtig.
Wie lässt sich der Wertbeitrag eines professionellen Stammdatenmanagements quantifizieren?
Will man den Nutzen von Stammdatenmanagement in Zahlen ausdrücken, ist man auf Erfahrungswerte angewiesen. Beteiligte an Stammdatenmanagement-Projekten schätzen, dass durch ein Stammdatenmanagement-Tool die Bearbeitungs- oder Durchlaufzeiten um bis zu 50 Prozent reduziert werden können. Ein deutlich geringerer Abstimmungsaufwand trägt dazu bei. Ein schnellerer „Go-to-market” lässt sich zwar schwerlich exakt angeben, folgendes Beispiel lässt aber das Potential erahnen: Wenn ein Unternehmen berichtet, es bräuchte 70 Tage, bis ein neues Material im System vollständig angelegt ist, und man das hochrechnet auf die Anzahl von Teilen, die in einem Produkt verbaut sind, dann gewinnt man eine Vorstellung davon, was mit einem System erreicht werden kann, das die Materialanlage von 70 auf wenige Tage reduziert.
Ein weiterer Erfahrungswert besagt: Die Fehlerkosten, die durch Prozessintransparenz entstehen, können um 80 bis 90 Prozent verringert werden. Der Grund: Das Stammdatenmanagement sorgt für vollständige Transparenz entlang der gesamten Prozesskette, so dass jederzeit bekannt ist, wo der Stammdatenprozess steht. Laut Schätzungen lassen sich 53 Prozent der Daten schneller und einfacher finden.
Was sind die wichtigsten Elemente eines zeitgemäßen Stammdatenmanagements?
Unsere Erfahrungen haben gezeigt: Zu den Erfolgsfaktoren für die Einführung einer Stammdatenmanagement-Lösung gehören unter anderem die Unterstützung durch das Management, strukturierte und zielgerichtete Data Governance sowie Prozessoptimierung. Nur so kann sichergestellt werden, dass die Bedeutung hoher Stammdatenqualität für die Geschäfts- und Kostenentwicklung von allen Mitarbeitern verstanden wird.
Unternehmensinterne Richtlinien für den Umgang mit Daten sind zwingend erforderlich. Die Data Governance definiert einheitliche Regeln, Prozesse und Verantwortlichkeiten für Dateneingabe, -freigabe und -pflege sowie Datenqualitäts-KPIs. Dabei sind nicht nur die Kernprozesse im Unternehmen zu berücksichtigen, wie Einkauf, Produktion oder Vertrieb. Auch die Stammdatenprozesse rund um das Anlegen, Pflegen oder Löschen von Daten müssen optimiert werden. Die Implementierung einer Stammdatenmanagement-Lösung greift in „tradierte” Strukturen, Prozesse und „Hoheitsgebiete” ein. Daher gehört ein begleitendes Change Management zu den Erfolgsfaktoren, um die Betroffenen zu Beteiligten zu machen und sie in die neue Welt „mitzunehmen“. Eine professionelle Softwarelösung schließlich kann stets nur unterstützend wirken. Erst nachdem Prozesse und Befugnisse für die Datenpflege und -freigabe klar definiert sind, kann eine IT-Unterstützung erfolgen.
Welche Rolle spielt zetVisions im datengetriebenen Ökosystem des CIOs?
Für unsere Kunden im Allgemeinen und für CIOs im Besonderen lässt sich unsere Rolle mit der Formel „We breath data to fuel your success” auf den Punkt bringen. Wir sind Datenversteher! zetVisions gibt die Sicherheit, Entscheidungen auf der Grundlage der besten Daten treffen zu können. Unsere Softwarelösungen schaffen Klarheit und geben Weitblick in der Welt von Beteiligungen und Stammdaten. Damit schaffen wir die Basis für unternehmerischen Erfolg. Das Nutzenversprechen für unsere Kunden dreht sich um die Begriffe Weitblick, Sicherheit, Struktur, Klarheit, Erfolg, Transparenz, Perspektiven und Exzellenz. Für unsere Kunden sind wir Entscheidungsermöglicher, Pulsberuhiger, Gelassenheitsmacher, Zeitgewinner, Erfolgsbringer. Durch die Zusammenarbeit mit zetVisions sind Kunden in der Lage, ihre Datenqualität massiv zu erhöhen, ihre Transparenz in den Prozessen zu erhöhen, um die Basis zu schaffen für ein erfolgreiches Datenmanagement.
Wie sieht die unternehmerische Perspektive von zetVisions aus? Womit darf man rechnen?
zetVisions wandelt sich von einem klassischen SAP-Softwarehersteller zu einem ganzheitlichen Lösungsanbieter für das Management und die Analyse von Daten. Uns geht es darum, weniger die Technologie in den Mittelpunkt zu stellen, sondern den Menschen, dem wir mit unseren Lösungen helfen, bessere Entscheidungen zu treffen. Das kommunizieren wir mit dem neuen Claim ‚smart decisions with excellent data’.
zetVisions folgt einer Wachstumsstrategie, mit der wir unseren Kunden- und Mitarbeiterstamm kontinuierlich weiter ausbauen wollen. Kundenseitig geht es dabei sowohl um das Beteiligungsmanagement – hier will zetVisions seine Position als europäischer Marktführer weiter ausbauen – als auch um das Stammdatenmanagement mit dem Ziel, einer der weltweit Top-10 Lösungsanbieter zu werden. Das Stammdatenmanagement ist ein absoluter Wachstumsmarkt in den nächsten Jahren.
Teil der Transformation von zetVisions ist die sukzessive Umstellung unserer Produkte hin zu Software-as-a-Service (SaaS). Damit streben wir in Richtung einer schnelleren Bereitstellung von Softwarelösungen, reduzierten Kosten, erhöhter Flexibilität und Skalierbarkeit sowie einer verbesserten Benutzerfreundlichkeit.
Gender-Hinweis:
Zur besseren Lesbarkeit dieses Blogartikels verwenden wir das generische Maskulinum. Die in diesem Blogartikel verwendeten Personenbezeichnungen beziehen sich – sofern nicht anders kenntlich gemacht – auf alle Geschlechter.