Warum Value-Driven Data Quality Management für Unternehmen unerlässlich ist

Richtige Entscheidungen leben von den richtigen Informationen, und Unternehmen sind heute mehr als je zuvor auf belastbare Informationen aus ihren IT-Systemen angewiesen. Doch die Geschäftsmodelle von Unternehmen werden umfangreicher: Immer mehr Kunden, Lieferanten, Produkte und Geschäftsvorgänge führen zu einem exponentiellen Anstieg der Datenmenge. Die Qualität der Daten lässt allerdings häufig zu wünschen übrig – mit katastrophalen Folgen für das Unternehmen in Form von unvollständigen oder verzögerten Prozessausführungen und wirtschaftlichen Verlusten.

Das lässt sich an einem einfachen Beispiel aufzeigen: Ein Fahrradhändler erhält eine Kundenbestellung für ein bestimmtes Ersatzteil, sagen wir für eine Fahrradkette. Doch leider sind die Bezeichnungen im Produktkatalog nicht mehr auf dem neuesten Stand und der Kunde erhält statt einer Kette ein Kettenblatt. Die Folge: ein enttäuschter Kunde, der sich zusätzlich noch die Mühe machen muss, das Produkt zurückzusenden, und sich in Zukunft vielleicht für einen anderen Anbieter entscheidet. Dem Fahrradhändler selbst entstehen durch die Retourenbearbeitung hohe Kosten und verlorene Umsätze.

Im Rahmen einer Studie[1] gaben 20 % der Befragten an, dass Sie nicht mehr bei einem Unternehmen einkaufen würden, das ihre personenbezogenen Daten verloren hat. Aber wie lässt sich ein solcher Fall konkret in Euro beziffern? Welche Auswirkungen hat schlechte Datenqualität wirklich auf den EBIT eines Unternehmens? Ein neues Konzept ermöglicht es, genau das herauszufinden und so wirksame Korrekturprozesse anzustoßen: das Value-Driven Data Quality Management (VD-DQM).


Die wirtschaftlichen Auswirkungen von schlechten Daten quantifizieren

Mit dem von Camelot entwickelten VD-DQM Ansatz können Unternehmen die wirtschaftlichen Auswirkungen von mangelhafter Datenqualität in Stammdatensätzen identifizieren und quantifizieren.

Das neue Konzept nutzt Bestandteile des klassischen Data Quality Managements, legt aber besonderes Augenmerk auf Geschäftsvorgänge, die sich fehlerhafter Stammdatensätze bedienen. Diese fehlerhaften Stammdatensätze werden gekennzeichnet und nach den damit verbundenen Risiken klassifiziert. Im Anschluss daran werden die monetären Auswirkungen gemessen.

Das Konzept dringt tief in die aktiven Daten eines Unternehmens ein und nutzt dabei individuell anpassbare Datenregeln, um die wichtigsten Informationen zu filtern, zu segmentieren und zu analysieren.

VD-DQM ist prozessorientiert. Das heißt, dass es zentrale Geschäftsprozesse analysiert, die sich aktiver Stammdaten bedienen und die Anlage neuer Vorgangsdokumente entlang der gesamten Wertschöpfungskette eines Unternehmens auslösen. VD-DQM misst mit Geschäftsregeln verknüpfte KPIs und prüft dabei wichtige Datenattribute, um das Qualitätsniveau anhand von geschäftsrelevanten Qualitätsvorgaben zu bestimmen.

VD-DQM liefert umfassende multivariable Berichte, hauptsächlich zum wirtschaftlichem Risiko und Auswirkungen. Es ermöglicht aber auch das Clustern von Datenmängeln in Qualitätskriterien wie Vollständigkeit, Konformität, Konsistenz, Integrität, Richtigkeit, Eindeutigkeit und Aktualität.

Nach Identifizierung potenzieller Mängel sowie der damit einhergehenden Risiken und wirtschaftlichen Auswirkungen können mithilfe von VD-DQM Korrekturprozesse für Stammdatenobjekte angestoßen werden. So kann das Data Lifecycle Management im Unternehmen verbessert, weitere Datenfehler verhindert und damit viel Zeit und Geld für reaktive Maßnahmen gespart werden.


Zusammenfassend handelt es sich bei VD-DQM also um ein integriertes Konzept, mit dem sich die aktuellen Herausforderungen im Data Quality Management bewältigen lassen. Es ermöglicht eine Entscheidungsfindung auf Grundlage von finanziellen Fakten und reduziert unternehmerische Risiken, die aus unzureichender Datenqualität erwachsen und Ineffizienzen im Betrieb sowie wirtschaftliche Verluste zur Folge haben können. Darüber hinaus bereitet VD-DQM Unternehmen ideal auf das neue Zeitalter der digitalen Transformation vor, indem es die klassischen Modelle des Data Quality Managements auf den Stand der Zeit bringt.


[1] Cai, L. & Zhu, Y., (2015). The Challenges of Data Quality and Data Quality Assessment in the Big Data Era. Data Science Journal. 14, S.2

written by
Salvador De la Torre
Salvador De la Torre ist Senior Consultant für Enterprise Information Management bei Camelot. Er blickt auf mehr als 15 Jahre internationale Berufserfahrung zurück und hat in dieser Zeit Data-Management-Projekte für Spitzenunternehmen in einer Vielzahl von Branchen geleitet und erfolgreich zum Abschluss gebracht. Darüber hinaus ist er als Dozent für Management in renommierten internationalen Business Schools tätig.

Dieser Post ist außerdem verfügbar in: Englisch