fact ai fact data cleaner geld brennt

Schlechte Stammdaten sind schlecht fürs Geschäft

Florian Fact Insights, Technology, Uncategorized

Stammdaten sind die Grundlage für praktisch jeden Geschäftsprozess. Richtig gemanagt, erleichtern sie den Datenaustausch und die -verarbeitung. Eine systematische Datenintegration gewährleistet eine konsistente Nutzung und Wiederverwendung von Daten. Stammdaten gibt es in jedem Unternehmen, aber noch ist nicht allen bewusst, wie wichtig sie für das Business sind und vor allem, wie wichtig ein umfassendes Stammdaten-Management (auch MDM = Master Data Management) ist. Ein einziger kleiner Fehler kann großen Schaden und hohe Kosten verursachen. Mit anderen Worten: 

“Falsche Stammdaten sind doch richtig, nämlich richtig teuer.”

Fact AI Weisheit

Doch bevor wir hier die wundersame Geldverbrennung durch fehlerhafte Stammdaten näher beleuchten, fragen wir erst einmal: 

Was genau sind eigentlich Stammdaten?

Stammdaten (auch Grunddaten bzw. Master Data, Core Data, Static Data) sind Daten, die über einen längeren Zeitraum unverändert bleiben. Sie haben eine besonders hohe Relevanz für nahezu alle Geschäftsprozesse, denn sie enthalten Grundinformationen über betrieblich relevante Objekte, z.B. Produkte, Artikelbezeichnungen, Stücklisten, Rabattvereinbarungen, Dienstleistungen, Lieferanten, Einkaufskonditionen, Lagerorte, Kunden, Namen, Adressen oder Personal. Stammdaten werden üblicherweise gleich von mehreren Bereichen eines Unternehmens genutzt, was natürlich auch das Gefahrenpotenzial von Fehlern erhöht. 

Im Gegensatz zu sog. Bewegungsdaten, die dynamisch sind, häufig geändert werden und eine zeitlich begrenzte Relevanz haben (z.B. Rechnungen, Aufträge, Bestellungen, Mahnungen oder Bestände), sind Stammdaten eher statisch, lange gültig und daher von dauerhafter Bedeutung für viele (wenn nicht für alle) Unternehmensbereiche.

Pflegenotstand“ bei Stammdaten

fact ai error fehler mdm stammdaten

Zuerst die gute Nachricht: Der Stellenwert von Stammdaten-Management / MDM wächst. Laut einer PwC-Studie (Befragung von 113 Händlern und Konsumgüterherstellern) bestätigen 95% der Unternehmen, dass das Thema einen großen Beitrag zum Gesamterfolg ihres Unternehmens leistet und ein erfolgskritischer Wettbewerbsfaktor ist.

Die Pflege von Stammdaten ist für Unternehmen, vor allem Handel und Konsumgüterindustrie, aus verschiedenen Gründen von höchster Bedeutung: Eine hohe Stammdatenqualität ist Voraussetzung für effiziente Prozesse, zufriedene Kunden und verlässliche Analysen. Sind die Stammdaten hingegen fehlerhaft, kann dies die Prozesse im Unternehmen beeinträchtigen und verzögern (zum Beispiel bei der Rechnungsstellung), Kosten verursachen und sogar den Reputationsverlust eines Unternehmens zur Folge haben. Und das bringt uns zur schlechten Nachricht: 

Ein mangelndes Datenmanagement mit Dubletten, unvollständigen und fehlerhaften Datensätzen usw. ist weiterhin verbreitet.

Um die digitale Transformation erfolgreich zu meistern, müssen sich Unternehmen in hohem Maße mit ihren Stammdaten auseinandersetzen. Die umfassende Integration eines Stammdaten-Managements / MDM in den weiteren Digitalisierungsprozess sollte dabei eine hohe Priorität haben. Das Thema sollte für das Ziel “höhere Datenqualität” auf der Konzernebene angesiedelt und, wenn möglich, als eigenständiger, zentraler und autonomer Bereich fest im Unternehmen verankert werden. Quasi als eine laufende Disziplin und nicht als ein einmaliges Projekt. Hier scheint es noch ein hohes Verbesserungspotenzial bzw. Nachholbedarf zu geben. Ein hochqualifiziertes Datenmanagement wird laut der erwähnten PwC-Studie noch unterschätzt. So denken z.B. nur rund die Hälfte aller befragten Vorstände, Geschäftsführer und Topmanager, dass die Thematik eine Voraussetzung für die Digitalisierung ihres Business Models ist. Ebenso nur die Hälfte spielt das Stammdaten-Management auf Konzernebene. Und was noch schwerer wiegt: Nur rund ein Drittel der Unternehmen überprüft die Produktstammdaten mindestens monatlich. Bei den Kundenstammdaten sind es sogar noch weniger (28 Prozent). Dies ist eine vertane Chance, denn je höher die Prüffrequenz ist, desto höher ist der Wertbeitrag zum Unternehmenserfolg.

Stammdaten-Management: Ziele vs. Hürden

Ziele

  • Schnellere Reaktionszeit auf sich ändernde Markt- und Kundenanforderungen
  • Höhere Qualität der Informationsversorgung
  • Verbesserte Geschäftsprozesse
  • Kontinuierliche Bereinigung von Datenfehlern
  • Erfüllung von Compliance-Anforderungen, z.B. die EU-Datenschutz-Grundverordnung (EU-DSGVO)

Hürden

  • Große, unhandliche Datenmengen
  • Hohe Kosten
  • Schaffung einer geeigneten Datei-Infrastruktur (Systemintegrationen und -transformationen
  • Ablösung / Desintegration alter Systeme
  • Interne Strukturveränderungen, z.B. Komplexitätsreduktion durch Zusammenlegung von Vertriebskanälen

Die wundersame Geldverbrennung

fact ai computer frau verzweifelt hohe kosten

Nun aber zum eigentlichen Thema: Inwieweit kosten Fehler Geld? Es gibt da diesen IT-Spruch “Garbage in – Garbage out”. D.h. wo man Müll reintut, kommt auch Müll raus. Im Qualitätsmanagement spricht man von der Zehnerregel („rule of ten“): Kosten für einen unentdeckten Fehler erhöhen sich von Stufe zu Stufe der Wertschöpfung um den Faktor 10. Unentdeckte Fehler sind teuer und verursachen Schaden. Oder mit anderen Worten: Je früher ein Fehler entdeckt und beseitigt wird, desto kostengünstiger ist dies für die Organisation. Ein weiterer Punkt ist, dass ca. 70 % aller Produktmängel ihre Ursache bereits in der Entwicklung, Konstruktion und Arbeitsvorbereitung hatten. Der Herstellungsprozess selbst hat bezüglich der Qualität des Endproduktes offensichtlich eher einen geringen Einfluss. Durch das allgemeine Datenwachstum und die fortschreitende Digitalisierung in Unternehmen steigt auch die Anzahl der Datenfehler. Diese können viele Ursachen haben, z.B.:

  • Falsche Dateneingabe durch Menschen
  • Verwendung von Codes anstelle von Werten
  • Fehlerhafte Datenextrahierung / Datenvermischung
  • Experimentelle Fehler
  • Messfehler
  • Planungsfehler

Was kann helfen?

Wer die Geldverbrennung aufgrund von Fehlerkosten (und vor allem auch Fehlerfolgekosten) minimieren möchte, sollte den Fokus auf die Entwicklungs- bzw. Planungsphase legen. Als Teil eines umfassenden Qualitätsmanagements muss das Produkt von der Entwicklung bis hin zum Kunden fehlertechnisch betrachtet, beleuchtet und analysiert werden. Wer unabhängig vom eingangs erwähnten, ganzheitlichen Stammdaten-Management sofort und einfach auf Fehlerjagd gehen will, dem bietet sich die Verwendung von Tools an, die sich mit der so genannten Outlier Detection (deutsch: Ausreißererkennung) befassen, wie z.B. der KI-basierte Fact Data Cleaner.

fact ai fact data cleaner saugroboter mdm stammdaten

Als Out-of-the-box-Lösung steht er unmittelbar zur Verfügung und liefert sofort Ergebnisse, die  durch Konfigurationen verbessert werden können. Ob als Web-App oder integriert in bestehende ERP-Systeme: Der Einsatz erfolgt rasch – ohne Schulungen und ohne aufwändige Definition von Regeln. Einfach Daten hochladen (oder per API übermitteln), Korrekturvorschläge gibt es sofort. Durch Vektorisierung (Feature-Generation mittels Natural Language Processing, NLP), AI-Analyse und Clustering werden Fehler, Ausreißer („outlier“), auffällige Daten und Anomalien sofort im Fehler-Reporting sichtbar gemacht. Die Letztverantwortung der Fehlerbehebung liegt aber immer beim User.

Mehr Infos zum Fact Data Cleaner

Weiterführende Links

https://innoscale.de/
https://www.gambit.de/
https://de.wikipedia.org/
https://www.pwc.de/de/digitale-transformation/pwc-studie-master-data-management-im-handel-und-in-der-konsumgueterindustrie-2018.pdf
https://www.pwc.de/de/digitale-transformation/mdm-im-handel-und-in-der-konsumgueterindustrie.html
https://www.computerweekly.com/de/definition/Stammdatenmanagement-Master-Data-Management-MDM
https://www.sixsigmablackbelt.de/fehlerkosten-10er-regel-zehnerregel-rule-of-ten
https://www.tibco.com/de/reference-center/what-is-outlier-detection

Zurück zur Blog-Übersicht