100 Prozent fehlerfreie Stammdaten - das strebt das Data Quality Gate an.
Teilen Sie unseren Beitrag
Datenqualität  |  27.06.2017

Schluss mit halben Sachen!

Rund 50 Prozent aller Artikelstammdaten sind fehlerhaft. Das muss nicht sein: Die neue zentrale Qualitätssicherungsinstanz Data Quality Gate liefert automatisch validierte Daten und aussagekräftige Prüfberichte. Die intensive Kommunikation mit den Herstellern steigert die Güte der Angaben zusätzlich.

"Das darf doch alles nicht wahr sein!“ Dirk Bauer ist verzweifelt. Als Stammdaten-Beauftragter der Firma Hans Glück Feingebäck GmbH versucht er seit Tagen, die neuen Neapolitaner-Waffeln im Sortiment einer großen Einzelhandelskette unterzubringen. Alles schien perfekt: Auftrag ergattert, Produktion ausgeweitet, Logistiker beauftragt. Und dann das: Immer wieder meldet der Datenpool des Händlers Fehler: „Die Stammdaten sind nicht vollständig.“ Aber was genau wo fehlt, erfährt Bauer nicht. Inzwischen sitzt ihm der Transporteur im Nacken, denn ohne einwandfreie Artikelstammdaten akzeptiert der Händler die Ware nicht. Die Listung und damit das Geschäft drohen zu scheitern. Als Produzent ist die Hans Glück Feingebäck GmbH für die Bereitstellung qualitativer Stammdaten genauso verantwortlich wie für die Lieferung hochwertiger Produkte.

Vollständig, richtig, konsistent

Dieses fiktive Beispiel vermittelt einen Eindruck davon, wie wichtig einwandfreie Produktinformationen mittlerweile sind. Das gilt insbesondere für Online-Marktplätze, die immer häufiger Waren auch aufgrund gesetzlicher Vorgaben nur dann akzeptieren, wenn korrekte Stammdaten vorliegen. Für Christian Przybilla, Leiter E-Business/GDSN bei GS1 Germany, sind sie „das Öl des Digitalzeitalters“. Er erklärt: „Mehr und mehr automatisierte Prozesse entlang der Wertschöpfungskette greifen nur dann reibungslos ineinander, wenn die Stammdaten zu 100 Prozent stimmig sind – also vollständig, richtig und konsistent – sowie darüber hinaus termingerecht jedem Partner übermittelt werden.“ Hinzu kommt: E-Commerce-Kunden erwarten umfassende Angaben über die im Netz offerierten Produkte, weil sie die Ware vor dem Kauf nicht in Augenschein nehmen können. Und der Gesetzgeber schraubt die Anforderungen an die Transparenz zusätzlich in die Höhe. Das gilt für Nahrungsmittel, aber auch für zahlreiche andere Branchen (zum Beispiel Tiernahrung). So ist beispielsweise die EU-Lebensmittelinformationsverordnung (LMIV) in den vergangenen Jahren sukzessiv in Kraft getreten. Bei den Verstößen gegen diese Vorgaben führen „Kleinigkeiten“ die Rangliste der Fehlermeldungen in den verstreuten Datenbanken an – mal fehlt eine erforderliche  Produktbeschreibung, mal der Kontaktname des Inverkehrbringers oder einfach nur die Angabe zum Energiegehalt in Kilojoule. Was nichtig erscheint, kann für Lebensmittelhersteller, Händler und Onlineshops fatale Folgen haben. Mit unvollständigen oder fehlerhaften Produktinformationen setzen sie nicht nur das Vertrauen der Verbraucher aufs Spiel; sie riskieren auch rechtliche Konsequenzen.

Häufigste Fehler in den Artikelstammdaten

Vorgaben werden oft nicht erfüllt

Denn Konsumenten und Regulatoren verlangen einwandfreie Datenqualität. Diese bereitzustellen und zu sichern, ist für die Beteiligten eine Mammutaufgabe, die sie vielfach schlicht überfordert. Die einzelnen Unternehmen steuern eine Fülle an Produkten mit zig auszuweisenden Attributen – mehr als 450 allein im Bereich der Konsumgüter des täglichen Bedarfs. In Deutschland stellen rund 7.000 Produzenten mit etwa einer Million Datenbewegungen jährlich ihre Produktdaten dem Handel zur Verfügung. Ein aktueller Pilot der Tochtergesellschaft von GS1 Germany, Smart Data One, zur Steigerung der Datenqualität in den Jahren 2016/2017 ergab, dass fast 50 Prozent aller Artikel fehlerhafte Produktdaten aufweisen und daher die Vorgaben der LMIV nicht vollständig erfüllen. Hinzu kommt: Etliche Händler etablieren eigene Systeme zur Qualitätssicherung und prüfen die Produktinformationen auf eigene Faust. Solche Insellösungen sind nicht nur kostenintensiv – die geleistete Arbeit ist auch redundant, weil es große Überschneidungen in den Handelssortimenten gibt. Und da jeder die Datenqualität anders misst, tauchen Fehlermeldungen oft erst spät auf und bleiben zugleich unverständlich – wie im Fall der Hans Glück Feingebäck GmbH. Vor diesem Hintergrund starteten GS1 Germany, Smart Data One sowie der führende Datenpoolbetreiber 1Worldsync gemeinsam mit Industrie und Handel ein Datenqualitätsprogramm. „Denn die Beseitigung unzureichender Informationen in einem Netzwerk ist immer eine Community-Aufgabe“, betont Fabian Dimski, Chief Operating Officer bei Smart Data One. 

Das Ziel des kollektiven Vorstoßes: Aufbau einer zentralen Instanz zur Qualitätssicherung für den Austausch von Stammdaten, damit diese fortan vollständig, korrekt und termingerecht bereitstehen. Die Treiber auf Unternehmensseite, zu denen Amazon, Beiersdorf, dm-drogerie markt, Dr. Oetker, Edeka, Henkel, Markant, Mars, Metro, Mondelez, Nestlé, Rewe, Procter & Gamble sowie Unilever gehören, wollen die Güte der Stammdaten von Grund auf verbessern und diese onlinetauglich bereitstellen. In einem Pilotprojekt haben die Akteure nun bewiesen, wie erfolgreich das gemeinsame Programm verläuft. Zunächst entwickelten die Beteiligten einen Datenqualitätsstandard. Dabei erarbeiteten Industrie und Handel Antworten auf folgende drei Fragen: Wann ist eine Angabe richtig? Wann ist ein Datensatz vollständig? Wann ist er termingerecht bereitgestellt? Dann wurden erstmals Berechnungsmethoden entwickelt, mit denen sich die Richtigkeit, Vollständigkeit und Konsistenz von Daten objektiv beziffern lässt. Mithilfe von Kennzahlen wie dem Datenqualitätsscore kann die Güte von Artikelstammdaten benannt und verglichen werden. Zur Initiative gehörte auch, Validierungsregeln festzulegen, auf deren Basis die Qualität der Produktdaten einheitlich geprüft werden kann.

„Eine Untersuchung des Marktforschungsinstituts Gartner zeigte, dass schlechte Datenqualität jedes der Top-Unternehmen aus Handel und Industrie durchschnittlich 8,2 Millionen US-Dollar jährlich kostet.“ 

Smart Data One-COO, Fabian Dimski

Das Tor zu vertrauenswürdigen Daten 

Angewendet werden die Methoden des Datenqualitätsstandards von GS1 Germany in einem neuen Qualitätssicherungssystem – dem Data Quality Gate. Für Smart Data One-COO Dimski ist es „der Schlüssel zum Öl des 21. Jahrhunderts“. Dahinter verbirgt sich eine Software, die die Produktdaten automatisch auf Basis der gemeinsam vereinbarten Validierungsregeln prüft. Die anschließend versendeten Prüfberichte benennen die konkreten Fehler. Außerdem unterstützen die Fachleute die Hersteller aktiv bei der Nachbesserung ihrer Stammdaten – das hätte sich auch Dirk Bauer von der Hans Glück Feingebäck GmbH gewünscht. Stattdessen verstrich unnötig Zeit, Kosten türmten sich auf. Wie teuer das werden kann, erklärt Dimski: „Eine Untersuchung des Marktforschungsinstituts Gartner zeigte, dass schlechte Datenqualität jedes der Top-Unternehmen aus Handel und Industrie durchschnittlich 8,2 Millionen US-Dollar jährlich kostet.“

Nachweisbare Erfolge

Dazu muss es nicht kommen. Die positiven Wirkungen einer zentralen Qualitätssicherung auf die Informationsgüte belegte der erweiterte Pilotbetrieb des Data Quality Gates. Nach ersten Erfolgen in einem Test mit 25 Herstellern im Frühjahr 2016 nahmen ab November 300 Produzenten zwölf Wochen lang an dem Vorhaben teil. Davon erhielten 200 Teilnehmer jede Woche einen Prüfbericht von der zentralen Qualitätssicherung – parallel dazu verbesserten sich die Daten. 100 Hersteller dienten als Kontrollgruppe. Das Endergebnis der aktiven Teilnehmer am Data Quality Gate überzeugt. Im Verlauf des Piloten gab es überwiegend positive Rückmeldungen. Beispielhaft für viele kommentierte eine Mitarbeiterin der Backunion GmbH: „Wir sind sehr daran interessiert, unsere Datensätze auf möglichst unkompliziertem, kurzem Weg zu aktualisieren.“ Aus solchem Feedback sowie den gesamten Resultaten des Testlaufs leitet sich der Anspruch ab, in Zukunft alle im 1Worldsync-Pool für Deutschland eingestellten Daten über das Data Quality Gate zu prüfen.

Ziel ist es, Datenqualitätssicherung flächendeckend zu betreiben. Seit Anfang Mai wird das System auf weitere 2.500 Hersteller, die ihre Produktdaten über den Pool von 1Worldsync bereitstellen, ausgeweitet. Ihnen entstehen dadurch keine Kosten. Gleichzeitig entwickeln Industrie und Handel auf der Plattform von GS1 Germany den Datenqualitätsstandard kontinuierlich weiter, um der Vision von 100-prozentiger Datenqualität gemeinsam immer näher zu kommen.Fest steht: Gemeinsam mit Kooperationspartnern lässt sich die Datenqualität verbessern. Das Data Quality Gate steigert messbar die Güte von Artikelstammdaten und die aktive Herstellerbetreuung führt zu wesentlich besseren Ergebnissen. Mit der automatischen Kontrolle sparen Hersteller in der Regel einen Zeitaufwand von mehreren Wochen. Und vor allem vermeiden sie Zeitverluste im Vertrieb und bei der Listung neuer Produkte, die durch Daten minderer Qualität auftreten. Dirk Bauer jedenfalls weiß, was jetzt zu tun ist: Auch die Hans Glück Feingebäck GmbH nutzt fortan das neue Portal. Der Datenfehler, der ihn tagelang zur Verzweiflung trieb, war letztlich eine teure Kleinigkeit: Es fehlte ein Aufbewahrungshinweis. 

Erweiterter Pilotbetrieb des Data Quality Gate

Der neue Datenqualitätsstandard kann mithilfe von Software und aktiver Telefonbetreuung erfolgreich umgesetzt werden. Das belegt folgender Pilot:

Die Rahmendaten


Vom 16. November 2016 bis zum 15. Februar 2017 nahmen 200 Lebensmittelhersteller mit 18.000 Artikelnummern (GTIN) an der Ermittlung des Potenzials des neuen Datenqualitätssystems teil. Weitere 100 Lebensmittelhersteller bildeten die Kontrollgruppe. Der Datenrahmen bestand somit aus 300 Globalen Lokationsnummern (GLN) und knapp 33.000 Artikelnummern (GTIN) des Zielmarktes Deutschland. Die GLN wurden mithilfe von Zufallszahlen ausgewählt. Bedingung war, dass sie eine Fehlerquote größer null aufwiesen. Die GLN wurden in drei gleich große Gruppen eingeteilt. Die Kontrollgruppe A erhielt keine Prüfberichte und wurde nicht telefonisch kontaktiert. Gruppe B erhielt nur Prüfberichte per E-Mail. Gruppe C erhielt Prüfberichte und eine aktive telefonische Betreuung.Im Betrachtungszeitraum wurden anhand von 84 aktiven Validierungsregeln 52 Millionen Überprüfungen ausgeführt. Insgesamt gab es 13 Messpunkte zur Darstellung der Entwicklung im zeitlichen Verlauf. Für ein- und ausgehende Telefonbetreuung kamen 30 Personentage zum Einsatz. Die Prüfberichte wurden wöchentlich als Excel-Datei per E-Mail an die Teilnehmer verschickt.

91 Hersteller lieferten nach dem Pilotzeitraum des Data Quality Gates fehlerfreie Artikeldaten
5.600 der identifizierten fehlerhaften Artikelstammdaten konnten im Pilotzeitraum des Data Quality Gates korrigiert werden
Bildquellen: Adobe Stock, Smart Data One
Einen Inhalt suchen
Anzeige