homeprojekte_findenfreiberufler_softwareagenturen_stellen_sich_vorprintmagazinnewsletter_abonnierenkontakt

Top-Projekte

Hier gelangen Sie zu den aktellen Projeckten von:

Resoom Projects

Erfolgsfaktor Datenqualität
Stefan Eggers

Dass der Unternehmenserfolg an die Qualität von Unternehmensdaten gekoppelt ist, mag sich in dieser Dramatik vielleicht noch nicht so deutlich im kollektiven Bewusstsein verankert haben.

Datenbank-Experte Stefan Eggers: „Nicht Datenqualität kostet, sondern das Fehlen derselben.“

Dem Management ist es nicht möglich, richtige Entscheidungen auf Basis einer falschen Datengrundlage zu treffen. Was sich noch relativ harmlos anhört, ist nicht nur tragisch, sondern fast fahrlässig, werden so doch augenscheinliche Chancen gegenüber dem Wettbewerb verspielt. Schließlich können Analysen, Reportings und Datamining- Prognosen nur so gut sein wie die Daten, aus denen sie gespeist werden.

Kleine Ursache, fatale Wirkung
Wichtig ist es, schon möglichst früh in die „Ursachenforschung“ zu gehen. Denn oft passieren bereits Fehler bei der bloßen Dateneingabe. Spontan fällt einem sofort der berühmte „Zahlendreher“ bei Telefonnummern ein. Weitere häufige Fehlerquellen sind das Zusammenführen unterschiedlicher Datenquellen in ein einheitliches System und verschiedene Zeichensatzkodierungen in Quell- und Zielsystem (Stichwort: fehlerhafte Datendefinitionen). Das bleibt natürlich nicht ohne Folgen, und es kommt schnell zu Inkonsistenzen oder Dubletten. Zudem sind Kundendaten ja keine Konstanten und sollten deshalb regelmäßig gepflegt werden.

Auch die Architektur der verschiedenen Quellsysteme birgt weitere mögliche Fußangeln, weil Daten in Produktivsystemen erfahrungsgemäß oft eine schlechte Qualität aufweisen.
Verständlich, dass innerhalb der Abteilungen gern individuelle, IT-unabhängige Lösungen (wie zum Beispiel Access-Datenbanken) das Tagesgeschäft bestimmen. Um zu verlässlichen Unternehmensberichten zu kommen, muss es aber ein einheitliches Datenmanagement geben.
Schließlich vergeudet ein „Stochern im Nebel“ unnötig Ressourcen und vergibt Umsatzchancen an den Wettbewerb.

Das Gegenteil von „gut“ ist „gut gemeint“
Aber was genau bedeutet denn jetzt Datenqualität? Was adelt harte Fakten und macht sie schließlich zu Qualitätsdaten? Datenqualität (DQ) bezeichnet ganz einfach die Eignung von Daten für einen bestimmten Zweck. Um diese Eignung messbar zu machen, müssen nachweisliche Qualitätskriterien definiert werden. Mögliche Kriterien sind beispielsweise Korrektheit, Konsistenz, Zuverlässigkeit, Vollständigkeit, Zeitnähe und Relevanz. Verschiedene, oft heterogene Datenquellen werden mittels Datenintegrationsprozessen (ETL) aufbereitet und in speziellen Datenbanken, den Datawarehouses (DWH) bzw. DataMarts (DM), zusammengeführt. Die Informationsbereitstellung erfolgt dann schließlich in der Regel mittels Reporting, OLAP-Analysen oder Data Mining. Wie bereits erwähnt, ist es überaus wichtig, fehlerhafte Daten in einem möglichst frühen Stadium zu erkennen – schon deshalb, weil das weitaus weniger aufwändig ist als eine spätere Korrektur.

Die Quasi-Bestandsaufnahme: Das DQ-Assessment
Vereinfacht ausgedrückt beschäftigt sich das DQ-Assessment mit der Einschätzung der Datenqualität und dem Aufspüren bestehender Fehlerquellen. Ohne ins Detail gehen zu wollen, wäre das Data Profiling hier ein bewährter Lösungsansatz. Neben der Technik ist es aber vor allem die stetige Kommunikation mit den Anwendern, die Datenqualitätsmängel schnell und umfassend aufdecken und schließlich beheben helfen. Auch hier ist die möglichst frühzeitige Analyse und fortwährende Prozess-Begleitung seitens IT-Fachleute ein probates Mittel, um einen nachhaltigen Unternehmenserfolg zu sichern.

Der Datenintegrationsprozess (DI)
Und wie sieht er nun genau aus, der Königsweg, um zukünftig Zugriff auf qualitativ hochwertiges Datenmaterial zu haben? Der hierfür nötige Datenintegrationsprozess verläuft üblicherweise in vier Phasen: Phase 1 – Datenvalidierung: Die Quelldaten werden gegen vorab definierte Regeln geprüft. Korrekte Daten werden weiter verarbeitet und die fehlerhaften davon ausgenommen beziehungsweise gesondert behandelt.
Phase 2 - Datenstandardisierung: Die Daten werden in ein einheitliches, vergleichbares Format konvertiert.
Phase 3 – Datenbereinigung: Korrekturen innerhalb einzelner Datenfelder, Ermittlung und Auflösung von Duplikaten etc.
Phase 4 - Datenanreicherung: Zum Beispiel durch Bonitätsangaben wie demografische oder geografische Informationen. Die Datenqualität sowie die erfolgten Maßnahmen sollten im Rahmen eines DQ-Monitorings über alle Schritte des DI-Prozesses protokolliert und letztendlich in einem DQBericht visualisiert werden.

Klare Kompetenzen
Um für das gesamte Unternehmen eine wirkliche einheitliche Marschrichtung in punkto Datenmanagement zu gewährleisten, ist es wichtig, einen alleinigen Verantwortlichen für die Qualitätssicherung zu bestimmen. Allgemeingültige Regeln optimieren die Abläufe; dazu gehören auch Regeln zur allgemeingültigen Verwendung von Fachbegriffen in Berichten, auch „Corporate Wording“ genannt. Um das Regelwerk auf seine Praxistauglichkeit abzuklopfen, sind neben den IT-Verantwortlichen besonders die Fachabteilungen mit ihrem Branchen-Background gefragt.
Gerade weil die Güte der Daten so entscheidend für den Unternehmenserfolg ist, sollte das Überprüfen und Optimieren der Unternehmensdaten klar in den Fokus unternehmerischen Qualitätsmanagements rücken. Je früher im Verhalten und Prozess durch IT-Fachleute qualitätssichernd eingegriffen wird, umso effizienter, und damit auch erfolgreicher, lassen sich Marktpositionen sichern und ausbauen.

Über den Autor

Stefan Eggers von Awecon IT-Consulting ist seit 1997 als IT-Consultant tätig. Sein fachlicher Schwerpunkt liegt von Beginn an im Datenbank-Umfeld. Gemeinsam mit einem Team aus freiberuflichen BI-Experten unterstützt er Unternehmen in Sachen Datenqualität, Datenintegration, Analyse und Reporting.

Kontakt