Business Intelligence Anwendungen haben sich in den letzten Jahren in allen Wirtschaftsbereichen etabliert. Dabei sind Themen wie syntaktische und semantische Richtigkeit sowie Aktualität und Relevanz von Daten für nahezu alle Unternehmen beim Einsatz von BI eine große Herausforderung. So ist beispielsweise neben gesetzlichen Änderungen das Thema Datenqualität eines der Hauptgründe für Change Requests in existierenden BI-Anwendungen im Finanzsektor.
Lösungsansätze zur Verbesserung der Datenqualität reichen von eigenentwickelten Mapping-Regeln in ETL-Prozessen bis hin zu Datenqualitäts-Suiten etablierter Hersteller. Gemeinsam haben alle, dass sie ihren Fokus nur auf einzelne Problemfelder richten – wie z.B. ETL oder Datenbereitstellung – und keine Möglichkeit zu einer integrierten Betrachtung aller Bereiche der Datenqualität bieten.

Bei Datenqualität handelt es sich um ein vielschichtiges Problem, welches sich über den gesamten Datenproduktionsprozess im Unternehmen erstreckt. Dies bedingt eine integrierte Betrachtung aller Problemfelder mittels der vier Einflussfaktoren der Datenqualität: die konstruktionsbedingten, die organisatorisch bedingten, die realen und die formalen Faktoren der Datenqualität.

Konstruktionsbedingte Faktoren der Datenqualität
Konstruktionsbedingte Faktoren betreffen primär das nachgelagerte Erfassen, Monitoren und Beheben von Datenfehlern und –problemen wie beispielsweise Redundanzen. Derartige Fehler haben meist ihren Ursprung in einer fehlerhaften Architekturgestaltung des Data Warehouses. Im operativen Bereich ist auf systematisches Stammdatenmanagement oder die Definition führender Systeme besonders zu achten. Im Falle einer Redundanz z.B. in Form von Dubletten bedeutet dies, dass eine nachgelagerte Identifikation mit einer geeigneten Aktion zur Behebung des Problems notwendig wird.

Organisatorisch bedingte Faktoren der Datenqualität
Die organisatorischen Faktoren beziehen sich auf die klare Festlegung der Verantwortlichkeiten zur Identifikation und Behebung von Datenfehlern sowie zur Messung und Aufrechterhaltung der Datenqualität. Die Etablierung einer Data Governance ist in diesem Zusammenhang eine wesentliche Voraussetzung zur Sicherstellung von Daten- und Informationsqualität. Das Konzept eines Business Intelligence Competence Centers, welches in den letzten Jahren vermehrt an Bedeutung gewonnen hat, kann die Implementierung einer Data Governance unterstützen.

Reale Faktoren der Datenqualität
Unter den realen Faktoren versteht man die tatsächlich in den operativen Systemen vorliegende Datenqualität. Diese entspricht in der Regel nicht der für dispositive Auswertungen benötigten Qualität. Beispielsweise stehen dem Anspruch an Vollständigkeit der Werte häufig fehlende bzw. fehlerhafte Inhalte entgegen. Da operative Systeme meist die wettbewerbsrelevanten Kernprozesse des Unternehmens abbilden, sind Anpassungen an diesen durch Anforderungen aus dem dispositiven Umfeld ohne Sensibilität für Stammdatenmanagement und Data Governance nur schwer umsetzbar. Deshalb haben sich Maßnahmen zur nachgelagerten Qualitätsverbesserung etabliert. Diese werden meist im Rahmen der Data-Warehouse-Beladungsprozesse implementiert. Wie aktuelle Umfragen jedoch belegen haben sich diese Ansätze als nicht ausreichend erwiesen. Es ist vielmehr zwingend notwendig, die Datenqualität nicht nur auf dispositiver, sondern auch auf operativer Ebene zu erhöhen. Zur Behebung dieser innerbetrieblichen Problemstellung, müssen gewachsene Organisations- und Entscheidungsprozesse verändert werden. Dies ist eine der großen Herausforderung an das Management, und das klassische Beispiel für ein Ineinandergreifen von realen und organisatorischen Faktoren der Datenqualität.

Formale Datenqualität
Die formale Datenqualität umfasst die Definition von Datenstandards, die Qualität der Datendefinitionen und die Qualität der Prozess- und Datenmodelle.

Datenstandards werden für ein Unternehmen oder für Teilbereiche eines Unternehmens festegelegt und müssen konsequent eingehalten werden. Zur Sicherstellung der Kompatibilität zu bestehenden Standards bedarf es der Definition eines formalen Prozesses. Dieser umfasst die Verabschiedung von Änderungen, Erweiterungen der Datenstandards und die Einführung neuer Werkzeuge.
Qualität der Datendefinition stellt die Vollständigkeit, Genauigkeit und Klarheit betriebswirtschaftlicher Begrifflichkeiten und Definitionen sicher. Hierbei unterstützt ein unternehmensweit konsistentes Glossar.
Qualität der Prozess- und Datenmodelle basiert auf einem Grobdatenmodell welches die Unternehmenswirklichkeit widerspiegelt und auch vom Top-Management verstanden wird. Dieses wird in einem logischen Datenmodell weiter detailliert. Das logische Datenmodell beschreibt die operativen Prozesse und bildet damit gleichzeitig die Grundlage für die spezifischen Sichten auf das System. Diese spezifischen Sichten werden im Data Warehouse Datenmodell abgebildet und beschreiben den Informationsbedarf des Unternehmens über Bereichsgrenzen hinweg.

INFORMATION WORKS entwickelt einen ganzheitlicher Ansatz zur Verbesserung der Datenqualität, der es ermöglicht, bestehende Tools und Methoden weiter zu nutzen und dennoch einen umfassenden Fokus auf das Thema Datenqualität zu richten. Zentrale Instrumente dieses Ansatzes sind eine Datenqualitätsscorecard, eine Datenqualitätsdatenbank, eine Metrik-Engine sowie die Definition der zugehörigen Verantwortlichkeiten und Prozesse.

Qualitätsmanagement für die Implementierung von BI Systemen

BI Anwendungen stellen steuerungsrelevante Informationen für Geschäftsprozesse und Entscheidungen bereit. Fehlerhafte Informationen können erhebliche Schäden verursachen. Deshalb ist der Qualitätssicherung von BI Anwendungen besondere Beachtung zu schenken.

Klare fachliche und technische Definitionen in der Konzeption, ein intensives Datenqualitätsmonitoring und eine tiefgehende Überprüfung der Software-Systeme gegen die fachlichen Vorgaben muss deshalb integraler Bestandteil des Gesamtprozesses sein. Dies führt zur Steigerung der Qualität bei gleichzeitiger Kosten- und Risikoreduktion.