Datenqualität: Gute Daten - schlechte Daten Detail - Computerwelt

Computerwelt: Aktuelle IT-News Österreich


10.03.2011 Martin Bayer*

Datenqualität: Gute Daten - schlechte Daten

Eine exklusive Umfrage hat ergeben, dass Unternehmen oft nicht wissen, wie sie eine hohe Datenqualität sicherstellen können.

Marketing-Aktionen, die haarscharf an der Zielgruppe vorbeigehen, Rechnungen, die nicht zugestellt werden können, und geschäftliche Fehlentscheidungen, weil keine belastbaren Informationen zur Verfügung stehen - solche Business-Pannen haben oft eine gemeinsame Ursache: eine mangelhafte Datenqualität. Die Folgen können verheerend sein: Falsche Zahlen oder verärgerte Kunden bringen gerade in wirtschaftlich schwierigen Zeiten Firmen schnell ins Schleudern. Doch in Zeiten, in denen immer mehr Daten in immer verteilteren Systemen immer schneller bereitgestellt werden müssen, ist das Informations-Management komplex geworden. Schludern ist nicht erlaubt: Nicht nur die Geschäftsrisiken sind beträchtlich, auch rechtliche Verstöße, die auf fehlerhaften Daten beruhen, können böse Folgen haben.

KRITERIEN FÜR GUTE DATENQUALITÄT Wer eine gute Datenqualität erreichen will, muss auf eine Reihe von Kriterien achten:

Korrektheit: Die Daten müssen mit der Realität übereinstimmen.

Konsistenz: Ein Datensatz darf in sich und zu anderen Datensätzen keine Widersprüche aufweisen.

Zuverlässigkeit: Die Entstehung der Daten muss nachvollziehbar sein.

Vollständigkeit: Ein Datensatz muss alle notwendigen Attribute enthalten.

Genauigkeit: Die Daten müssen in der jeweils geforderten Exaktheit vorliegen (Beispiel: Nachkommastellen).

Aktualität: Alle Datensätze müssen jeweils dem aktuellen Zustand der abgebildeten Realität entsprechen.

Redundanzfreiheit: Innerhalb der Datensätze dürfen keine Dubletten vorkommen.

Relevanz: Der Informationsgehalt von Datensätzen muss den jeweiligen Informationsbedarf erfüllen.

Einheitlichkeit: Die Informationen eines Datensatzes müssen einheitlich strukturiert sein.

Eindeutigkeit: Jeder Datensatz muss eindeutig interpretierbar sein.

Verständlichkeit: Die Datensätze müssen in ihrer Begrifflichkeit und Struktur mit den Vorstellungen der Fachbereiche übereinstimmen.

WIE WICHTIG IST DIE DATENQUALITÄT? Die überwiegende Mehrheit der Unternehmen hat mittlerweile erkannt, wie wichtig eine gute Datenqualität für das eigene Geschäft ist. Über 90 Prozent der Befragten gaben im Rahmen einer exklusiven COMPUTERWOCHE-Umfrage an, die Qualität der Daten sei ein Thema, das eigene Fach- und IT-Abteilungen beschäftige. Fast ein Drittel bekräftigte, sich sogar in starkem Maß um den Zustand der Firmeninformationen zu kümmern. Auch über die Folgen eines schlechten Daten-Managements herrscht Einigkeit. 92 Prozent der über 200 interviewten Manager gehen davon aus, das eigene Business würde unter schlechten Daten leiden.

Andere Umfragen bestätigen diese Einschätzungen. So hatte eine Befragung von Pierre Audoin Consultants (PAC) vom vergangenen Jahr in der deutschen Banken- und Versicherungsbranche ergeben, dass fast alle Unternehmen hochwertige Daten als strategischen Vermögenswert einschätzen. Gerade im Finanzsektor sei eine solide Datenbasis von entscheidender Bedeutung, sagen die PAC-Analysten. Neben einer fundierten Entscheidungsgrundlage gehe es den rund 60 von PAC befragten Managern vor allem darum, die zahlreichen Compliance-Vorschriften zu erfüllen.

Fazit: Fast alle Unternehmen bewerten eine gute Datenqualität als existenzielle Grundlage für das eigene Geschäft.

WIE GUT SIND DIE DATEN? Während sich fast alle Firmenverantwortlichen zumindest in der Theorie darüber einig sind, wie wichtig saubere Datenbestände für den Geschäftserfolg sind, bleiben in der Praxis doch etliche Fragen offen. Zwar bezeichneten in der COMPUTERWOCHE-Umfrage immerhin 87 Prozent der Befragten ihre Datenqualität grundsätzlich als gut. Allerdings lobten lediglich knapp sieben Prozent sie als sehr gut. Über 40 Prozent charakterisierten den Zustand ihrer Firmeninformationen als eher gut, was darauf hindeutet, dass es an der einen oder anderen Stelle Qualitätszweifel gibt.

Diese Unsicherheit trat in einer Umfrage des Business Research Application Center (Barc) aus dem vergangenen Jahr zutage. Von den über 100 befragten Anwenderunternehmen erklärten lediglich 40 Prozent, sie vertrauten den Daten aus ihrem SAP-System. Weitere 47 Prozent sprachen von einem "durchschnittlichen Vertrauen". Die Barc-Analysten erkennen hier deutliche Zweifel an der Qualität der SAP-Daten.

Die meisten Verantwortlichen sind sich des Problems fehlerhafter Datenbestände bewusst. Rund 83 Prozent der befragten SAP-Anwender erklärten, eine schlechte Datenqualität wirke sich negativ auf die eigene Wertschöpfung aus. Die meisten sprechen hier offenbar aus Erfahrung. Fast drei Viertel der interviewten Manager sprach von sinkender Mitarbeiterzufriedenheit infolge schlechter Datenqualität. 63 Prozent beklagten unzufriedene Kunden, und über die Hälfte sah sich mit steigenden Kosten konfrontiert.

Viele Unternehmen wollen Qualitätsmängel bei ihren Daten nicht einsehen. Kein Manager gibt gerne zu, dass er ein Problem mit dem Zustand seiner Daten hat, berichtet beispielsweise Otto Neuer, Deutschland-Geschäftsführer von Informatica. Dazu kommt, dass viele Unternehmen sich schwer tun, die Probleme konkret zu greifen. "Fehlerhafte Daten kommen oft erst im Data Warehouse ans Licht", schreiben die Capgemini-Manager Detlef Apel, Rüdiger Eberlein, Christian Merighi sowie Wolfgang Behme von der Continental AG in ihrem Buch "Datenqualität erfolgreich steuern". Zuvor würden Informationen über eine Vielzahl von Benutzerschnittstellen eingespeist beziehungsweise durch die Geschäftslogik in den Systemen selbst erzeugt. Passieren dabei Fehler, führt das im Datenfluss zu Folgefehlern, die sich dann leicht zu größeren Problemen aufschaukeln könnten, warnen die IT-Experten.

Datenqualität messen In dem Buch "Datenqualität erfolgreich steuern" geben die Autoren Tipps, wie sich Datenqualität messen lässt. Dazu sollten Anwender:

• Systeme und Datenbereiche identifizieren, in denen Qualitätsprobleme auftreten;

• Kennzahlen und Prüfregeln definieren;

• festlegen, ob automatisch oder manuell geprüft werden soll;

• definieren, in welchen Abständen die Daten geprüft werden sollen.

Die Experten warnen jedoch, Kennzahlen überzubewerten. Zwar ließen sich damit Aussagen über die Datenqualität machen, nicht aber über das konkrete Problem oder dessen Ursachen. Mittlerweile bieten verschiedene Softwarehersteller Tools an, die die Datenqualität automatisch prüfen (Data Profiling) und Fehler nach zuvor definierten Regeln beseitigen (Data Cleansing).

Diesen Artikel

Bewertung:

Übermittlung Ihrer Stimme...
Noch nicht bewertet. Seien Sie der Erste, der diesen Artikel bewertet!
Klicken Sie auf den Bewertungsbalken, um diesen Artikel zu bewerten.
  Sponsored Links:

IT-News täglich per Newsletter

E-Mail:
Weitere CW-Newsletter

CW Premium Zugang

Whitepaper und Printausgabe lesen.  

kostenlos registrieren

Aktuelle Praxisreports

(c) FotoliaHunderte Berichte über IKT Projekte aus Österreich. Suchen Sie nach Unternehmen oder Lösungen.

Zum Thema

  • abaton EDV-Dienstleistungs GmbH

    abaton EDV-Dienstleistungs GmbH VPN, Überwachungssysteme, SPAM-Filter, Notfalls-Rechenzentren, Firewalls, Datensicherung, Backup und Recovery Systeme,... mehr
  • Fabasoft AG

    Fabasoft AG Vereine und Verbände, Öffentliche Verwaltung, Medizin und Gesundheitswesen, Luft- und Raumfahrttechnik, Freie Berufe, Finanzdienstleistungen, Qualitätssicherung,... mehr
  • eyepin GmbH

    eyepin GmbH Application Service Providing, Auftragsentwicklung für Software, Individual-Softwareentwicklung, Programmierung, Übernahme von Softwareprojekten mehr
  • free-com solutions gmbh

    free-com solutions gmbh Werbewirtschaft, Wasser- und Energieversorgung, Vereine und Verbände, Umweltschutz, Touristik, Personenverkehr, Öffentliche Verwaltung,... mehr

Hosted by:    Security Monitoring by: