Datenanalyse

Hand in Hand zum Daten-Management

Mit Qualität und Integration von Daten zum Unternehmenserfolg
Bild: pixelio.de
Das Datenvolumen wächst explosionsartig, und es wird immer schwieriger, aus der schieren Menge die wirklich relevanten Informationen herauszufiltern. Gleichzeitig beschleunigen sich die Geschäftsprozesse. Immer mehr Unternehmensbereiche müssen immer schneller und flexibler auf immer mehr Daten zugreifen können. Ohne eine Optimierung der Daten und des Datenflusses und ohne eine zentrale Kontrolle und Steuerung der Prozesse geht hier nichts mehr – eine Aufgabe für unternehmensweite Daten-Management-Projekte.

Dabei gilt es, Daten aus heterogenen Quellen, internen wie externen, zusammenzuführen. Viele Daten-Management-Lösungen legen den Fokus hier allein auf die Fähigkeit, unterschiedliche Daten von A nach B schieben zu können. Neue Marktstudien zum Thema Datenqualität und Stammdatenmanagement, wie sie etwa die Zeitschrift Computerwoche oder das Beratungsunternehmen Pricewaterhouse Coopers (PwC) unabhängig voneinander durchgeführt haben, zeigen hinsichtlich der Kundenanforderungen allerdings deutlich andere Schwerpunkte. So sind sich nach beiden Studien fast alle befragten Entscheider bewusst, dass schlechtes Datenmanagement fatale Folgen für Unternehmen haben kann und dass die Datenqualität zentral für ein effizientes Datenmanagement ist (Computerwoche: 92 Prozent). Laut PwC-Studie sehen dabei 83 Prozent der Befragten die mangelnde Aktualität der Daten als große Herausforderung an. 78 Prozent bemängeln deren Unvollständigkeit und weitere 58 Prozent sehen Defizite bei Korrektheit und Konsistenz. Datenqualität ist demnach auch bei der Integration oder Migration von Daten von entscheidender Bedeutung. Zumindest dann, wenn Daten den unterschiedlichen IT-Systemen in geeigneter Form zur Verfügung stehen sollen. Unter dem Aspekt langfristig solider Unternehmensentwicklung rückt daher ein Datenmanagement immer mehr in den Fokus, das beide Ansätze – Datenintegration und Datenqualität – miteinander verknüpft und in einer übersichtlichen, flexiblen Lösung bereitstellt.

Anzeige

Kosten und Compliance

Unternehmen entstehen unnötige Kosten durch inadäquate Daten. Datenqualität ist beispielsweise die entscheidende Basis für sinnvolle Ergebnisse bei analytischen Business-Applikationen. Fehlerhafte Daten verfälschen die Ergebnisse und begrenzen so die Effizienz jeder Business Intelligence-Lösung. Durch eine Nachbearbeitung entstehen zusätzliche Kosten. Ein weiterer Kostenfaktor sind fehlerhafte und inkonsistente Daten beim Betrieb eines CRM-Systems. Das Spektrum reicht hier von Mailings, die aufgrund falscher Adressen einfach in den Weiten des Netzes verschwinden, über fehlerhafte Rechnungen oder Rechnungsadressen bis hin zu wichtigen Warensendungen, die den Empfänger nicht rechtzeitig oder gar nicht erreichen. Hinzu kommen Compliance-Anforderungen, deren Nichtbeachtung oder fehlerhafte Umsetzung ein Unternehmen teuer zu stehen kommen. Eine Abmahnung wegen unerlaubter Telefonwerbung – weil Privatkunden versehentlich in eine Marketing-Datenbank aufgenommen werden – kann mehrere Tausend Euro kosten. Bei Verstößen gegen Sanktionslisten geht der Schaden schnell in die Hunderttausende und sogar über die Millionengrenze.

Um solche Risiken im Sinne eines verantwortlichen Compliance-Managements zu minimieren, müssen Lösungen eingesetzt werden, die den Anforderungen und der Komplexität der jeweiligen Geschäftsprozesse Rechnung tragen. Die Bandbreite der Aufgaben reicht hier von der periodischen Integration und Qualitätssicherung bei kleineren externen Datenbeständen bis hin zum kontinuierlichen Monitoring und der Synchronisation heterogener Daten aus unternehmensweiten Systemen. Sinnvoll ist also eine modular aufgebaute, skalierbare Lösung, die eine ganzheitliche Sicht auf den gesamten Datenlebenszyklus ermöglicht, ohne die Bedürfnisse des Unternehmens aus den Augen zu verlieren. Hier setzt professionelles Daten-Management an.

Ein effektives Daten-Management-Konzept implementiert alle dafür notwendigen Datenqualitäts-Funktionen: Analyse, Standardisierung, Cleansing, Matching, Monitoring und Anreicherung. Es bietet umfangreiche ETL-Funktionalitäten (Extraktion, Transformation, Laden) für Quell- und Zielsysteme und ist durch Anbindung an alle gängigen Applikationen und Plattformen universell einsetzbar. Workflows lassen sich in solch einer Lösung umfassend abbilden und reproduzieren. Um die analytischen Geschäftsprozesse effizient zu gestalten, werden gemeinsame Metadaten-Repositories angelegt.

Grundlage: Ein Daten-Management-Konzept

Veränderte Compliance-Regeln und Richtlinien zu implementieren und zu überwachen, muss ad-hoc ebenso möglich sein wie in periodischen Abständen. Gleiches gilt für die Organisation von Datenqualitäts- und Datenintegrations-Aufgaben. Gerade umfangreiche Batchprozesse sollten aus Performancegründen in einem Scheduler angelegt und automatisiert zu bestimmten Zeiten abgearbeitet werden können. Um all diese Anforderungen zu managen, bedarf es zudem einer einheitlichen und bedienerfreundlichen Arbeitsoberfläche. Außerdem sollte die Daten-Management-Lösung modular aufgebaut sein. So trägt sie den unterschiedlichen Anforderungen der Anwender Rechnung.

Prinzipiell lassen sich dabei vier Anwendungs-Szenarien ausmachen: Datenintegration, Datenmigration und -konsolidierung, Datensynchronisation sowie Datenqualitäts-Initiativen.

In gewachsenen, heterogenen IT-Landschaften besteht sowohl für operative wie für analytische Anwendungen häufig der Bedarf, Daten aus unterschiedlichen Systemen in einem Zielsystem zusammenzuführen. Hier sind Daten aus Quellsystemen zu extrahieren und nach einem Transformationsprozess in ein Zielsystem zu laden. Die Integrationsbedürfnisse reichen dabei von der Zusammenführung einzelner, spezifischer Daten bis hin zur parallelen Bearbeitung riesiger Datenbestände, die in Integrations-Workflows abgebildet werden müssen. Dies betrifft Data Warehouse-Systeme als Basis für Business Intelligence oder für Corporate Performance-Management ebenso wie das Zusammenführen operativer Bewegungsdaten aus Kundensystemen. Datenobjekte werden in den unterschiedlichen Systemen aber oft in abweichenden Formaten gespeichert – das kann an unterschiedlichen Normen zur Speicherung von Daten liegen oder an abweichenden Datenstrukturen, zum Beispiel bei Finanz-, Personal- oder Vertriebsdaten. Eine einfache Zusammenführung durch den reinen Vergleich von Zeichen reicht nicht aus. Hier ist vor der Speicherung der Daten im Zielsystem ein entsprechender Transformationsprozess durchzuführen, der die Daten standardisiert.

Eine effiziente Datenintegrations-Lösung muss daher in der Lage sein, aus den bestehenden Daten und Metadaten der Quell- bzw. Zielsysteme Transformationsregeln abzuleiten. Sie muss außerdem über Konnektoren für den direkten Zugriff auf die Quellsysteme (Dateien, Datenbanken und Applikationen wie etwa CRM oder ERP) verfügen. Außerdem sollte sie Metadaten über die Syntax und Semantik von Quell- und Zieldaten ermitteln und zusammen mit den Workflows für die Datenintegration in einem gemeinsamen Repository speichern können, um wiederkehrende Datenintegrations-Prozesse zu beschleunigen.

Datensynchronisation

Datenmigrations- und Datenkonsolidierungs-Projekte unterscheiden sich funktional kaum von den generellen Anforderungen an klassische Datenintegrations-Projekte. Allerdings ist den erweiterten Ansprüchen im Metadaten-Repository bei der Umsetzung und Einhaltung von Business-Regeln und dem damit verbundenen Reporting Rechnung zu tragen. Hinzu kommen bei Datenmigrations-Projekten, beispielsweise im Rahmen von Unternehmensfusionen, Fragen, wie mit den Altbeständen umzugehen ist: Was muss archiviert werden? Welche und vor allem wie viele Daten müssen in die eigenen Systeme übernommen werden?

Sollen effiziente Datenintegrations- und Datenmigrations-Workflows entstehen, dann muss allerdings sichergestellt werden, dass nur saubere Datensätze vorliegen – frei von Fehlern und Dubletten.

Nur dann ist gewährleistet, dass auch die Daten im Zielsystem fehlerfrei und konsistent sind – zumal sich die Probleme im Zielsystem durch die Übernahme von Daten aus mehreren unbereinigten Quellen noch vervielfachen. Datenintegrations-Lösungen müssen daher mit Funktionalitäten zur Herstellung und Sicherung von Datenqualität kombiniert werden. Erst dann bilden sie die Basis für ein sinnvolles Daten-Management.

Bei der Synchronisation sind in der Regel die zeitnahen Herausforderungen des Stammdatenmanagements zu meistern. Daten werden dabei entweder unidirektional oder bidirektional abgeglichen. Letzteres ist notwendig, wenn Datensätze in heterogenen Systemen bearbeitet und aktualisiert werden. Beide Seiten haben dann die gleiche Berechtigung, aber womöglich unterschiedliche Referenznummern – zum Beispiel eine Kontakt-ID im CRM und eine Debitorennummer im ERP. Datensynchronisationsmodule müssen in der Lage sein, diese Konflikte zu managen, ohne die Integrität der Daten zu gefährden. Zudem besteht teilweise die Notwendigkeit, die Daten zeitnah abzugleichen (Real-Time), um die operativen Geschäftsprozesse nicht zu beeinträchtigen. Datensynchronisationen sind außerdem häufig sehr komplex, da viele unterschiedliche Datensätze zur selben Zeit abgeglichen werden müssen – eine echte Herausforderung für einen performanten Workflow.

Datenqualitäts-Initiativen

Data Quality, das letzte Szenario, ist gleichzeitig auch die notwendige Basis für effiziente Datenmanagement-Projekte in den anderen Szenarien. Die Grundlage für optimale Abläufe in einem Unternehmen sind glaubwürdige, das heißt in allen Aspekten belastbare Unternehmensdaten. Ist diese Voraussetzung nicht erfüllt, ist beispielsweise der Nutzen geplanter Business Intelligence- oder M&A-Projekte mehr als fraglich, Projektbudgets beziehungsweise -laufzeiten werden überschritten oder Projekte scheitern sogar gänzlich. Die Datenqualität hier im Fokus zu behalten reduziert hingegen solche Risiken. Eine allgemeingültige Bewertung der Qualität von Daten ist dabei weder sinnvoll noch möglich. Wichtig ist, dass sich die Daten für den gedachten Zweck eignen, also „fit for use“ sind. Doppelte und fehlerhafte Datensätze im Unternehmen hemmen die Business-Prozesse und stellen alle Aussagen und Entscheidungen in Frage, die auf diesen Daten beruhen. Geeignete Daten-Management-Lösungen sorgen hingegen dafür, die notwendige Datenqualität in allen operativen oder analytischen Business-Applikationen sicherzustellen. Wichtig dabei ist, dass eine einmal erreichte Datenqualität auch regelmäßig überwacht und kontinuierlich gesichert wird. Daten-Management-Lösungen müssen also über Monitoring-Funktionalitäten verfügen, die bestehende, interne Datensätze, aber auch externe Daten überprüfen, entweder „on the fly“ oder periodisch, in regelmäßigen Abständen.

Jedes Unternehmen, das ein umfassendes Daten-Management betreibt, das etwas zur Steigerung der Datenqualität und zur Verbesserung der Datenintegration tut, wird kurz-, mittel- und langfristig positive Effekte bei Produktivität, Flexibilität und Effizienz beobachten. Professionelles Daten-Management bildet die Basis für gesteigerte Leistungsfähigkeit und ein gesichertes Wachstum. -sg-

Uniserv GmbH, Pforzheim Tel. 07231/936–0, http://www.uniserv.com

Anzeige

Das könnte Sie auch interessieren

Anzeige

Datenanalyse

Datenqualität ist kein Hexenwerk

Die Single Customer View ist heute das Ziel vieler Unternehmen im Vertrieb. Mit dem Master Data Management (MDM), bei dem über einen als „wahr“ definierten Kundendatensatz Informationen aus unterschiedlichen Quellsystemen zusammengefasst, gesäubert...

mehr...

Datenanalyse

Datenmanagement im Paket

DatenqualitätssicherungEin umfassendes Datenmanagement verspricht das Pforzheimer Unternehmen Uniserv mit seiner neuen Data Integration Suite. Der Dienstleister ist spezialisiert auf Datenqualitätssicherung und Datenintegration.

mehr...

Datenanalyse

Die Datenqualität entscheidet

Eine hohe Datenqualität ist die Basis für erfolgreiche BI-ProjekteDer Einsatz von Business Intelligence (BI) gilt als Wettbewerbsvorteil, der über den langfristigen Erfolg eines Unternehmens entscheidet.

mehr...

Datenanalyse

Datenqualität auf Knopfdruck

die Uniserv GmbH für Datenqualität aus Pforzheim hat Anfang November 2009 ein eigenes SaaS (Software as a Service)-Portal gestartet. Mit der Domain www.data-quality-on-demand.com bietet das Unternehmen unter einem Dach zahlreiche Funktionen für...

mehr...
Anzeige

Deep Learning

MVTec-Seminarreihe für Machine Vision

MVTec Software startet ab Oktober 2018 eine neue Seminarreihe: Beim „MVTec Technology Day – Deep Learning” erhalten die Teilnehmer praxisrelevantes Wissen zur Nutzung von modernen Deep-Learning-Technologien in Machine-Vision-Anwendungen.

mehr...

Market

Mit KI zur Smart Factory

IT Unternehmen Resolto Informatik GmbH wird Teil der Festo Gruppe. Festo geht einen weiteren wichtigen Schritt Richtung Smart Factory.  Damit geht Festo einen weiteren Schritt in Richtung Smart Factory.

mehr...

KI

Mythen über Künstliche Intelligenz

Die einen glauben, Künstliche Intelligenz werde in wenigen Jahren die Welt beherrschen; die anderen zweifeln daran, dass sie überhaupt existiert. IFS erläutert, warum die Wahrheit wie immer in der Mitte liegt.

mehr...

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite