Datenanalyse

Business Intelligence statt einsame Entscheidungen

Ulrike von Mickwitz, Leiterin BI-Solutions beim IT-Dienstleister TUI Infotec

Jede Business Intelligence-Lösung lebt auch von der Verständigung aller Beteiligten auf einheitliche Definitionen; es gilt Begrifflichkeiten allgemeingültig zu formulieren. Bild: Kzenon, Fotolia
Business-Intelligence-Werkzeuge allein sind kein Garant für richtige Entscheidungen. Ihr Einsatz muss sorgsam geplant sein und auf verlässlichen Daten beruhen. Und auch das Timing spielt eine Rolle: Nicht alle Daten müssen in Echtzeit – aber alle Daten rechtzeitig zur Verfügung stehen, um den Entscheidungsprozess sinnvoll zu unterstützen.

Managementberater heben neuerdings verstärkt die Bedeutung der Intuition für erfolgreiche Entscheidungen hervor. Und doch: Wenn das Bauchgefühl durch Zahlen untermauert werden kann, lässt es sich ruhiger in die Zukunft schauen. Für Unternehmen wird insbesondere in wirtschaftlich angespannten Zeiten die fundierte Planung zunehmend zum Schlüsselthema. Business-Intelligence-Anwendungen (BI) zieren bereits seit einigen Jahren die ersten Plätze auf den Agenden der CIOs – und werden diesen prominenten Platz voraussichtlich noch einige Zeit behaupten.

Dabei geht es nicht nur darum, endlich ein Höchstmaß an entscheidungsrelevanter Information aus den vorhandenen Daten herauszuholen. Im Vordergrund stehen Ursachenforschung und Prognostik. Anders als beim Reporting, das eher dem kurzfristigen Erkennen von Problemen und der Kontrolle über deren Behebung dient, gehen BI-Anwendungen sehr viel weiter: Sie geben nicht nur über die Probleme, sondern auch über deren Ursachen Aufschluss, indem Daten aus unterschiedlichen Systemen zeitraumbezogen in einem Data Warehouse konsolidiert und intelligent miteinander in Beziehung gesetzt werden. BI-Werkzeuge bilden Informationen über Wertschöpfungs- und Prozessketten hinweg ab – auch deshalb stehen sie heute häufig in Verbindung mit Strategien wie CRM oder BPM (Business Process Management) und mit abteilungsübergreifenden Fragestellungen.

Anzeige

Immer häufiger stellt sich auch die Frage nach dem »was wird«, das sich durch Prognosen und Simulationen besser erahnen lässt. Dabei stellen sich immer weitreichendere Forderungen an das Data Warehouse als Verkehrsknotenpunkt, in dem alle Daten gesammelt, verwaltet und je nach Priorität an andere Anwendungssysteme verteilt werden. Zum Thema BI gehört damit nicht mehr nur die Frage nach den relevanten Daten, sondern auch nach deren Priorisierung. Obgleich in einigen Fällen der Ruf nach einem »Real-Time«-Ansatz Berechtigung hat, hat sich der »right time«-Ansatz in der Praxis als die pragmatischere Methode erwiesen: Nicht alle Daten müssen in Echtzeit – aber alle Daten rechtzeitig zur Verfügung stehen, um den Entscheidungsprozess sinnvoll zu unterstützen.

»Man kann nur managen, was man messen kann« – ein Kernaspekt erfolgreicher Business-Intelligence-Projekte ist die Auseinandersetzung mit den zu verwendenden Messeinheiten. Durch unterschiedliche Quellsysteme stellt sich die Herausforderung, zunächst eigene Begrifflichkeiten in Form von Key-Performance-Indikatoren (KPI) zu ermitteln und deren Berechnung festzulegen. Um an dieses Wissen zu gelangen, hat sich die Etablierung eines fachlichen Pendants zum technischen Team bewährt. Dabei werden Mitarbeiter aus dem Anwenderunternehmen ins Boot geholt, die einerseits die technische Seite ausreichend durchschauen, andererseits mit ihrem jeweiligen Fach-Know-how die Lücke zwischen Anwendern und Technikern schließen. Dieses Erfolgsrezept ersetzt allerdings nicht die branchenspezifische Prozesskompetenz beim Dienstleister. Viele Faktoren sind in ihrer Bewertung sehr komplex, das gilt fast immer für Fragen der Qualität. Soll beispielsweise die Servicegüte anhand von Antwortzeiten der Mitarbeiter gemessen werden, kommen eine Reihe von Aspekten ins Spiel: Wie wird zum Beispiel mit der Situation umgegangen, wenn der Bearbeiter noch auf offene Informationen vom Kunden wartet und deshalb nicht reagieren kann? Oder der Service-Level nur zu bestimmten Service-Zeiten gemessen wird, was zu einer völlig anderen Wahrnehmung der Realität beiträgt. Meist sind einige Iterationsschritte nötig, um alle Aspekte, die zur »Wahrheit« beitragen, durch das BI-Werkzeug abzubilden.

Durchblick im Begriffsdschungel

Jede BI-Lösung lebt zudem von der Verständigung aller Beteiligten auf einheitliche Definitionen. Für den einen bedeutet der Begriff »Umsatz« den Nettoumsatz, für den nächsten heißt es Bruttoumsatz. Und was bedeutet »Erfolg«? Haben alle die gleiche Vorstellung davon, wann zum Beispiel eine Aktion oder eine Zahl als erfolgreich gilt? Wenn Begrifflichkeiten nicht festgezurrt werden, ist Datensalat die übliche Folge. In aller Regel ist auch der Streit um unterschiedliche Zahlen immer ein Streit um unterschiedliche Begriffe. Als Lösung bleibt meist nur, auf Algorithmus-Ebene herunterzugehen und exakt nachzuprüfen, wie eine Kennzahl berechnet wird.

Bei Bottom-up-Projektmetho- den sollte das Thema mit fortschreitender Einbeziehung weiterer Anwender, Fachabteilungen und Quellsysteme stets im Auge behalten werden. Ein verwandtes Thema ist die Bewertung der Relevanz von Zahlen, zum Beispiel bei den Dashboards und Cockpits, die Kennzahlen sehr konzentriert zusammenfassen. Wann soll das Dashboard bei Visualisierungen mit Ampelfarben auf rot gehen? Ist es beispielsweise bei einem Rückgang der Servicequalität um 0,5 Prozent schon relevant, sich mit dem Thema auseinanderzusetzen oder gilt dies als natürliche Schwankung?

BI-Werkzeuge sind meist sehr komplex, insbesondere wenn viele unterschiedliche Kennzahlen und Aggregationsmöglichkeiten im Spiel sind. Hier gilt die alte Regel, dass manchmal weniger mehr ist, auch wenn fast alles möglich ist.

Wenn die Ergebnisse zu komplex sind, um vom Anwender ohne großen Zeitaufwand und langwieriges Nachdenken verstanden zu werden, läuft BI am Thema Transparenz vorbei. Mehrere kleine Charts sind oft hilfreicher als ein sehr komplexes, das alle Informationen enthält – schon damit die Anwender nicht die Lust verlieren. Hier spielt MS Excel jenseits von BI gerade im Controlling-Bereich jedoch immer noch eine prominente Rolle, auch um einfach Veränderungen bestimmter Kenngrößen zu simulieren und die Auswirkungen grafisch nachvollziehbar zu visualisieren. Nachteil: Nicht selten führen die Excel-Ausflüge wiederum zu einer inkonsistenten Datenhaltung. Neben den wachsenden Anforderungen an Datenvolumina und Verarbeitungszeit ergeben sich bei BI-Projekten erfahrungsgemäß immer wieder Herausforderungen im Bereich Datenqualität. Ein Thema, das ebenso banal wie erfolgskritisch ist, denn durch mangelhafte Daten ist eine BI-Lösung zum Scheitern verurteilt. Selbst gestandene User sind gespannt, wenn das Werkzeug in einem ersten Probelauf mit produktiven Daten einen Cube auswirft. Denn erst hier wird deutlich, wie gut oder schlecht die Daten aus den operativen Systemen tatsächlich sind und inwieweit sie zur Entscheidungsfindung herangezogen werden können. Resultate von BI-Werkzeugen sind nur so verlässlich und richtig, wie der Input, den sie bekommen.

Datenqualität ist daher ein Thema, das dauerhaft kontrolliert und kontinuierlich verbessert werden muss. In der Praxis fließen rund 20 bis 30 Prozent der Maintenance-Kosten in die Erkennung und Verbesserung von unzulänglichen Daten. Bei BI-Vorhaben sollte das Thema die Datenqualität immer parallel zum IT-Projekt in den jeweiligen Fachstellen angegangen werden. So führen beispielsweise fehlende oder falsche Europäische-Artikel-Nummer-Codes (EAN) im Handel immer wieder zu Mapping-Problemen, mangelhaft gepflegte Preis-Mengenkennzeichen ziehen wundersame Bestandvermehrungen oder -verminderungen nach sich und im lokalen System neu erfundene Transaktionscodes landen regelmäßig in der Fehlerdatei und erfordern eine mühsame manuelle Nachverarbeitung.

Fachabteilungen müssen deshalb für die einzelnen Datenstrukturen und ihre Qualität verantwortlich gemacht werden und die einzelnen Anwender in den Fachabteilungen ein Bewusstsein dafür entwickeln, wie wichtig ihre Eingaben in den OLTP-Systemen (OnLine Transaction Processing) sind – und inwieweit fehlende oder falsche Eingaben Kosten oder Ungenauigkeiten verursachen.

Die Frage nach der Messbarkeit stellt sich nicht zuletzt für das BI-Projekt selbst. Da hier eine Quantifizierung des Nutzens in Form eines »Return on Investment« (ROI) oft schwerfällt, haben es besonders mittelständische Unternehmen nicht ganz leicht bei einer Annäherung an das Thema. Als Lösung dieses Dilemmas hat sich eine als »ertragsorientierte BI« bezeichnete Herangehensweise bewährt.

Politik der kleinen Schritte

Dabei wird der Vertrauensvorschuss, der durch die Entscheidung für eine BI-Initiative gegeben wird, rasch durch schrittweise Ergebnispräsentationen gedeckt, die dem Management – aber auch den Usern – sukzessive die gewonnenen Erkenntnisse vermittelt und daraus Entscheidungshilfen ableitet. Dazu gehört das Aufdecken von Schwachstellen, die ohne BI nicht sichtbar geworden wären und deren Beseitigung Ausgaben einspart oder eine Effizienzsteigerung ermöglicht. Häufig werden auch erste Schritte in Richtung BI als flankierende Maßnahmen zur Unterstützung neuer Kampagnen gemacht, denn hier werden im Rahmen der Neueinführung bereits KPIs definiert, die dann mit entsprechender BI-Unterstützung kontrolliert und berichtet werden können.

Das traditionelle Problem abweichender Zahlen beispielsweise aus dem Finanzsystem einerseits und einer Excel-Kalkulation andererseits gehört durch BI der Vergangenheit an. In einem gemeinsamen Prozess definieren alle Beteiligten die Ergebnisse aus Data Warehouse und BI als einzige gemeinsame »Wahrheit«. In heterogenen IT-Umgebungen und immer komplexeren Prozessen sind BI-Werkzeuge das Mittel der Wahl, wenn weitreichende Entscheidungen auf einem verbindlichen Informationsfundament getroffen werden sollen. Spätestens beim Arbeiten mit prädiktiven (vorausschauenden) Methoden beispielsweise im Data Mining wird klar, dass beim automatisierten Durchforsten großer Datenvolumen einige Überraschungen ans Licht kommen, die für das menschliche Auge und die Intuition unsichtbar waren. Dennoch: Einer der spannendsten Aspekte des BI-Einsatzes liegt im Erkenntnisprozess des Anwenders. Wer eine Zeitlang sein Bauchgefühl an den Zahlen misst, wird immer besser Muster und Trends einschätzen und wie bei der »gefühlten Temperatur« lernen, Rahmenbedingungen und Erfahrungen in seine Schlussfolgerungen einzubeziehen. -sg-

TUI Infotec, Hannover Tel. 0511/567-9000, http://www.tui-infotec.com

Anzeige

Das könnte Sie auch interessieren

Anzeige

CeBIT 2017

Servicemanagement in Echtzeit

Die ams.group stellt die Weiterentwicklung ihres Industrie 4.0-Portfolios ins Zentrum ihres diesjährigen CeBIT-Auftritts. Dass Einzel-, Auftrags- und Variantenfertiger den Nutzen der vierten industriellen Revolution bereits jetzt erschließen können,...

mehr...

Cloud/ERP

Cosmo in der Cloud

Die Cosmo Consult-Gruppe, Europas größter Microsoft ERP-Partner, hat seit dem 30. Juni 2016 den Status eines Microsoft Cloud Solution Providers (CSP). Erste Aufträge konnte Cosmo Consult nun bereits vermelden.

mehr...
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite