Business Intelligence: Arbeit mit einer gemeinsamen Wahrheit

Das Thema Business Intelligence steht nicht ohne Grund auf der Agenda der meisten CIOs ganz weit oben. Anders als beim Reporting – das bestenfalls der Kontrolle und dem Erkennen von Symptomen dient – gehen BI-Anwendungen sehr viel weiter: Sie geben nicht nur über die Symptome, sondern auch über deren Ursachen Aufschluss, indem Daten aus unterschiedlichen Systemen in einem Dat-Warehouse konsolidiert und intelligent miteinander in Beziehung gesetzt werden.

BI-Werkzeuge bilden Informationen über Wertschöpfungsketten hinweg ab – auch deshalb stehen sie heute häufig in Verbindung mit Strategien wie CRM oder BPM (Business Process Management) und mit abteilungsübergreifenden Fragestellungen. Hinzu kommen neuerdings immer stärkere Ansprüche an das Data-Warehouse als „Data-Hub“, also Verkehrsknotenpunkt, welcher Daten je nach ihrer Priorität früher oder erst später an andere Anwendungssysteme verteilt. Zum Thema BI gehört damit nicht mehr nur die Frage nach den „interessanten“ Daten, sondern auch nach der Priorisierung von Daten. Anstelle des Blicks auf das häufig diskutierte „real time“-Data-Warehousing erweist sich der Fokus auf den „right time“-Ansatz in der Praxis meist als die pragmatischere Methode. Nicht alle Daten müssen in Echtzeit – aber alle Daten rechtzeitig zur Verfügung stehen.

BI und die Datenqualität
Neben den wachsenden Anforderungen stellen sich bei BI-Projekten erfahrungsgemäß immer wieder ähnliche Herausforderungen, darunter ebenso ungeliebt wie erfolgsentscheidend das leidige Thema Datenqualität. Selbst für gestandene User ist der Moment, wenn ein BI-Werkzeug in einem ersten Probelauf auf produktiven Daten einen Cube auswirft, ein Moment der Wahrheit. Denn hier wird fast immer offenbar, wie gut oder schlecht die Daten aus den operativen Systemen tatsächlich sind. Resultate von BI-Werkzeugen können jedoch nur so hochwertig sein wie der Input, den sie bekommen. Datenqualität ist ein Thema, das dauerhaft beschäftigt. In der Praxis fließen rund 20 bis 30 Prozent der Maintenance-Kosten in die Auseinandersetzung mit unzulänglichen Daten. Bei BI-Vorhaben muss sich die Datenbereinigung rasch und parallel zur Projektlaufzeit ergeben. Meistens muss in einem Kraftakt dabei eine solide Grundlage geschaffen werden. Langfristig geht es allerdings nicht, ohne bei den Anwendern in den Fachabteilungen ein Bewusstsein dafür zu schaffen, wie wichtig ihre Eingaben in den OLTP-(OnLine-Transaction-Processing-)Systemen sind.

Begrifflichkeiten ermitteln
Anders als beim Reporting, das sich auf die immanenten Definitionen eines einzigen Systems bezieht, stellt sich bei der BI mit unterschiedlichen Quellsystemen die Aufgabe, zunächst eigene Begrifflichkeiten in Form von Key-Performance-Indikatoren (KPI) zu ermitteln und deren Berechnung festzulegen. Um an dieses Wissen zu gelangen, hat sich die Etablierung eines fachlichen Pendants zum technischen Team bewährt. Quasi als „Counterpart“ werden Mitarbeiter des Kunden hinzugeholt, die einerseits die technische Seite ausreichend durchschauen, aber andererseits mit ihrem jeweiligen Fach-Know-how die Lücke zwischen Anwendern und Technikern schließen. Dieses Erfolgsrezept ersetzt allerdings nicht die branchenspezifischen Prozesskenntnisse beim Dienstleister.

Da sich im BI-Bereich eine Quantifizierung des Nutzens oft problematisch darstellt, ist es besonders für mittelständische Unternehmen schwierig, sich dem Thema zu nähern. Als Lösung dieses Dilemmas hat sich eine als „ertragsorientierte BI“ bezeichnete Herangehensweise bewährt. Dabei wird der Vertrauensvorschuss, der durch das „Go“ des CIO gegeben wird, rasch durch schrittweise Ergebnispräsentation gedeckt, die dem Management sukzessive die gewonnenen Benefits vermittelt. Dazu gehört das Aufdecken dringlicher Baustellen, die ohne BI nicht sichtbar geworden wären und deren rasche Beseitigung Ausgaben einspart. Auch Erkenntnisse à la „jetzt wissen wir endlich, warum die teure Marketingkampagne nicht funktioniert hat“ vertiefen die Investitionsentscheidung. Last, but not least überzeugt das Erlebnis, sich in Meetings nicht mehr mit unterschiedlichen Zahlen zum Beispiel aus dem Finanzsystem einerseits und einer Excel-Kalkulation andererseits befassen zu müssen. Nachdem in einem gemeinsamen Prozess alle Beteiligten die Ergebnisse aus Data-Warehouse und BI als „Wahrheit“ definiert haben, entfällt das Gerangel um die „richtigen“ Zahlen.

Autor: Clemens Möller

Clemens Möller ist Teamkoordinator und BI-Spezialist beim IT-Dienstleister TUI InfoTec,. Er schreibt über Trends und Erfolgsfaktoren von BI-Projekten.