In-Memory-Technologie: Ein lohnendes Investment

Nicht ohne Grund haben Business-Intelligence- und Data-Warehouse-Lösungen in vielen Unternehmen den Ruf, schwerfällig, teuer, unflexibel, nicht anwenderfreundlich und langsam zu sein. Die richtige In-Memory-Lösung schafft Abhilfe.

Viele Mittelständler betreiben ein Data Warehouse (DWH) und ein oder mehrere Lösungen für Reporting und Analyse (Business Intelligence, BI). Sie haben die Möglichkeiten schätzen gelernt, die sich ihrem Unternehmen damit bieten. Egal ob in Controlling, Vertrieb oder anderen Unternehmensbereichen: BI verschafft allen Mitarbeitern vom Vorstand bis zum Sachbearbeiter relevante Informationen über Prozesseffizienz und Prozessergebnisse und liefert wichtige Kennzahlen zu Kunden und Lieferanten.

Im täglichen Arbeiten bereiten viele dieser dispositiven Systeme aber Probleme: Aus Sicht von Controlling und Unternehmensleitung sind sie schlicht teuer in der Anschaffung und oft mehr noch im Betrieb. Aus Sicht der Anwender sind sie kompliziert, zwingen zum Arbeiten mit unverständlichen Tools, beruhen auf teilweise falschen Daten, es dauert bei Abfragen ewig, bis vom System eine Antwort kommt, oder sie liefern Berichte am Bedarf vorbei. Für die IT entwickelt sich BI nicht selten zu einer komplexen Anwendungslandschaft, die in extremen Fällen die Grenze der Wartbarkeit überschreiten. Neue Anforderungen werden nicht mehr angegangen, zumal deren Umsetzung nur unter erheblichen Aufwänden und Risiken möglich wäre.

Probleme sind oft „hausgemacht
Oft stehen hausgemachte Probleme der ungeeigneten Organisation und fehlenden Standardisierung rund um BI und DWH ganz oben auf der Liste der Problemquellen. Entwicklerrichtlinien, Dokumentationsstandards, aber auch Vorgaben für Prozesse wie Anforderungsmanagement, Testen oder Freigaben für den Produktivbetrieb fehlen ganz oder teilweise. Um sie kommt man jedoch nicht umhin, will man nicht, dass die eigene BI-Lösung mit der Zeit zerfasert und immer weniger benutzbar wird. Typischerweise erfordern solche Themen jedoch Umdenkprozesse in Unternehmen. Sie benötigen Zeit in der Vorbereitung, Ausdauer und die Unterstützung durch das höhere Management bei der Durchsetzung.

Auch die Architektur herkömmlicher Ansätze für BI und DWH macht den Unternehmen das Leben schwer. Hier liegt des Pudels Kern in inhärenten Performancebeschränkungen herkömmlicher Datenbanken und Analysewerkzeuge. Ab gewissen Datenmengen sind komplexere Ad-hoc-Abfragen nur möglich, wenn man hierfür zusätzliche optimierte Datenmodelle, spezielle Indizes und Aggregate schafft, für deren Bewirtschaftung natürlich auch die entsprechenden Prozesse entwickelt und betrieben werden müssen. Große Teile der Komplexität und des Datenvolumens von klassischen BI-Lösungen sind ursächlich der schlechten Performance geschuldet.

Technologie hat sich stark verbessert
Moderne Architekturen für BI setzen genau hier an, indem sie In-Memory-Technologie integrieren. Die Einführung dieser eigentlich nicht wirklich neuen, aber in jüngeren Jahren gewissermaßen wiederentdeckten und weiterentwickelten Technologieklasse bringt nachweisbar massive Performanceverbesserungen. Die Hersteller übertreffen sich mit Vergleichstests, in denen von Laufzeitreduktionen um den Faktor 1000 oder mehr die Rede ist. Die meisten Anwender von In-Memory-Technologie bestätigen solche Zahlen und berichten von spürbaren Verbesserungen.

Erreicht wird diese Performance zum einen dadurch, dass große Teile der benötigten Daten im Arbeitsspeicher gehalten werden, der dafür natürlich auch entsprechend ausgelegt sein muss. Die meisten In-Memory-Werkzeuge beinhalten zusätzlich eine Reihe von Kniffen, mit deren Hilfe der Arbeitsspeicher möglichst effizient genutzt werden kann, der Prozessoreinsatz effizienter gemacht oder das System auf andere Weise optimiert wird. Tatsächlich sind die angebotenen Werkzeuge in dieser Hinsicht sehr unterschiedlich reif. Sie sind aber auch für verschiedene Anwendungszwecke ausgelegt und unterscheiden sich unter anderem hinsichtlich Kapazität, Schnittstellen, Skalierbarkeit und Betriebsfreundlichkeit. Und sie haben ihren Preis: Für gute In-Memory-Lösungen im Unternehmenseinsatz müssen fünf-, bei großen BI-Landschaften auch sechsstellige Eurobeträge angesetzt werden. Entsprechend sind ein gründlicher Auswahlprozess und vor allem ein Nachdenken über die mit dem Einsatz von In-Memory-Technologie verbundenen Ziele und die langfristige Zielarchitektur zu empfehlen.

Mit fast jedem der angebotenen Tools lassen sich akute Performanceprobleme am Frontend lindern. Insofern ist ein gewisser Quick Win fast garantiert. Die Nachhaltigkeit dieses Effekts sicherzustellen und die weiteren Nutzenpotenziale (Vermeidung von Redundanzen, Reduktion der Komplexität, Erhöhung der Flexibilität für Erweiterungen, Senkung der Betriebskosten) zu heben, erfordert jedoch grundlegendere Umstellungen, die aber nicht von jedem Werkzeug in gleicher Weise unterstützt werden. Langfristig werden diejenigen Firmen die meiste Freude an ihrer BI-Lösung haben, die ihre Datenbasis vollständig auf eine In-Memory-Architektur umstellen und nicht nur einfach auf die bestehende Landschaft am Frontend eine Technologiekomponente zur Beschleunigung einbauen.

 

Autor: Dr. Marcus Dill

Dr. Marcus Dill berät internationale Konzerne und mittelständische Unternehmen verschiedener Branchen bei Entwurf und Umsetzung ihrer Strategien für Data Warehousing, Business Intelligence und Customer Relationship Management. In diesem Umfeld blickt er auf zwanzig Jahre Erfahrung als Softwareentwickler, Berater, Architekt und Projektleiter zurück. Als Autor publiziert Dill regelmäßig in angesehenen Journalen zu Themen aus seiner beruflichen Praxis sowie zu aktuellen Technologien und Trends in BI und CRM. Seit 2007 ist Dr. Dill Geschäftsführer beim Berater- und Analystenhaus mayato.

Internet: http://www.mayato.com