Big-Data-Trends 2014: Ressourcen und Aktivitäten richtig bewerten

Das Jahr 2013 hat für das Thema Big Data den Durchbruch gebracht: Kaum ein Fachjournal, das nicht über Potenziale, Anwendungsgebiete und Technologien in diesem Umfeld berichtet hätte. Kaum ein größeres Unternehmen, das sich nicht bereits strategisch damit beschäftigt und Pilotprojekte auf den Weg gebracht hätte. Aber auch kaum ein Thema aus Wirtschaft und IT, das derartige Aufmerksamkeit in Politik und Gesellschaft erfahren hätte. Wie geht es weiter? Welche Entwicklungen sind im Bereich Big Data 2014 zu erwarten?

Big-Data-Szenarien erweitern in vielen Fällen letztlich nur bestehende Business Cases. Schon seit Jahrzehnten wird beispielsweise versucht, aus Daten über Hintergrund und Aktivitäten von Kunden deren zukünftiges Kauf- oder auch Zahlungsverhalten zu prognostizieren. Die klassischen Fragestellungen in Marketing und Risikomanagement werden sicher auch 2014 die Mehrzahl an Aufgaben für Big-Data-Projekte bieten.

Daneben erobert Analytics jedoch zunehmend auch neue Anwendungsgebiete, beispielsweise in Service, Produktion, IT-Sicherheit und Qualitätsmanagement. Interesse an intelligenten Auswertungen haben mittlerweile auch Personalabteilungen großer Konzerne.

  • Wie effizient sind einzelne Weiterbildungs- und Personalentwicklungsmaßnahmen?
  • Wo bestehen strategische Risiken im Personalbestand des Unternehmens?
  • Wie kann man den zu erwartenden Leistungsbeitrag von Bewerbern zuverlässig prognostizieren?
  • Wie lässt sich der Personaleinsatz optimieren und wie lassen sich Überstunden und Sonderschichten vermeiden?
  • Worin liegen die Ursachen für hohe Krankenstände?
  • Wo besteht Bedarf für die gezielte Qualifizierung von Führungskräften?

All dies sind Fragen, die sich schon bei einigen Tausend Mitarbeitern mit Bauchgefühlen und langjähriger Erfahrung nur unzureichend beantworten lassen.

Mit gezieltem Personalmanagement punkten

Der Druck hin zu einem gezielteren Personalmanagement steigt insbesondere in den entwickelten Ländern mit demografischen Risiken. Mit den mittlerweile verfügbaren Tools und der erweiterten Informationsbasis lassen sich Ressourcen und Aktivitäten im HR deutlich besser analysieren und steuern. Natürlich erfordert der Umgang mit personenbezogenen Daten besondere Sorgfalt. Für strukturierte Daten existieren mittlerweile grundsätzlich klare Spielregeln und gute technische Möglichkeiten, auch sensible Fragestellungen im Einklang mit den Vorgaben von Datenschutz und Betriebsräten anzugehen. Im Bereich unstrukturierter Daten sind Lösungskonzepte in dieser Hinsicht hingegen noch im Entstehen. Auch manche rechtliche Fragestellung harrt noch ihrer Beantwortung.

Alle Experten – und alle Softwarehersteller – erwarten jedoch vor allem im Bereich von Produktions- und Sensordaten einen gewaltigen Boom. Maschinen, Fahrzeuge und Herstellungsprozesse werden systematisch um Messfühler angereichert, die eine Fülle an Daten erzeugen und weitergeben. Diese Daten werden vermutlich schon in kurzer Zeit das Volumen der von Menschen in Internet und Unternehmensanwendungen generierten Daten bei Weitem übersteigen. Sie können helfen, Schwachstellen in der Produktion, den Ausfall von Komponenten oder die Qualität von Bauteilen und Verarbeitungsprozessen sehr detailliert und vor allem zeitnah zu erkennen und zu verstehen. Gerade in Echtzeitanalysen liegt ein erheblicher Nutzen: Maschinen können schneller wieder in Betrieb genommen und Ausschussquoten reduziert werden.

Mit Sensoren Profile erstellen
Sensoren werden jedoch auch zunehmend unseren Alltag überwachen und optimieren. Aus den vielfältigen Daten, die beispielsweise diverse Haushaltsgegenstände, Automobile oder moderne Stromzähler erfassen, lassen sich sehr aussagekräftige Profile erstellen, für die sich wiederum das Marketing vieler Unternehmen interessiert. Sensordaten werden die nächste, gigantische Welle an Datenbeständen sein, die die IT-Abteilungen managen und Analysten auswerten werden. Diese Daten werden aufgrund ihrer Menge, ihrer oft weniger wohldefinierten Struktur, ungeklärter Datenschutzfragen und vieler Datenqualitätsprobleme für spannende Herausforderungen sorgen. In großen Konzernen und bei manchem Mittelständler arbeiten hieran bereits viele Abteilungen und Projekte.

Technisch wird Big Data den Trend hin zur Ablage von Daten in der Cloud befeuern. NSA-Skandal und andere Sicherheitspannen der Vergangenheit werden diese Entwicklung nicht wirklich aufhalten, sondern lediglich unsichere, unreife Ansätze eliminieren. Viele der Datenquellen, die für Analysen benötigt werden, liegen sowieso primär außerhalb von Unternehmen. Beispielsweise wird zunehmend von Unternehmen – beispielsweise im Handel – auf Wetterdaten zugegriffen, da das Wetter Kundenverhalten und Verbräuche ganz wesentlich beeinflusst. Die zunehmende Bedeutung von externen Datenquellen wird auch Möglichkeiten für neue externe Dienstleistungen eröffnen.

Daten richtig vernetzen
Unternehmensintern werden die Architekturen für Big Data im Umfeld bestehender Data-Warehouse(DWH)- und Analyselösungen angesiedelt bleiben. Tatsächlich ist auch zu erwarten, dass klassische BI-Hersteller ihr Produktportfolio gezielt durch Zukäufe und Eigenentwicklungen erweitern. Im Bereich des Datenmanagements wird es darum gehen, die herkömmlichen DWH-Ansätze so zu erweitern, dass Daten zur Laufzeit der Datenanalyse gezogen und insbesondere unstrukturierte und Echtzeitdaten problemlos einbezogen werden können.

Auch der Datenaustausch zwischen den verschiedenen Beteiligten von Liefer- und Produktionsketten wird die IT-Infrastrukturen verändern. Das DWH wird vom heutigen Datengrab zur Spinne im Netz verteilter Daten mutieren (und dabei vermutlich über kurz oder lang seine Bezeichnung wechseln). Für zentral verfügbare wie remote bereitgestellte Daten wird die Nutzung von In-Memory-Technologie aus Performancegründen zum State of the Art. Sie muss heute schon als unverzichtbar gelten, wenn es um flexible Analysen durch den Fachbereich geht (Selfservice-BI).

 

Autor: Dr. Marcus Dill

Dr. Marcus Dill berät internationale Konzerne und mittelständische Unternehmen verschiedener Branchen bei Entwurf und Umsetzung ihrer Strategien für Data Warehousing, Business Intelligence und Customer Relationship Management. In diesem Umfeld blickt er auf zwanzig Jahre Erfahrung als Softwareentwickler, Berater, Architekt und Projektleiter zurück. Als Autor publiziert Dill regelmäßig in angesehenen Journalen zu Themen aus seiner beruflichen Praxis sowie zu aktuellen Technologien und Trends in BI und CRM. Seit 2007 ist Dr. Dill Geschäftsführer beim Berater- und Analystenhaus mayato.

Internet: http://www.mayato.com