Aktuelle Bücher vorgestellt: “Business Analytics” von Mischa Seiter

Problemlöser: neue Einsichten
Die Verfügbarkeit von Daten hat extrem zugenommen – und damit auch der Druck auf Führungskräfte, diese Daten zu nutzen und daraus neue Erkenntnisse zu gewinnen. Mischa Seiter widmet sich in seinem aktuellen Buch der Frage, wie Daten effizient gewonnen und genutzt werden können, um betriebswirtschaftliche Probleme zu lösen.
Mischa Seiter folgt bei seinem Business-Analytics-Ansatz einer betriebswirtschaftlichen Logik und stellt vier Kernfragen, die in jeweils einem Kapitel behandelt werden:
- Für welches betriebswirtschaftliche Problem sollen die Business-Analytics-Ressourcen eingesetzt werden?
- Welche Ressourcen (Daten, IT und Personal) müssen eingesetzt werden?
- Mit welchen Analytics-Algorithmen werden Evidenzen (aus Daten gewonnene Einsichten) zur Lösung des betriebswirtschaftlichen Problems gewonnen?
- Wie sind Evidenzen aufzubereiten, damit die Führungskraft sie optimal zur Lösung des Problems einsetzen kann?
Framing – das Problem eingrenzen
Der erste Schritt ist, das betriebswirtschaftliche Problem zu definieren und die dazugehörige Analytics-Fragestellung abzuleiten. Ein Beispiel: Ein typisches Problem vieler Unternehmen ist sinkende Kundenzufriedenheit. Das betriebswirtschaftliche Problem ist in diesem Fall die Steigerung der Kundenzufriedenheit auf ein branchenübliches Niveau. Dazu ist es notwendig, die Faktoren zu kennen, welche die Kundenzufriedenheit beeinflussen. Die Analytics-Fragestellung lautet also: Welche Faktoren beeinflussen die Zufriedenheit der Kunden? Um die meist begrenzten Analytics-Ressourcen sinnvoll einzusetzen, ist es notwendig, die Relevanz des betriebswirtschaftlichen Problems zu bewerten. Maßstab dafür ist in der Regel der Effekt, der durch die Lösung des Problems erzielt werden soll. Anschließend wird das Analytics-Problem abgeleitet.
Es gibt drei Analytics-Modi, die verschiedene Felder abdecken:Es gibt drei Analytics-Modi, die verschiedene Felder abdecken:
- Descriptive Analytics identifiziert unbekannte Muster, z. B.: Welche Charakteristika zeichnen unsere A-Kunden aus? Werden bestimmte Produkte oder Dienstleistungen in der Regel gemeinsam verkauft?
- Predictive Analytics konstruiert Prognosemodelle, z. B.: Wann wird eine Maschine ausfallen? Unter welchen Bedingungen wird ein Kunde kündigen?
- Prescriptive Analytics konstruiert Optimierungsmodelle, z. B.: Wie sind Ersatzteile im Lager zu verteilen, um ein bestimmtes Servicelevel zu erreichen? Welcher Produktpreis führt zum höchsten Gewinn bei einer bestimmten Mindestumsatzmenge?
Da die drei Modi aufeinander aufbauen, kann eine Analytics-Fragestellung Elemente der davorliegenden Modi enthalten, also eine Prescriptive-Analytics-Fragestellung auch ein deskriptives Element erfordern. Dann sollten diese als getrennte Probleme betrachtet werden, da sie unterschiedlicher Algorithmen bedürfen.
Der letzte Schritt des Framing ist die Eingrenzung der Datendomänen, die für die Lösung des Problems notwendig sind. Dabei kann es vorkommen, dass die Datendomänen im späteren Verlauf des Business-Analytics-Prozesses eventuell geändert werden müssen. Zum Beispiel, wenn mithilfe der betrachteten Domänen kein hinreichend gutes Ergebnis erzielt werden kann.
Allocation – Ressourcen einsetzen
Anschließend werden die notwendigen Ressourcen bereitgestellt, um das Analytics-Problem lösen zu können. Die für Business Analytics relevanten Ressourcen sind: Daten, IT und Personal.
Daten stellen die Basis für die Analytics-Algorithmen dar. Sie müssen in einer bestimmten Menge und Qualität bereitgestellt werden. Die Anforderungen an Menge und Qualität leiten sich aus den anzuwendenden Algorithmen ab, die aber unter Umständen noch nicht vollständig geklärt sind. Daher sind die Teilprozesse Allocation und Analytics in der Regel iterativ. Die Datenmenge ist relativ einfach zu definieren, die Anforderungen an die Qualität sind vielschichtiger. Qualitätsdimensionen sind beispielsweise Vollständigkeit, Korrektheit und Konsistenz der Daten.
In der Regel sind die Datenmengen so groß und die Analytics-Algorithmen dadurch so rechenintensiv, dass leistungsstarke IT benötigt wird. Sie lässt sich in sechs Komponenten unterteilen: Hardware, Betriebssystem, Anwendungssystem, Datenmanagement- und -speichersystem, Netzwerk- und Telekommunikationssystem sowie Internetplattform. Diese Komponenten können durch die unternehmenseigene IT-Abteilung oder externe Dienstleister zur Verfügung gestellt werden. Ein wesentlicher Trend dabei ist Cloud Computing, entweder als Private Cloud – die Cloudleistung steht nur für einen vorab definierten Nutzerkreis zur Verfügung –, als Public Cloud – die Cloudleistung steht allen zur Verfügung, die dafür bezahlen – oder als Hybrid Cloud: traditionelle IT, Private Cloud und Public Cloud werden miteinander kombiniert. Der Autor erwartet, dass die Hybrid Cloud vor allem zur Bereitstellung der IT für Business Analytics der Regelfall werden wird.
Neben der Technik spielt das Personal als Kompetenzträger eine wichtige Rolle. Und einer der meistbegangenen Fehler im Umgang mit Analytics ist das Unterschätzen dieser Ressource. Um diesen Fehler zu vermeiden, ist ein Überblick über die notwendigen Rollen und Kompetenzprofile nötig. Es lassen sich grob unterscheiden:
- Fach-Experten, die direkt betroffen sind. Beispielsweise ein Produktmanager, der zu einem seiner Produkte Predictive Maintenance einführen soll. Die Aufgabe der Fach-Experten ist es, das Problem im Rahmen des Framing zu definieren.
- Analytics-Experten, die auf den Umgang mit Algorithmen spezialisiert sind, oft auch als Data Scientists bezeichnet. Sie sind mit allen datenbezogenen Aktivitäten betraut, von der Aufbereitung über die Analyse bis zur Visualisierung der Ergebnisse.
- IT-Experten, die für die Bereitstellung und Betreuung der für den Analytics-Prozess notwendigen IT-Ressourcen zuständig sind. Wird diese IT in Teilen oder komplett von Externen betrieben, fällt den internen IT-Mitarbeitern die Koordination dieser Partner zu.
Drei Aufgaben sind hinsichtlich der Ressource Personal vorrangig: erstens die Bestimmung des qualitativen Bedarfs über definierte Rollen. Zweitens die Bestimmung des quantitativen Bedarfs in Abhängigkeit von der erforderlichen Geschwindigkeit des Analytics-Prozesses. Drittens deren organisatorische Verortung, was hauptsächlich eine Frage des Zentralisierungsgrads im Unternehmen ist.
Analytics – Einsichten gewinnen
Der dritte Schritt ist der Analytics-Prozess, um datenbasiert Evidenzen zu gewinnen und ein vorab definiertes Analytics-Problem zu lösen. Dieser Prozess unterteilt sich in Datenaufbereitung, Datenanalyse und Evaluation.
Die Datenaufbereitung ist der meist unterschätzte Teil des Analytics-Prozesses. Typische Herausforderungen sind fehlende Daten, die ergänzt werden müssen, sowie die Aggregation und Harmonisierung verschiedener Datenquellen zu einer Datenbasis.
Die Datenanalyse erfolgt in der Regel automatisiert mittels Algorithmen. Dabei lassen sich verschiedene Arten von Algorithmen unterscheiden. Für Descriptive Analytics können unter anderem Algorithmen des Text Minings oder der Social-Network-Analyse zum Einsatz kommen. Für Predictive Analytics sind es Regressions-, Klassifikations- und Zeitreihenanalysen, für Prescriptive Analytics Optimierungs- und Simulationsalgorithmen. Der abschließende Schritt dieses Teilprozesses ist die Evaluation der Ergebnisse. Hierzu erörtert der Autor verschiedene Möglichkeiten, unter anderem die Prüfung der Prognosequalität eines Entscheidungsbaums mittels ROC-Kurven (ROC: Receiver-Operating-Characteristics; Grenzwertoptimierungskurve).
Preparation – das Problem lösen
Schließlich müssen die aus Daten gewonnenen Einsichten so aufbereitet werden, dass Nutzer sie optimal einsetzen können. Diese Aufbereitung umfasst drei Themenkomplexe: Visualisierung, Mechanismusklärung und Ableitung der Anwendungsgrenzen.
Die Visualisierung von Evidenzen ist eine wichtige Voraussetzung für deren Anwendung. Denn eine falsche Visualisierungsform führt dazu, dass Nutzer die Einsichten falsch wahrnehmen und interpretieren. In der Regel werden bildhafte Darstellungen mit verschiedenen grafischen Elementen verwendet, beispielsweise Wortwolken, Sankey-Diagramme, Wasserfalldiagramme, Sunburst-Diagramme oder Entscheidungsbäume. Sankey-Diagramme eignen sich etwa für die Darstellung von Material- oder Energieflüssen, während sich mit Sunburst-Diagrammen hierarchische Strukturen darstellen lassen.
Die optimale Anwendung gewonnener Evidenzen erfordert es auch, die Mechanismen zu identifizieren, die den Evidenzen zugrunde liegen. Eine Ausreißeranalyse beispielsweise zeigt Dateninstanzen, die sich von anderen Daten in der gleichen Matrix unterscheiden. Aber nur durch die Identifikation des Mechanismus, der ursächlich für die Ausreißer ist, können die Analyseergebnisse ausreichend abgesichert werden.
Und schließlich: Gewonnene Einsichten können nicht generalisiert werden. Die verwendeten Daten und Algorithmen bestimmen ihre Anwendungsgrenzen. Basiert eine Evidenz zum Beispiel auf der Annahme eines bestimmten Kundenverhaltens, so stellt dieses eine Grenze dar – ändert sich das Kundenverhalten, ist die Evidenz nicht mehr gültig.
Theorie und Praxis
Um zu verdeutlichen, wie die einzelnen Maßnahmen des Prozesses angewendet werden, sind drei Fallstudien ergänzt. Eine davon – die der fiktiven Ausrüster GmbH – begleitet das Buch durchgängig, zwei reale, aber anonymisierte bilden das abschließende Kapitel des Buchs: Die erste befasst sich mit der Analyse von Patentdaten, die zweite mit einer Predictive-Maintenance-Lösung.
Das Buch:
“Business Analytics: Effektive Nutzung fortschrittlicher Algorithmen in der Unternehmenssteuerung”, Vahlen, 2017, 49,80 Euro
Der Autor:
Dr. Mischa Seiter ist Professor für Wertschöpfungs- und Netzwerkmanagement am Institut für Technologie- und Prozessmanagement der Universität Ulm, wissenschaftlicher Leiter des International Performance Research Institute zusammen mit Péter Horváth und Ronald Gleich Autor des Standardwerks “Controlling”.
Autor: Redaktion Zukunft. Kunde.
Bild: Kzenon – AdobeStock