Mittwoch, 13. April 2016

Warum Big Data Projekte scheitern

Zentrale Merkmale von Big Data und Analytics Projekten sind anspruchsvolle Hard- und Software und über die Grenzen des eigenen Bereiches hinausgehende Anforderungen an die Zulieferung von Daten. Daraus resultiert eine technische und politische Grundkomplexität innerhalb des Projektes, die mit dem herkömmlichen Projektmanagementportfolio nur eingeschränkt beherrschbar ist. Während auf der operativen Umsetzungsebene mit agilen Methoden eine zielführende Projektumsetzung sichergestellt werden kann, fehlt häufig genug eine klare Definition der Schnittstellen zwischen dem (agilen) Projekt und der, insbesondere in großen Organisationen, meist nicht agilen Linienorganisiation. In der Folge verfehlen Projekte regelmäßig Deadlines, Use Cases können aufgrund fehlender, unvollständiger oder qualitativ nicht ausreichender Datenzulieferungen nicht umgesetzt werden und der Business Case wird durch zeitliche und finanzielle Zusatzaufwände nicht erreicht.

Abbildung 1: Warum Big Data Projekte scheitern (Quelle: PPI AG)
 
Die PPI AG hat nun untersucht, inwiefern sich die Erfahrungen aus zahlreichen Projekten im Big Data und Analytics-Umfeld generalisieren lassen. Die Ergebnisse (Abbildung 1) sind für den Praktiker kaum überraschend, decken sie sich doch mit der erlebten Projektrealität in vielen großen und kleinen Projekten. Sie werfen jedoch eine Vielzahl grundsätzlicher Fragen auf, deren dedizierte Beantwortung vor dem Projektstart die Erfolgswahrscheinlichkeit für das Projekt nachhaltig erhöhen kann. Klassisches Projektreporting zielt beispielsweise stets darauf ab, die Parameter Zeit und Budget für das Management transparent zu halten und als Erfolgskriterium für das Projekt zu verwenden. Nun ist gemäß gezeigter Umfrage das Budget aber der am wenigsten erfolgskritische Wert und tatsächlich ist es gelebte Praxis, ein Projekt weder aufgrund eines Überschreitens des Budgets noch der Deadline scheitern zu lassen. Im Zweifel wird die Deadline verschoben und das Budget erhöht – verständlich und erklärbar mit Blick auf die hohen Anfangsinvestitionen und den hohen Aufmerksamkeitslevel dieser Projekte in der Organisation.
Erfolgskritisch für das Projekt sind vielmehr die Prozesse innerhalb der Organisation und das KnowHow der Mitarbeiter – zwei Parameter, welche bei Aufsatz des Projektes unserer Erfahrung nach häufig nebenher betrachtet werden. Gern wird hier Pragmatismus eingefordert, der Klassiker sind kurze Gespräche in der Mittagspause oder beim Kaffee, wo zentrale Projektpositionen und Schnittstellen festgeschrieben werden. Gemäß unserer Erfahrung und unserer Untersuchung besteht die Aufgabe beim Aufsatz von Big Data und Analytics Projekten nun darin, neben dem unbestritten notwendigen Projektcontrolling auf Basis von Zeit und Geld die offensichtlich erfolgskritischen Faktoren KnowHow und Prozesse aktiv im Sinne der Organisation und des Projektes zu managen. An dieser Stelle möchten wir den Begriff des Data Storytelling einführen. Unserer Erfahrung nach beruhen Widerstände, Verzögerungen und der Einsatz von Mitarbeitern mit nicht passgenau auf das Projekt ausgerichtetetem Skillset häufig darauf, dass das Ziel und die Anforderungen des Projektes außerhalb des direkt involvierten Kreises innerhalb der Organisation nicht oder nur unzulänglich verstanden werden. Speziell in großen Linienorganisationen ist es erfolgskritisch, an Schnittstellen zwischen Projekt und Organisation im speziellen und quer durch Organisation und Management im Allgemeinen abseits von Use case und Business case eine prägnante Geschichte zum Projekt erzählen zu können, welche die Vorteile, Bedarfe und übergeordneten Ziele des Projektes in einer Form transportiert, die andere Bereiche nachhaltig zur Mitarbeit und zur Unterstützung motiviert. Wir halten das Thema Prozesse für Big Data und Analytics Projekte in einem Maß für erfolgskritisch, dass wir empfehlen dem Project Manager einen Process Manager an die Seite zu stellen, der als Botschafter des Projektes innerhalb der Organisation wirkt und durch Engagement und Storytelling für die hinreichende und notwendige Unterstützung des Projektes durch die Linienorganisation sorgt.


Dienstag, 12. April 2016

Data Storytelling (Teil 4/4)

Doch was ist, wenn die Story, die man auf den letzten Metern des Endspurts erzählt, nicht nur verständlich und präzise sein muss, sondern auch überzeugend und mitreißend?
Das bereits angeführte Beispiel geht von einer simplen Betriebshierarchie, aus der Management-Perspektive, aus. Die fertigen, einfachen Stories sind verständlich und zielfokussiert, aber unkreativ wenig mehr als unattraktive Betriebsvorgaben. Man stelle sich nunmehr vor, dass ein zu präsentierendes Big Data Projekt vor dem Management erst noch „vermarktet“ werden muss, bevor es überhaupt seine wertoptimierenden Potentiale entfalten kann.
An diesem Punkt geht es, wie jeder der schon einmal einen Rhetorikkurs besucht hat sicherlich schon gehört hat, nicht nur um Fakten und Datenanalysen. Zusätzlich sind auch Feinheiten und strategische Überlegungen hinter einer ansprechenden Story gefragt, die noch keine NLG-Technologie oder Software zu erstellen vermag.
Es wird nötig eine packende Story zu erzählen, die überzeugt und bleibende Eindrücke hinterlässt, um die dauerhafte Unterstützung des Managements für das Projekt zu gewährleisten.

Mit Data Storytelling wird genau das möglich!

Es gibt ausreichend kreative Köpfe auf der Welt, die aus Buchstaben Worte, aus Worten Sätze und aus Sätzen Geschichten entstehen lassen. Geschichten, die uns bewegen, uns belehren und bei Zeiten auch mitreißen können. Genauso mangelt es auch nicht an Fachkundigen, die auch den aller kompliziertesten Formeln und Zahlenfolgen einen Sinn abringen können. Doch eine Verbindung beider Kompetenzbereiche entsteht nur selten, obwohl sie auf den dargestellten letzten Metern eines Big Data Projektes so dringend gebraucht wird.

Durch Data Storytelling kann diese Verbindung geschaffen und die letzte Hürde, die der entscheidenden Präsentation, genommen werden.

Man stelle sich folgendes Beispiel vor:
Ein großes Big Data Projekt neigt sich dem Ende zu. Nach zwölf Monaten hat das Team seinen entscheidenden Auftritt vor dem Management. Es geht um die Zukunft des gesamten Unterfangens. Lange und ausgiebig wurde evaluiert, Berater engagiert, ein POC/POV gefahren sowie ein geeignetes Tool, Unmengen Hardware und ein Systemintegrator eingekauft. Trotzdem, oder gerade auch deswegen, steht jetzt eine hohe sechsstellige Investition auf dem Prüfstand und sogar der Fortbestand eines ganzen Projektteams könnte in Frage gestellt werden. Dann geht es ums Ganze. Die Powerpoint-Slides sind auf Hochglanz poliert und strotzen vor datenbasiertem Detailwissen und Fachanalysen, die doch eigentlich jeder auf Anhieb verstehen sollte…
Doch meist fällt das Feedback, der alles andere als detailfokussierten Managementriege unerwartet erschütternd aus: „Wir können Ihnen da nicht so ganz folgen, was genau haben sie da eigentlich gemacht? Wofür in aller Welt haben wir jetzt hunderttausende Euro ausgegeben und warum eigentlich?“ Im besten Fall, gibt es nach solch einer missglückten Projektvorstellung, die eher die Regel als eine Ausnahme ist, noch eine zweite Chance für das Team. Doch oftmals scheitern Big Data Projekte genau an dieser Stelle!

Was ist schief gelaufen?
Der Ansatz einer mangelhaften oder gänzlich fehlenden Story zu den Rohdaten und der Usable-Data greift schon lange vor der eigentlichen Präsentation.
Zum einen liegt das Problem bei den handelnden Personen, die häufig über ein enormes Fach- und Detailwissen verfügen, aber zu selten in der Lage sind, dieses Wissen in größere Zusammenhänge zu setzen und in einen durchführbaren Wertansatz zu transformieren. Zum anderen werden oft auch „handwerkliche“ Fehler gemacht. Hier ein Überblick:
  • Es gibt zu wenig Verständnis über den Gesamtkontext der Daten, beziehungsweise über das Projektziel.
  • Detailverliebtheit der Fachleute führt zu „Informationsmüll“.
  • Die Zielgruppendefinition ist unscharf oder falsch.
  • Die Story, die Dramaturgie und der Plot sind nicht oder nur mangelhaft aufgebaut.
  • Das eigentliche Präsentationsdesign (PPT, Excel, Prezi, etc.) ist nicht vollständig durchdacht.
  • Es gibt keinen klaren call-to-action am Ende.

Heutzutage kann jeder aus einer Excel-Tabelle oder aus einer Datenbank per Knopfdruck eine beeindruckende Grafik erstellen. Das verleitet viele Menschen dazu, sich zu sehr auf die Aussagekraft dieser Grafik zu verlassen. Wird eine solche Grafik dann noch in PPT exportiert und animiert, entsteht schnell der Eindruck, alles richtig gemacht zu haben. Die Präsentation wird sich sicherlich von selbst erklären, so glaubt man zumindest. Neue Tools zur Daten-Visualisierung unterstützen diesen Trend noch. Dabei wird oft vergessen, dass eine Powerpoint-Folie eigentlich nur ein Medium sein sollte, um den eigentlichen Vortrag zu unterstützen und den Inhalt zu amplifizieren.

Tools erzählen keine Story!

Und ohne eine gut entwickelte und ansprechend ausgearbeitete Story fehlt dem Vortrag nicht nur die mitreißende und überzeugenden Komponente, es gibt auch kaum Möglichkeiten bei der Zielgruppe dauerhafte „Anker“ zu setzen. Auch die schönste, in 3D animierte Grafik ist wesentlich schneller wieder vergessen, als die strategische Klimax des Spannungsbogens einer Data Story, die in der finalen Projektpräsentation erfolgreich entfaltet wird!
Völlig unnötig wird ein gesamtes Projekt dem Risiko des Scheiterns auf den letzten Metern ausgesetzt. Mit relativ geringem Aufwand und Data Storytelling kann dieses Risiko vermindert oder ausgeschlossen werden. Dabei geht es ausdrücklich nicht um Feinadjustierung einer PPT- oder Excel-Präsentation, sondern um das frühzeitige Einbinden einer Story in das Projekt und um ein gemeinschaftliches Verständnis darüber, wie und mit welchem Ziel diese Story am Ende präsentiert werden soll. Wenn es der Präsentierende dann noch schafft, diese Story mit Authentizität, Charisma und Empathie zu kommunizieren, erhöht sich die Chance auf einen erfolgreichen Projektabschluss drastisch.

Verschenken sie die große Chance auf Erfolg nicht leichtfertig auf den letzten Metern!

Freitag, 19. Februar 2016

Data Storytelling (Teil 3/4)

Die zentralen Punkte, die bis hierhin verdeutlicht werden sollten, sind leicht zu umreißen:
  1. Daten sind nicht das angestrebte Ziel.
  2. Daten sind nicht die Lösung für ein Problem.
  3. Daten allein Ergeben weder einen Mehrwert noch eine Tiefeneinsicht.
Daten sind vielmehr das Werkzeug, welches das eigentliche Ziel erst in greifbare Nähe rückt und dessen Erreichung möglich macht, nämlich:

Nutzenbringende Einsicht zur richtigen Zeit, auf dem richtigen Weg, an die richtige Person zu vermitteln, damit daraus ein Mehrwert generiert werden kann.

Und obwohl die durch NLG-Technologie erstellte „Beispiel-Story“ in der Abbildung kurz ist, so ist sie doch präzise und leicht zu verstehen und für ihre Adressaten zielführend.  

Ein Problem wird angesprochen, dass durch die korrekte Analyse von Daten, und wichtiger noch, durch die angemessene Kommunikation der Ergebnisse, gelöst werden kann.

Wie sich immer deutlicher zeigt, ist die Bedeutung von Big Data Projekten enorm. Sie bringen unzählige Potentiale mit sich, die sich allerdings nur effektiv realisieren lassen, wenn sie in eine entsprechende Story verpackt werden!

Diese Story muss individuell angepasst, präzise sowie nachvollziehbar sein, um zu kommunizieren, was in dem jeweiligen Projekt für das Business relevant ist.

Zwei Dinge sind beim Entwurf einer angemessenen Story zu einem Big Data Projekt besonders hilfreich:
  1. Man kennt die Quintessenz der Story, die man erzählen möchte, bereits zu Beginn des Projektes.In diesem idealtypischen Ansatz ist es natürlich besonders einfach, die relevanten Daten aus Big Data Analysen herauszufiltern. Es existiert bereits eine Vorstellung davon, welche Story erzählt werden soll und welches Analyse-Ergebnis erwartet wird. Hat man diesen Startvorteil nicht, ist die Chance, ein wertschöpfendes Ergebnis zu präsentieren, wesentlich geringer.
  2. Man kann sich einer Technologie bedienen, um Daten und Analysen in verständliche Sprache zu übersetzen. Advanced natural language generation (NLG-technology) ermöglicht das Übersetzen von Erkenntnissen auf der Datenebene in präzise, leicht zu verstehende Aussagen. Das Ganze ist inzwischen soweit ausgereift, dass der „Sprint“ von simplen Daten über die Detaileinsicht bis hin zu 10.000 individualisierten Nachrichten für die jeweiligen Geschäftsstellen nicht mehr nur vage Vision ist, sondern praktische Realität. NLG-Technologie ermöglicht das Generieren von einfachen, datenbasierten Stories und Aussagen im großen Rahmen schon heute.

Freitag, 22. Januar 2016

Data Storytelling (Teil 2/4)



 
Tabellen sind schön und gut, doch selbst ausgebildete Analysten haben manchmal ihre Probleme bei der Auswertung, oftmals unabhängig von der eigentlichen Datenmenge. Die abgebildete Tabelle beispielsweise, die point-of-sale Informationen anhand von Millionen Datenreihen transportiert, ist keinesfalls einfach auf eine Kernaussage zu reduzieren.


Zur Vereinfachung und gefälligen Darstellung bietet sich Visualisierung in Form von Grafiken an. Doch ist die abgebildete Grafik, basierend auf den Zahlen wirklich leichter zu verstehen und zu interpretieren? Können die jeweils notwendigen Informationen leicht zugänglich gemacht werden?
Während die Verbindungen zwischen den Balkendiagrammen und den Zahlen einigermaßen übersichtlich sind, gehört doch noch ein nicht geringer Aufwand dazu, irgendeine bedeutungsvolle Aussage herauszukristallisieren.
 
 
Anstatt eine immense Datenansammlung zu analysieren oder eine Grafik zu interpretieren, müssen wir jetzt nur noch diese Zusammenfassung lesen. Die abgebildete Nachricht bezieht sich auf eine bestimmte Region, der Adressat kann unmittelbar Nutzen aus den gesammelten Daten für den Gesamtbetrieb generieren und es gibt keine mehrdeutigen Interpretationsmöglichkeiten. Für jeden Datenpool gibt es verschiedene Akteure, welche jeweils individualisierte Nachrichten erhalten. 

Freitag, 8. Januar 2016

Data Storytelling (Teil 1/4)

Für Betriebe ist das stumpfe, unorganisierte Sammeln von Datenmassen überhaupt erst von Nutzen, wenn ein Unterfangen in Angriff genommen wird, daraus effektive Einblicke in betreffende Tiefenstrukturen zu gewinnen. Doch Weg zu diesem Ziel ist viel weniger simpel, als es hier vielleicht den Anschein erwecken mag. Zwischen den Rohdaten und einem zielgruppenorientierten, präzisen und wertoptimierenden Analyseergebnis liegen Welten. Und danach steht man vor der entscheidenden Phase, seine Ergebnisse zu kommunizieren. Doch dazu später mehr.

Daten allein liefern keinen Mehrwert!

Es muss erwähnt werden, dass Daten allein nicht nur keine genuine Problemlösung für Verbesserungsansätze darstellen, sondern aus der Business-Perspektive sogar Teil des Problems sind. Der eben erwähnte Weg zwischen den Rohdaten und der „Einsicht“ kostet zuweilen nämlich Unsummen an Zeit, Ressourcen und Technologie, während man versucht, Daten zu erarbeiten, zu komprimieren und zu managen. Erst danach folgt der wichtigste Teil, sozusagen der „Endspurt“ auf den letzten Metern, bei dem man seine Ergebnisse adäquat präsentiert und kommuniziert, um aus der Umsetzung des Big Data Projektes betriebliche Vorteile zu generieren zu können.

Der erste, naheliegende Schritt auf dieser Strecke ist das Extrahieren von Mehrwert aus den Rohdaten in Form von Detaileinsicht. Auf dieser Ebene werden weder Kosten noch Mühen gescheut, um spezifische Technologien zu entwickeln, die helfen sollen, große Mengen an Daten nutzbar zu machen. Sei es nun generelles Data-Mining, Correlation-Analysis, machine learning oder Empfehlungs-Engines, all diese Ansätze sollen helfen Einsicht in Zusammenhänge zu erlangen und Verbindungen zwischen den Daten-Elementen zu verstehen, die Aufschluss über Business-Practice geben können. An den sich daraus ergebenden Checkpoints ist aus Big Data oft schon ein Destillat entstanden, das man als Usable-Data bezeichnen kann. Allerdings benötigt diese Transferleistung nach wie vor Interpretation.

Die selten wirklich thematisierte, aber immer relevanter werdende Frage bleibt bestehen: „Wie kommuniziert man die Ergebnisse auf verständliche und wertschöpfende Weise?“