Warum es dennoch entscheidend ist, hinter die Begriffe zu blicken und deren oftmals spektakulären Versprechungen auf den Zahn zu fühlen, zeigen die Autoren Björn Bloching (Roland Berger), Lars Luck (Metro Group) und Thomas Ramge (brand eins) anhand eines der größten Technologie-Hypes der letzten Jahre: Big Data. Wir haben Herrn Ramge zum Gespräch getroffen.
Herr Ramge, in Ihrem Buch „Smart Data“ schildern Sie sehr eindrücklich, was passiert, wenn deutsche Unternehmen versuchen, Big-Data-Anwendungen einzuführen. Sie scheitern nämlich oftmals grandios. Was ist das Problem?
Das Grundproblem ist, dass digitale Technologien wie Big Data als Großmäuler auf die Welt kommen. Das heißt, sie versprechen zunächst einmal sehr viel und sorgen damit auch für sehr überzogene Erwartungen. Wenn wir dies kombinieren mit der gefühlten Bedrohungslage, in der sich viele Unternehmen, besonders im deutschen Mittelstand, gerade sehen, kommen wir zu folgender Situation: Man erkennt, es gibt da Firmen, die können sehr viel mehr als wir, die können virtuos mit digitalen Systemen umgehen, die bauen ganze Geschäftsmodelle auf Daten auf – und wer weiß, wann sie in unser Kerngeschäft einsteigen. Also werden Workshops abgehalten, in denen Geschäftsmodelle auf Flipcharts gemalt werden, die in etwa aussehen wie die von digitalen Start-ups. Dann vergleicht man das mit der Realität im Unternehmen und erkennt eine riesige Diskrepanz. Und nun kommt die tendenziell großmäulige IT-Industrie ins Spiel und behauptet, wir haben eine Lösung für euer Problem – und sie heißt Big Data.
Und das ist ein Trugschluss?
Der Trugschluss ist zu glauben, dass alleine der bloße Einsatz der Technologie die Probleme lösen könnte. Big Data galt lange als eine Art Zauberformel. Die Firma Gartner hatte den Begriff 2011 erfunden, um eine bestimmte Art der Massendatenanalyse zu beschreiben, die auf drei Prinzipien beruht: Wir verfügen über mehr Daten, als wir denken, wir können Trends beobachten und Ursachenforschung verliert an Bedeutung.
Der Wired-Gründer Chris Anderson schrieb dazu einen Schlüsseltext mit dem Titel „Das Ende der Theorie”.
Ja, seine These war, dass wir in einer durch Daten vermessenen Welt keine theoretischen Modelle mehr brauchen, die uns die Welt ohnehin nur unzulänglich erklären. Bei ausreichender Datenbasis sprechen die Zahlen gewissermaßen von selbst.
Hatte er Unrecht?
In der Theorie nicht unbedingt. Zumindest in der Annäherung mag diese Strategie für die ganz großen Datenspieler vielleicht sogar aufgehen. Facebook, Amazon und Google können mit sehr großen Datenmengen tatsächlich sehr gut umgehen und dann in der Tat über ihre Algorithmen und ihre Techniken rund um maschinelles Lernen Erkenntnisse daraus ziehen. Sie können Prädiktionsmodelle aufbauen, die ziemlich gut funktionieren, in vielen Kontexten. Aber um zum deutschen Mittelständler zurückzukommen: Für die allermeisten Unternehmen ist das irrelevant.
Warum?
Weil sie erstens nicht über die Mittel der großen Player verfügen. Diese sind überhaupt keine sinnvolle Vergleichsgröße. Wir haben es bei deutschen Unternehmen ja mit einem vollkommen anderen Level von Datenkompetenz zu tun, schon angefangen bei der technischen Ausstattung. Noch sehr viele Unternehmen nutzen ERP-Systeme, die in den 1980er oder 1990er-Jahren eingeführt und dann sukzessive erweitert wurden. Was solche Unternehmen ganz dringend brauchen, noch bevor man über den konkreten Einsatz von Technik nachdenkt, ist eine sich langsam vortastende, konsequente Strategie, wie man Datenanalyse überhaupt sinnvoll betreiben kann.
Sie nennen diese Strategie „Smart Data“. Was meinen Sie damit ganz konkret?
Zunächst ging es uns darum, das „Big“ in Big Data in Frage zu stellen. Es ist nämlich mitnichten so, dass man mit großen Datenmengen im Rahmen einer Analyse auch automatisch immer die besten Ergebnisse erzielt. Es reicht eben nicht aus, wie ein gigantischer Staubsauger nur einfach Daten zu sammeln und daraus Muster abzulesen. Viel wichtiger als die Masse ist die Relevanz der Daten für die jeweilige Fragestellung. Fehlt die Varianz, werden große Datenmengen oft überschätzt.
Was genau ist mit fehlender Varianz gemeint?
Vor etwa drei Jahren kursierte unter Marketingberatern die Idee, man könnte Unternehmen IT-Tools zur Analyse von Twitter-Daten verkaufen. Das Versprechen war eine Art Echtzeitanalyse des für das jeweilige Unternehmen relevanten Marktes: Welche Stimmung herrscht im Land, bezogen auf ein bestimmtes Produkt?
Das hört sich sinnvoll und machbar an.
Ja. Aber diejenigen Unternehmen, die dann tatsächlich investierten, mussten sehr schnell feststellen, dass es sich bei der Twitter-Gemeinde in Deutschland um eine ausgesprochen homogene Gruppe handelt. Man hatte es also mit vielen und aktuellen Daten, aber Daten von den immer gleichen Leuten zu tun, die eine immer gleiche Perspektive einnehmen. Damit konnte man zwar Aussagen über ein bestimmtes Milieu treffen, aber wenig bis gar nichts über die Konsumlandschaft in Deutschland insgesamt ableiten. Den Daten fehlte die notwendige Varianz. Ein weiteres Beispiel ist die Wahlforschung. Ein guter Statistiker muss nicht unendlich viele Wähler befragen. Er muss nur die Richtigen befragen. Dann führen auch relativ wenige Datenpunkte zu sehr zuverlässigen Vorhersagen. Bei den letzten US-Wahlen ist es hingegen offenkundig nicht gelungen. Man hat in den wahlentscheidenden Bundesstaaten nicht zu wenige Wähler befragt, sondern die Varianz nicht abgesichert.
Wie können Unternehmen eine Smart-Data-Strategie konkret umsetzen?
Bei einem Smart-Data-Projekt setzen sich zum Beispiel die Geschäftsführung, Experten aus den betroffenen Bereichen, die IT-Verantwortlichen und ein paar kluge Köpfe mit externer Perspektive in einem Workshop zusammen und überlegen: Welches Problem wollen wir mit Daten besser lösen als wir es bisher gelöst haben? Etwa: Wie wollen wir die Abwanderung von Kunden verhindern? Dann stellt das Team verschiedene Thesen auf, warum Kunden abwandern und wie man sie vermutlich besser halten kann. Man entwirft im nächsten Schritt Tests mit Messpunkten und generiert Daten. Vermutet man, die eigenen Produkte sind zu teuer, dann testet man mit Preisen. Stellt sich heraus, dass es gar nicht an den Preisen liegt, überlegt man weiter und stellt vielleicht die Qualität des Services zur Diskussion, baut wieder Messpunkte, sammelt Daten usw.
Das klingt mühsam.
Das ist es auch, aber das ist auch die Kernerkenntnis aller datenanalytischen Vorhaben: Aus Daten einen Mehrwert zu generieren ist ein mühsamer Weg. Besser, man macht sich das von Anfang an klar, als in jene skurrile Mischung aus Schockstarre und Aktionismus zu verfallen, die wir bei vielen Unternehmen beobachten, die glauben, mehr oder weniger von heute auf morgen im großen Datenspiel von Facebook, Amazon und Co. mitmischen zu können.
Muss man denn überhaupt mitspielen in diesem Spiel?
Wie gesagt, nicht unbedingt im großen Spiel der Big Player. Aber eines ist klar: Keine Daten sind auch keine Lösung. Die sogenannte Disruption entlang der Wertschöpfungskette ist ja schon längst in vollem Gang. Die Digitalisierung durchdringt alle Branchen und bringt neue Spieler mit neuen Geschäftsmodellen hervor. Einer der entscheidenden Erfolgsfaktoren in Zukunft wird es sein, über eine möglichst umfassende Kundenkenntnis zu verfügen. Noch ist analytische Kompetenz ein Wettbewerbsvorteil, in absehbarer Zeit wird sie ein Hygienefaktor sein. Unternehmen mit zu geringen datenanalytischen Fähigkeiten werden von analytisch fitten Wettbewerbern vom Markt gedrängt.
Wenn das Analysieren von Kundendaten so wichtig ist, haben deutsche Unternehmen hierzu nicht gerade die besten Rahmenbedingungen, oder?
Also zumindest wurde das strenge deutsche Datenschutzgesetz in der Vergangenheit immer wieder als Begründung dafür angegeben, warum es so schwer ist für deutsche Unternehmen, effiziente Datenanalyse zu betreiben. Aber das geht meiner Meinung nach am Kern der Sache vorbei. Die 2018 in Kraft tretende Europäische Datenschutzgrundverordnung, die sich relativ stark am vergleichsweise strengen deutschen Datenschutzverständnis orientiert, wird ein Hygienefaktor für den Markt sein und helfen, seriöse von weniger seriösen Anbietern zu unterscheiden. Ob Unternehmen tatsächlich erfolgreich sind mit ihren datenbasierten Ansätzen, hängt aber von etwas ganz Anderem ab. Nämlich, davon, ob es Ihnen gelingt, Verbrauchern klar zu machen, dass die Nutzung von Daten ein Geschäft zum gegenseitigen Vorteil ist.
Sie sprechen im Buch davon, dass Unternehmen sich die Daten regelrecht „verdienen“ müssten.
Ja richtig. Wir haben diese Idee „Earned Data“ genannt. Die Haltung der Unternehmen dahinter ist: Wir nutzen eure Kundendaten, um euch besser kennenzulernen, euch bessere Angebote zu machen, euch passgenauer zu beraten, weil wir an einer langfristigen Kundenbeziehung mit euch interessiert sind. Entscheidend dabei ist das Gebot der Verhältnismäßigkeit. Earned Data zielt, anders als Big Data, nicht auf Masse, sondern auf die richtigen Daten ab, die Kunden bewusst und gerne teilen – eben weil sie für sie von Nutzen sind.
Aber wir teilen doch auch heute schon Daten, weil wir viele für uns sinnvolle Dienste sonst gar nicht nutzen könnten.
Nur haben wir oft gar keine andere Wahl und wissen auch nicht, ob das Unternehmen wirklich verantwortungsvoll mit unseren Daten umgeht. Dafür müssten unserer Meinung nach vier Kriterien erfüllt sein. Die Verhältnismäßigkeit haben wir schon benannt. Ein weiteres Kriterium ist ein hohes Maß an Datensicherheit. Dann sollte Transparenz herrschen, das heißt, der Kunde sollte immer wissen, welche Daten über ihn vorliegen und zu welchem Zweck sie genutzt werden. Der Kunde sollte auch die Möglichkeit bekommen, sie bei Bedarf zu löschen. Die vierte Dimension ist ein für den Kunden klar definierter Mehrwert. Im einfachsten Sinne wären das Rabattoptionen. Oder eine Bank entwickelt ein individuelles Altersvorsorgemodell, das wirklich den Nutzen des einzelnen Kunden in den Mittelpunkt stellt – und dies nicht nur im Werbesprospekt behauptet.
Wie, glauben Sie, wird sich das Thema Datenanalytik weiterentwickeln?
Ich glaube, je mehr praktische Erfahrungen jenseits von überzogenen Buzzword-Hypes die Unternehmen machen, desto stärker wird sich die Erkenntnis durchsetzen, dass digitale Veränderungsprozesse von Menschen und nicht von Maschinen getragen werden. Die entscheidende Frage ist: Gelingt es Menschen, Maschinen intelligenter einzusetzen, indem Sie sich selbst anders organisieren? Datenanalyse ohne organisationale Veränderung und gutes Change Management bleibt auch in Zukunft ein leeres Versprechen.