Von außen sieht es bei den führenden E-Commerce Unternehmen alles sehr sehr datengetrieben und automatisiert aus. Keine Entscheidung ohne entsprechende Daten. Die werden schon wissen, welchen Kunden sie über welchen Kanal mit welcher Botschaft ansprechen müssen. Und dann wissen die (Zalando usw.) bestimmt auch wann sich das Investment wieder auszahlt. In der Realität ist das leider nicht so einfach, weil die Kunden über dutzende Kanäle in Kontakt mit dem Anbieter kommen können und einige davon sind analog (z.B. Plakate) und damit sehr schwer messbar. Um diesem Problem beizukommen, hat sich in den letzten Jahre eine erkleckliche Industrie rund um das Thema Marekting Attribution oder Marketing-Mix-Modeling gebildet. Die meisten Anbieter in diesem Markt behaupten, dass mit solchen Modellen alle (Marketing-) Fragestellungen im Unternehmen transparent und datengetrieben gemacht werden können, aber das wollen wir uns im folgenden Interview mal genauer anschauen.
Für diesen Zweck habe ich mir Ole Bossdorf eingeladen, Marketing Spezialist bei Project A Ventures. Wir reden über die Grundlagen von Marketing Attribution und über die notwendigen Tools und Kompetenzen. Natürlich schauen wir auch auf die neuen Angebote von Google (Google 360) und erklären, warum ein normaler Analytics Account bei komplexeren Fragestellungen nicht mehr weiterhelfen kann. Andererseits könnten in diesem Fall dann Umfragen unter den Bestandskunden schon viel mehr Aufklärung über die Wirksamkeit einzelner Werbekanäle geben. Wir planen zu diesem Thema noch eine zweite Ausgabe, zu der ihr gerne Fragen einreichen könnt. Bis dahin aber viel Spass mit dieser Ausgabe.
Die Kassenzone Interviews sind verfügbar bei:
Soundcloud, iTunes, Youtube, Facebook oder per RSS-Feed
ODCAST & Interview Transkription – für alle Leser, die Audio & Video nicht so gerne konsumieren. Gesponsert von PAYBACK – hier mehr erfahren und App herunterladen.
Marketing-Attribution mit Ole Bossdorf von Project A Ventures
Ole ist Marketing Analyst bei Project A Ventures. Der Frühphaseninvestor beteiligt sich nicht nur mit Geld, sondern auch mit operativer Unterstützung in den Unternehmen, in denen er investiert. Ole ist dort im BI-Team tätig. Hier spricht er über Marketing-Attribution. Haben moderne Online-Unternehmen wirklich ein geheimnisvolles Datenmodell haben, das vollautomatisiert herausfindet, wie wirkungsvoll Werbemaßnahmen? Oder läuft es in der Realität etwas hemdsärmeliger…?
PODCAST & Interview Transkription – für alle Leser, die Audio & Video nicht so gerne konsumieren.
Gesponsert von PayBack – hier mehr erfahren und App herunterladen.
„Soll ich diesen Podcast nennen: ‚Der Cookie ist tot?‘ Oder: ‚Pass auf, Google 360!‘“
3:45
Alex: Was ist eigentlich Attribution?
Ole: Es gibt natürlich bei so einem jungen Thema noch keine Lehrbuchdefinition, aber für mich persönlich setzt sich Attribution aus zwei verschiedenen Elementen zusammen. Das erste Element wäre eine wirklich gute und saubere Identifikation von allen Berührungspunkten, die ich mit meinem Kunden habe. Im Onlinebereich ist das relativ einfach, aber das heißt auch, dass ich versuche, Daten aus anderen Bereichen zu diesen Berührungspunkten mit meinem Kunden zu sammeln. Wenn ich diese saubere Datengrundlage habe, ist der nächste Schritt in der Attribution, den Kundenwert oder den Wert einer Conversion auf diese Berührungspunkte des Kunden zu verteilen.
Alex: Wofür braucht man das?
Ole: Das braucht man, wenn man wirklich wissen will, welche Marketingaktivitäten Sinn machen und wie man seinen Marketingmix eigentlich einstellen sollte.
Alex: Es macht also auch nur Sinn für Unternehmen, die Neukundengewinnung betreiben?
Ole: Und für Unternehmen, die sehr viel online unterwegs sind und dort verschiedene Marketingkanäle benutzen, um Kunden zu akquirieren. Wenn diese Unternehmen ein gewisses Interesse daran haben, wie ihre Kundenakquise wirklich funktioniert, dann müssen sie über einen einzigen Berührungspunkt hinausschauen und sich wirklich die komplette Klickkette eines Kunden anschauen, um zu realisieren, was da Sinn macht und was nicht.
(Alex erzählt, dass es mal viel Diskussion darüber gab, wie mit dem Thema Last Cookie umgegangen wird, also der Methode, die nur den letzten Berührungspunkt eines Kunden zählt, und fragt, ob sich das entwickelt hat.)
6:10
Ole: Dadurch, dass digitale Marketingausgaben immer mehr ansteigen, steigt natürlich auch die Nachfrage nach einem guten, sauberen Messinstrument, was Attribution an sich auch bietet. Das ist in letzter Zeit wesentlich relevanter geworden, weil es durch neue Technologien leichter fällt, diese verschiedenen Berührungspunkte zu identifizieren. Wir haben einerseits die Cookies, die gibt’s eigentlich schon seit zwei Jahrzehnten, aber wir haben jetzt auch erste Cross-Device-Technologien, mit denen man Benutzer mit verschiedenen Endgeräten zusammenführen kann. Man kann auch schauen, ob ein Nutzer mal in einem physischen Store war, und diesen Berührungspunkt in diese Klickkette mit reinwerfen. Durch diese neuen Technologien kann man wesentlich komplexere Attributionsmodelle ansetzen und bewegt sich endlich weg von diesem Last Cookie, also dem Modell, in dem man sich nur den letzten Kontaktpunkt anguckt. Man schaut sich die komplette Customer Journey an und bewegt sich langsam in Richtung regelbasierte Attributionsmodelle, bei denen man bestimmte Regeln aufstellt, nach denen zum Beispiel eine bestimmte Conversion umverteilt wird.
7:25
Alex: Hast du ein Beispiel für einen Case, an dem du mitgearbeitet hast, wo das Datensammeln zu wirklich neuen Erkenntnissen geführt hat?
Ole: Ein schönes Beispiel ist für mich ein Wechsel von AdWords Richtung Banner. Das Problem ist: Wenn man sich in dieser Last-Cookie-Welt bewegt, dann wird man sich immer nur auf Kanäle konzentrieren, die sehr Conversion-getrieben sind, die also unmittelbar vor einem gewünschten Kundenverhalten wie einem Kauf oder einem Lead sattfinden. Diese Kanäle sind aber sehr oft so was wie AdWords, weil der Kunde inzwischen aktiv in Google nach meinem Produkt sucht. Und wenn man sich nur darauf fokussiert, bleibt man immer in diesem Pull-Marketing-Bereich, wo man auf die Nachfrage des Kunden angewiesen ist.
(Ole erzählt, dass der Online-Autoteilehändler kfzteile24 dank Attribution nun nicht mehr nach dem Last-Click-Modell auf AdWords setzt, sondern stärker auf die vorbereitenden Kanäle wie Bannerwerbung oder Content Marketing.)
10:00
Alex: Ist das nur eine allgemeine Erkenntnis über Banner- versus Ad-Ausgaben, oder kann man sogar Rückschlüsse auf bestimmte Kategorien oder Kundengruppen ziehen?
Ole: Man kann sich durch Attribution relativ genau anschauen, welche Display-Netzwerke oder sogar auch welche Magazinartikel für mich Sinn machen. Ich habe nämlich zu einem einzigen Berührungspunkt mit meinem Kunden nicht nur die Information über den Kanal, sondern auch die UTM-Parameter. Die werden oft an Zielseiten angehängt, um zu identifizieren, wo der Kunde herkommt, also zum Beispiel von einer bestimmten Facebook-Anzeige auf einem Mobilgerät.
(Ole erzählt, dass viele Kunden von Project A Ventures denken, sie hätten kurze Klickketten, haben dazu aber eigentlich keine Daten und wissen nicht, ob sich ein Bestandskunde oder ein potentieller Kunde auf ihrer Seite befindet, also ob ein Klick zu einer Reaktivierungs- oder Akquisitionskampagne gehört. Die Kunden seien sehr in einer Google-Analytics-Denkweise gefangen.)
12:50
Alex: Google Analytics lässt ja im freien Modus mittlerweile auch granulares Messen zu. Warum gehen bestimmte Sachen nicht?
Ole: Google Analytics kann zwar über einen Pixel, den du auf deiner Website implementiert hast, auf jeden Fall sagen, wenn jemand auf deiner Seite war und vielleicht auch was gekauft hat. Aber sie haben keine Informationen zu Daten, die es in deinem persönlichen Backend gibt, also dazu, ob das ein Bestandskunde ist, wie oft der schon gekauft hat, was sein Customer Lifetime Value ist und ob er diese Bestellung vielleicht storniert. Da wir solche Informationen nicht zurück an Google Analytics leiten, sagt uns Analytics einfach nur: „Dieser Kanal hat eine Transaktion zustande gebracht.“ Aber diese Transaktion kann extrem unterschiedlich sein.
(Ole führt aus, dass es wichtiger ist, die Kanäle zu kennen, über die jemand zum ersten Mal einen Turbolader für 400 Euro kauft, als wenn jemand zum wiederholten Male Scheibenwischwasser für 5,99 Euro bestellt.)
14:05
Alex: Gibt es Fragestellungen, die nicht zu Attribution passen?
(Ole erklärt, dass vor allem Fragen der Markenbekanntheit nicht zu Attribution passen. Das betrifft also Unternehmen, die sich primär offline auf Messen präsentieren oder Events veranstalten, da hier nicht abgebildet werden kann, welche Events erfolgreich waren. Alex wirft ein, dass Unternehmen wie Amazon, Zalando, ABOUT YOU und Otto.de ja durchaus analoge Berührungspunkte haben und sich wahrscheinlich beim Onlinemarketing sowohl auf die Marke als auch auf Performance-Marketing konzentrieren. Letzteres habe aber keine so maßgeschneiderten Messpunkte wie UTM-Parameter. Ole betont erneut, dass viele analoge Touchpoints eine saubere Attribution schwierig machen.)
17:10
Alex: Macht es Sinn, dann nur das Performance-Marketing zu optimieren?
Ole: Es gibt ein Modell, das die Attribution relativ gut ergänzt. Wir haben ja einerseits den Bottom-up-Approach mit der Attribution, also Daten sammeln und sauber verteilen, und andererseits den Top-down-Approach, und das nennt sich dann Marketing-Mix-Modeling. Da schaue ich mir einfach nur an, was in einem bestimmten Monat bei einem bestimmten Budget für bestimmte Kanäle herausgekommen ist. Wenn ich mir das über einen längeren Zeitverlauf angucke, kann ich relativ gut sehen, wo eine Budgeterhöhung mehr Conversions einbringt. Dann baut man so eine Art lineare Regression auf.
(Alex erzählt, dass Spryker auch viel analog unterwegs ist, aber einer hohen monatlichen Volatilität unterliegt. Es gibt dabei klassische Messezeiträume und Ballungen um die dmexco und die OMR. Die Personalkosten und Kosten für die Vorbereitung bleiben dabei aber konstant und sind einzelnen Events damit schwer zuordenbar. Ole sagt, Marketing-Mix-Modeling macht da keinen Sinn und werde eher von großen Playern wie Volkswagen oder der Allianz genutzt. Für Unternehmen wie Spryker seien aber Kundenumfragen sinnvoll, die ermitteln, wie die Kundschaft auf die Marke aufmerksam geworden ist. Damit prüft man, ob Content Marketing wirklich so wichtig ist, wie die Attribution angibt, oder eher das Sponsoring oder Messestände.)
20:00
Alex: Nehmen wir mal ein Unternehmen, das sehr stark im Onlinehandel aktiv ist. Das macht vielleicht zehn Millionen Euro Umsatz und gibt im Jahr 2,5 Millionen für Performance-Marketing aus, also jeden Monat grob 200.000 Euro, und nutzt Facebook-Werbung, Google Ads und Google Analytics. Wie gehst du da vor?
Ole: Wir haben festgestellt, dass man auf jeden Fall in dem Unternehmen selbst einen Project Owner braucht, der sich auf dieses Thema spezialisiert. Denn wenn wir selbst Attributionsmodelle für unsere Portfolio-Unternehmen erstellt haben, dann wusste es oft nach ein paar Monaten nicht mehr, wie das wirklich funktioniert.
(Alex fragt, ob auch Controller das übernehmen können. Ole betont, dass es jemand aus dem Onlinemarketing-Bereich sein sollte, aber man viele gute Ressourcen online findet. Ole ergänzt, dass auch die Marketing-Trainees bei Project A Ventures das Thema gut meistern.)
Ole: Was ich dann in unserem Fallbeispiel machen würde, ist Folgendes: Google Analytics bietet einen sehr guten ersten Eindruck. Und zwar hat es ein Tool, das sich Modellvergleichstool nennt. Und da kannst du deine Last-Click-Perspektive mit anderen, regelbasierten Modellen vergleichen.
(Ole führt aus, dass man hier den Kontaktpunkten verschiedene Gewichtungen zuweisen kann. Man kann zum Beispiel primär den ersten und den letzten Kontaktpunkt betrachten oder alle gleich stark werten. Er betont, dass Google Analytics einem Unternehmen nicht sagen kann, welches Attributionsmodell am besten geeignet ist und die Gewichtung immer subjektiv ist, dass es nach seiner Erfahrung aber sinnvoll ist, die Last-Click-Perspektive hinter sich zu lassen.)
23:35
Ole: Wenn sich dieser Onlineplayer dann dazu entscheidet, wirklich richtige Attribution zu betreiben und nicht nur über Google Analytics einen kurzen Eindruck zu gewinnen, dann würde man ein größeres BI-/Marketing-Projekt anwerfen.
Alex: Wie sieht das aus?
Ole: Man braucht einfach verschiedene Daten. Einerseits braucht man eine riesige Tabelle, in der jede Zeile einen Berührungspunkt eines Kunden mit meiner Website ausmacht.
Alex: Ist in Deutschland die eineindeutige Zuordnung eines Besuchers zu einer Aktion überhaupt erlaubt?
Ole: Ja, und die Daten bekommst du aus einem anderen Google-Produkt. Das nennt sich Google BigQuery. Das ist allerdings ein bisschen teurer, aber dazu gibt es viele gute Alternativen wie zum Beispiel MixPanel oder econda oder Segment, um die rohen Berührungsdaten zu bekommen.
Alex: Was machst du mit dieser Tabelle?
Ole: Wir brauchen noch eine weitere Tabelle, und die kommt aus unserem Backend, also aus unserem Shopsystem. Die zeigt uns in einem E-Commerce-Fall zum Beispiel an, welche Transaktionen stattgefunden haben und auch was mit diesen Transaktionen passiert ist, ob die storniert oder retourniert wurden. Und dann gibt es innerhalb von Webtracking-Tools wie Google Analytics, aber auch den Alternativen, die Möglichkeit eine Unique ID mitzuverfolgen. Das bedeutet: Wenn jemand auf meiner Seite etwas kauft, bekommt er eine Transaction ID, und die taucht dann wieder in meinem Backend auf. Und diese beiden Informationen kann ich zusammenfügen, das heißt, ich kann zu der Bestellung aus meinem Backend sehen, welche Klicks es dazu gab.
(Alex fragt, ob man auch nutzerbezogene Kontaktpunkte aus anderen Quellen wie Facebook oder Google AdSense nutzen kann, aber Ole betont, dass man sich für ein Tool entscheiden muss, da Facebook und AdWords andere Daten liefern als das eigene Webtracking-Tool. Zudem misst dieses Tool ja, ob Klicks über Google oder Facebook kommen. Alex fragt, woher man weiß, welcher Nutzer von welcher Facebook-Anzeige kommt, und Ole erklärt, dass das über die UTM-Parameter passiert.)
27:41
Alex: Was brauche ich noch für Tools?
Ole: Prinzipiell kannst du erst mal erste Analysen machen. Das würde dann zum Beispiel in unserem BI-Team ein Produktmanager machen, vielleicht mit Hilfe von einem Data Engineer. Und dann hast du diese beiden Tabellen – einerseits zu den Klicks, andererseits zu den Bestellungen – und kannst über einfache Tools wie Jupyter Notebook erste Analysen machen und mal schauen, wie andere Attributionsmodelle sich auswirken. Wenn man einen Schritt weitergehen will, müsste man wirklich einen ETL schreiben, der die verschiedenen Datenquellen anzapft und sich die Informationen da holt. Wir packen das dann immer in Marketing-Cubes, auf denen unsere Reportings basieren.
(Alex fragt, ob sich diese Vorgehensweise bei Firmen, die nur 200.000 Euro im Monat für Marketing haben oder gar nur eine Million Umsatz im Jahr machen, überhaupt lohnt, da die Personalkosten und die Lizenzkosten für Software schon so hoch sind. Ole meint, dass es ja umsonst ist, sich einen ersten Eindruck über Google Analytics zu verschaffen. Er gibt zu, dass ein Marketing-ETL und eigene Reportings teurer sind. Allerdings kann man damit nicht nur eine Bestellung auf die einzelnen Berührungspunkte verteilen, sondern auch den Customer Lifetime Value betrachten und Vorhersagen über zukünftiges Kaufverhalten treffen. Den CLV kann man wiederum auf die Berührungspunkte des Kunden verteilen und bestimmen, welche Kanäle gute und langfristige Kunden akquirieren.)
31:35
Alex: Ist man da nach zwei Monaten, nach einem halben Jahr, nach einem Jahr?
Ole: In den beiden Fällen, in denen ich involviert war, dauerte es sechs bis acht Monate, bis man wirklich Eindrücke hatte, mit denen man auch aktiv Marketingmaßnahmen steuern konnte. Man sah sich das also nicht nur an und dachte, das sei gut zu wissen, sondern die Ergebnisse wurden vom Marketingteam akzeptiert und umgesetzt.
32:10
Alex: Was kommen dann noch für Funktionen hinzu?
Ole: Du kannst natürlich dieses Marketing-Analytics- oder BI-Team sehr schön aufbauen. Du kannst zum Beispiel Daten aus den verschiedenen APIs der Netzwerke, die du benutzt, also von Google oder Facebook, nehmen und nach Kosten integrieren. Das ist ja sehr wichtig für die ROI-Berechnung. Und dann kannst du neben diesen klassischen Berührungspunkten auf deiner Website auch noch Berührungspunkte aus deiner App, aus TV-Werbung oder aus Offlinestores sammeln. Du kannst als immer mehr Berührungspunkte in die Tabelle einpflegen, damit deine Attribution immer vollständiger wird und du wirklich weißt, was sich lohnt.
(Alex überlegt, ob die großen Unternehmen wie Zalando in Deutschland die Attribution schon gut nutzen, um zum Beispiel zu beleuchten, ob AdWords nur in bestimmten Regionen sinnvoll ist oder Werbung auf bestimmten Sendern. Er fragt, wie groß ein Team dafür sein muss.)
Ole: Bei Zalando wird der Bereich Marketing Intelligence zum Beispiel von Charlotte Preut geleitet, und in ihrem Team sind so 20, 25 Leute, die sich dann aber auch um die verschiedenen Länder kümmern. Und die sind extrem weit in diesen Bereichen. Die benutzen nicht länger eine subjektive regelbasierte Attribution, sondern beschäftigen sich auch schon aktiv mit dynamischer Attribution, bei der man mit bestimmten Machine-Learning-Modellen arbeitet. Sie benutzen gleichzeitig Marketing-Mix-Modeling, um ihre Budgets gut auszusteuern. Also haben sie beide Perspektiven: Bottom-up und Top-down.
34:50
Alex: Was heißt dynamische Attribution?
(Ole erklärt, dass regelbasierter Attribution bei vielen Unternehmen subjektiv alle Kunden ignoriert, die nur fünf Sekunden auf der Website waren. Es weiß aber keiner, ob das sinnvoll ist.)
Ole: Bei dynamischer Attribution werden die relevanten Werte, zum Beispiel einer Transaktion, basierend auf der Bedeutung eines jeden Berührungspunktes für die Transaktion verteilt. Google und Facebook benutzen so genannte Markow-Ketten. Markow-Ketten gucken sich an, wie wahrscheinlich es ist, dass ein Kunde von Event eins zu Event zwei übergeht. Wie wahrscheinlich ist es also, dass ein Kunde, wenn er auf eine Facebook-Anzeige geklickt hat, noch mal über eine Affiliate-Anzeige auf meine Seite kommt oder sogar kauft. Da gibt es auch andere Alternativen: Struktur-Vergleichsmodelle oder andere Simulationen, auch Kombinationen davon.
(Ole beschreibt, dass Markow-Ketten bei Zalando zum Beispiel ermitteln, ob von 100 Nutzern, die zweimal auf Google-Anzeigen geklickt haben, diejenigen 50 Nutzer, die zwischendurch auch noch auf eine Affiliate-Anzeige geklickt haben, wirklich mehr gekauft haben bzw. einen höheren CLV erzielen. Der Affiliate-Klick wird im Zuge eines so genannten Removal Effects weggenommen und es wird beleuchtet, ob er überhaupt Auswirkungen hatte. Alex bemerkt, dass sein personalisierter Feed bei Facebook oder E-Mails von Zalando zwar okay sind ist, dort die dynamische Attribution aber noch nicht gut genutzt zu werden scheint und nur Twitter wirklich relevante Beiträge liefert, aber auch nur, weil er dort selbst auswählt, wem er folgt. Ihn erreichen also viele Informationen, die nicht relevant sind.)
39:05
Alex: Fehlt es an Tools?
Ole: Es gibt zwei Herangehensweisen: Einmal holt man sich ein Black-Box-Modell von Google oder Facebook oder großen Playern wie Visual IQ. Das kostet dann 130.000 oder 150.000 Euro im Jahr.
(Alex wirft ein, dass es auch Anbieter wie Neustar gibt, die Einblicke in ihre Software erlauben. Ole fügt hinzu, dass Software von fremden Anbietern oft von Marketingteams nicht verstanden und daher nicht akzeptiert wird.)
Ole: Die andere Variante wäre dann, das Tool in-house zu entwickeln. Es existiert aber noch nicht viel Literatur dazu, wie so was gemacht wird. Dementsprechend dauert das relativ lange.
(Alex betont, dass es wichtig ist, selbst Attributions-Know-how anzusammeln. Er geht aber davon aus, dass die Industrie erst mal auf Standardlösungen setzt, weil sie keine Zeit hat und lieber sofort fünf Millionen Euro einsetzt, um ihr 300 Millionen großes Marketingbudget zu optimieren. Er erwähnt, dass Google die Analytics 360 Suite anbietet, in der alle Kanäle und Effekte abgebildet werden. Ole ergänzt, dass die Suite vor einem Jahr mit Google Attribution 360 gestartet ist, aber kaum genutzt wurde, weil sie so teuer war, und dass das neue Google-Attribution-Tool die Alternative sei. Er warnt, dass dort seines Wissens nur Google-Berührungspunkte gemessen werden, weshalb es die eigentliche Aufgabe von Attribution nicht erfüllt und zu Recht nicht von Kassenzone gelobt wurde. Wenn man nur mit DoubleKlick-Daten aus dem Bitmanagement-Tool und AdWords-Daten arbeitet, lautet die Empfehlung natürlich immer, Google-Kanäle zu skalieren.)
42:55
Ole: Eine Alternative dazu bietet Facebook mit seinem Atlas-Produkt. Das ist eigentlich ein ähnlicher Ansatz. Ich glaube, sie nennen es inzwischen Advanced Measurement. Hier schickt man jeden Besuch, den man auf seiner Website hat, noch mal zu Atlas. Und Facebook sammelt dann die ganzen Berührungspunkte deiner Kunden mit Facebook, aber auch mit deinen anderen Tools.
(Ole gibt zu bedenken, dass man sich dabei für Facebook sehr transparent macht und Facebook noch weitere Informationen mit einrechnet. Bei einem Test kam heraus, dass er 50-mal so viel in Facebook-Kampagnen investieren sollte, was Ole und Alex nicht sehr überraschend finden. Alex vermutet also, Ole würde auf transparente Produkte setzen oder auf einen transparenten Dienstleister. Er nimmt an, dass Performance-Marketing-Agenturen und Media-Agenturen sich hier Einnahmequellen schaffen.)
45:25
Alex: Man arbeitet bei Screen-gebundenen Geräten also Device-übergreifend mit Referrern auf Responsive Websites, richtigen Websites und Apps. Wie schafft man es denn bei den neuen Devices und Transaktionen über Voice, Informationen zu sammeln?
(Ole beschreibt zunächst, dass die Ära der Cookies, die 20 Jahre vorherrschte, langsam zu Ende geht, da Nutzer inzwischen unterschiedliche Endgeräte nutzen und jedes Gerät von Webanalysetools wie Google Analytics als eigener Nutzer gezählt wird. Das erschwere gute Analysen.)
Ole: Die Lösung zu dem Problem bieten so genannte Device Graphs. Das ist letztendlich nichts weiter als eine Übersicht über die Geräte, die zu einem Nutzer gehören. Und die kann man im nächsten Schritt wieder zusammenführen.
(Ole erklärt, dass Device Graphs bei Google und Facebook leicht Login-basiert zu erzeugen sind, da die Nutzer überall über ihren Account eingeloggt sind. Allerdings bekomme man die Rohdaten hierzu nicht. Eine andere Herangehensweise sei, Geräte über Fingerprinting, also über den Standort zusammenzuführen. Das sei aber schwieriger. Er gibt zu, dass es eine Herausforderung sein wird, im Zeitalter des Internet of Things, Geräte zusammenzuführen. Alex ergänzt, dass Zalando oder ABOUT YOU ja schon 70 % ihres Umsatzes mobil erzielen, was immer schwerer zu erfassen sei und einen am Ende vielleicht doch zu Google- oder Atlas-Produkten zwingt, die wahrscheinlich irgendwann auch andere Berührungspunkte messen als die eigenen. Er überlegt, wie er den heutigen Podcast nennen will, und beschließt unbeantwortete Fragen und neue Fragen von UserInnen aus der WhatsApp-Gruppe in einem zweiten Podcast zu beantworten. Alex bedankt sich bei Ole und stellt Neustar als zweiten Sponsor des heutigen Podcasts vor, dessen Managing Director für den deutschen Markt Sven Bagemihl Angebote für Kassenzone-Hörer bereithält.)