Eine der heiß diskutierten Fragen in der Online-Branche derzeit ist die, ob es Agenturen gestattet sein sollte selbst Targeting zu machen..
Die Diskussion ist deswegen so heiß gelaufen, weil es um viel geht und deutlich mehr als nur methodische Aspekte diskutiert werden müssen.
Die einen befürchten, Agenturen wollten einen wesentlich größeren Teil der Wertschöpfung an sich reißen, indem sie Reichweite billig und in großer Menge einkaufen, mit Targeting veredeln und dem Werbekunden dann als spezifische und hochwertige Reichweite verkaufen (sog. Arbitrage-Modelle).
Die anderen sehen vor allem Datenschutzaspekte berührt, da Agenturen plötzlich Zugriff auf Userdaten verlangen, die bisher die Vermarkter und Websites für sich beansprucht haben. Aus der Sicht des Datenschutzes geht es vor allem darum die Datenverarbeitung für den User transparent und kontrollierbar zu halten – da ist Agentur-Targeting nicht gerade ein Schritt in die richtige Richtung.
Ein dritter Aspekt bei der ganzen Sache wird nicht so heftig diskutiert – ich meine aber völlig zu unrecht. Nämlich die Frage, ob Agentur-Targeting überhaupt vernünftig funktionieren kann? Und wenn ja, unter welchen Voraussetzungen?
Ich will mich im Folgenden auf diesen dritten, den methodischen Aspekt konzentrieren.
Doch zunächst mal kurz zwei Beispiele um zu illustrieren worum es überhaupt geht:
Beispiel 1: Kampagne für einen Kleinwagen. Der Hersteller eines Kleinwagens möchte diesen möglichst effizient bewerben und hat diverse Überlegungen bezüglich der „richtigen“ Zielgruppe angestellt. Verschiedene Testschaltungen zeigen überraschend, dass die Kampagne nicht substantiell besser funktioniert wenn sie nur Leuten angezeigt wird die zuvor auf Auto-Seiten waren. Der gewünschte Effekt tritt erst ein mit einem Targeting auf Frauen mit höherem Einkommen. Der Effekt lässt sich eigentlich recht plausibel erklären, denn Besucher von Auto-Seiten sind schlicht nicht an Kleinwagen interessiert sondern an grossen und schnellen Autos. Die Zielgruppe liess sich deutlich effizienter soziodemographisch beschreiben! (beruht auf einem realen case)
Beispiel 2: Ein Fastfood-Hersteller möchte eine neue Low-Fat Produktgruppe bewerben. Hier stellt sich natürlich noch viel deutlicher die Frage woher die passenden Targeting-Einstellungen kommen sollen? Es gibt ja keine (oder nur sehr wenig besuchte) low-fat Websites. Einfache Soziodemographie hilft hier aber auch nicht weiter. Hier muss im Prinzip mit einer Mischung aus hochgerechneten Interessen und Psychographie gearbeitet werden um die Gruppe der Low-Fat Interessierten die offen sind für Fast-Food zu identifizieren. Einfaches Targeting führt hier ebensowenig zum Ziel wie Re-Targeting.
Also: was kann Agentur-Targeting und was nicht?
Zunächst mal muss ein bisschen genauer definiert werden, was unter Targeting zu verstehen ist. Es sollte nämlich zwischen zwei grundsätzlichen Spielarten des Targetings unterschieden werden. Einfaches Targeting beruht nur auf Mess- und Trackingdaten. User werden bei einem bestimmten Verhalten beobachtet und später mit dazu passender Werbung konfrontiert. Das einfache Behavioral Targeting und vor allem das sog. Re-Targeting fallen in diese Kategorie (im obigen Beispiel wäre das Targeting auf Auto-Interessierte als einfaches Behavioral Targeting zu verstehen). Beim Re-Targeting werden z.B. Shop-Abbrecher später nochmal mit gezielten Werbebotschaften angesprochen. Oder Besucher einer Urlaubs-Website erhalten einige Tage später nochmal Sonderangebote eingeblendet, die auf Ihre vorherige Suchabfrage auf dieser Seite abgestimmt sind.
Diese Formen des Targetings gibt es schon lange – man weiß aber heute, dass sie in ihrer Brauchbarkeit limitiert sind. Dies liegt zum einen daran, dass das Internet ein sehr fragmentiertes Medium ist und User an tausenden verschiedenen Orten surfen. Dementsprechend sind die Wiedererkennungsraten im Re-Targeting sehr gering. Aber es zeigt sich auch darin, dass sich häufig viel weniger User z.B. als auto-interessiert über Ihr Klickverhalten zeigen als man es erwarten würde – sie surfen einfach auf anderen Webseiten zu dem Thema. Zum anderen sind diese Ansätze sehr limitiert wenn es darum geht Werbung für Produktgruppen zu machen für die es kaum Surfverhalten gibt, z.B. die große Gruppe der Fast-Moving-Consumer Goods (FMCG).
Deshalb wurden in den letzten Jahren neue Targeting-Verfahren entwickelt die mit statistischen Algorithmen und Verfahren aus dem Machine Learning arbeiten um die Targeting-Profile relevanter und aussagekräftiger zu machen (sog. Predictive Behavioral Targeting).
Diese Verfahren beruhen meist darauf die Messdaten um weitere Datenquellen zu anzureichern – z.B. Online-Befragungen. Die Ergebnisse werden dann mit den speziellen Algorithmen hochgerechnet (üblicherweise in realtime).
Diese neueren Verfahren gelten als zukunftsträchtig und verdrängen heute schon einfachere Targeting-Verfahren – bis auf Spezialfälle wo z.B. mit den Nachteilen des Re-Targetings bewusst gelebt werden soll.
Und da sind wir dann auch schon beim Problem, wenn es um Agentur-Targeting geht.
Denn jede Art der Hochrechnung erfordert einen ziemlich anspruchsvollen Zugang zu den Daten – die Hochrechnung kann nämlich nur funktionieren, wenn die Struktur der Nutzerschaft gut bekannt ist und vor allem möglichst störungsfreie Zufalls-Stichproben gezogen werden können. Da häufig von wenigen tausend Fällen auf viele Millionen User hochgerechnet werden muss und somit ein Stichprobenfall für tausende echte Fälle steht, sind Störungen in der Datenerhebungen sehr kritisch zu sehen und können schnell zu fehlerhaften Daten führen. Außerdem müssen die Daten und letztlich die Userschaft sehr gut bekannt sein um das System kalibrieren zu können.
Was hat das denn in Gottes Namen mit Agentur-Targeting zu tun wird der geneigte Leser denken?
Recht viel. Denn anders als Vermarkter und Publisher haben Agenturen in aller Regel nur einen sehr indirekten Zugriff auf das Inventar auf dem Ihre Kampagnen und damit auch Ihr Targeting-System laufen. Die Ad-Server der Vermarkter entscheiden nämlich von Fall zu Fall nach zig Kriterien, ob Agentur A oder Agentur B oder eben eine andere Kampagne den Zuschlag erhält und somit ausgeliefert wird.
Der Vermarkter-Ad-Server ist also das führende System und das Agentur-System ist immer nur von diesem abhängig zu sehen.
Das ist für die normale Kampagnen-Auslieferung soweit kein Problem – es wird aber zu einem sehr gravierenden Problem, wenn es um die Frage des Targeting-Systems geht.
Denn es ist mit derartig aufgestellten Agentur-Infrastrukturen schlicht nicht möglich zu einer auch nur halbwegs kontrollierten Ziehung zu kommen, die zu einer repräsentativen Stichprobe führen könnte. Dies wird übrigens dadurch noch verschlimmert, dass die Agentur Ihr System ja über mehrere Vermarkter hinweg betreiben wird – bei den jeweiligen Vermarktern aber häufig völlig andere oder zumindest anders konfigurierte Ad-Server im Einsatz sind.
Hinzu kommt, dass Agenturen auch inhaltlich meist nur einen bestenfalls indirekten Zugriff auf den Content haben auf dem die Werbung (und Ihre Zähl-Pixel) ausgeliefert werden. Da Targeting-Profile aber aus dem Content gespeist werden und vor allem Hochrechnungen und statistische Verfahren maßgeblich aus aggregierten Content-Daten entstehen ist dieser indirekte Zugriff eine schwerwiegende Limitierung für die Leistungsfähigkeit und Genauigkeit des Verfahrens.
Man kann dieses Problem übrigens anhand eines unter Spezialisten gut bekannten Phänomens dingfest machen: Im Campaign-Management und Trafficking braucht man üblicherweise valide Schätzungen und Hochrechnungen der zu erwartenden Reichweite bei einer bestimmten Parametrisierung der Kampagne. Dieser Inventar-Forecast gelingt mit den richtigen Ad-Servern oder Spezialtools auf Vermarkterseite üblicherweise inzwischen ganz gut – auch für Targeting-Zielgruppen. Für ein Agentur-System wäre ein entsprechender Forecast jedoch kaum möglich, da auch dieser einen kontrollierten und unbeeinflussbaren Zugriff auf das Gesamtinventar (und eine stabile Auslieferung) erfordert.
Wenn also Agenturen mit Ihren Targeting-Systemen modernes Predictive-Targeting einsetzen wollten, würden sie nie auf einen grünen Zweig kommen – ganz abgesehen davon, dass üblicherweise eh die Agentur kaum die Möglichkeit hat eigene Befragungen durchzuführen.
Was also kann Agentur-Targeting, was kann es nicht?
Agentur-Targeting kann sicherlich gut einfache Formen des Targetings wie z.B. Re-Targeting umsetzen. Hier profitiert das Agentur-System von der einfach zu erreichenden grossen und vermarkterübergreifenden Reichweite. Intelligentere Re-Targeting Varianten die mit statistischen Profilen etc. arbeiten, dürften jedoch schwierig umzusetzen sein (bzw. schlicht nicht gut funktionieren).
Andere Dinge, die auf reinen Messdaten basieren, wären z.B. globales Frequency-Capping. Auch dies kann ein übergreifendes Agentur-System gut lösen. Beim moderneren Frequency-Boosting, das eingesetzt wird um die Kontaktdosis auf ein gewünschtes Maß zu heben jedoch versagt die Agentur-Mechanik wiederum aufgrund des Datenproblems.
Was definitiv nicht oder nur in ungenügender Qualität funktionieren wird, sind alle moderneren Formen des Targetings, insbs. Predictive Targeting. Dies wird sich erst dann ändern, wenn Agenturen sich einen exklusiven und netzwerkübergreifend kontrollierbaren Zugriff auf das Inventar der Vermarkter und Publisher verschaffen – also das technisch führende System werden.
Anders gesagt: beide oben beschriebenen Beispiele für Targeting-Anforderungen liessen sich mit einem Agentur-Targeting-System nicht oder nur schlecht bedienen – um mehr Mc-Donalds Budgets online zu sehen wäre es aber wichtig, den Kunden mit einem bestmöglichen Targeting zu überzeugen.
Hinzu kommt noch die Spezialbaustelle der Kreation und der Werbeformate. Gutes Targeting geht häufig einher mit smarter und ggf. sogar intelligenter Kreation die auf unterschiedliche Zielgruppensegmente anders reagiert. Auch hier haben die „Inhaber“ des Inventars, also Vermarkter und Publisher die deutlich besseren Karten weil sie ggf. auch an Standards vorbei neue und innovative Werbeformen einsetzen können um das Targetingziel zu stützen. Agentur-Systeme hingegen können aufgrund Ihrer indirekten Einbindung in verschiedene Ad-Server nur auf die gängigsten Standards setzen und sind damit bzgl. intelligenter Kreation immer limitiert.
Spannend wird die Sache übrigens, wenn man sich mal überlegt, wie stark ein vermarktergetriebenes übergreifendes Targeting-System wäre, das den oben dargelegten Sachverhalt zu seinen Gunsten ausnutzt und zugleich alle sinnvollen netzwerkübergreifenden Features implementiert – aber das ist ein Thema für einen anderen Artikel…
Als Fazit bleibt festzuhalten, dass Agentur-Targeting-Systeme aus sehr grundsätzlichen Problemen heraus immer nur limtiert sein werden und über einfaches Targeting nicht hinauskommen werden. Was ja nicht schlecht sein muss – für klug gebaute Re-Targeting Kampagnen gibt es ausreichend Nachfrage.
Aber wenn es darum geht Targeting in optimaler Form für unsere Branche weiterzuentwickeln und Online zu einem immer professionelleren und hochwertigeren Medium zu entwickeln, bringt Agentur-Targeting mehr Risiken als Chancen mit sich. Da es notorisch moderne Targeting-Varianten ausschließt – von den Agenturen aber den eigenen Werbekunden bevorzugt angeboten werden wird, besteht die Gefahr, dass die Werbekunden enttäuscht sind und Ihre Budgets weiterhin nur in therapeutischen Dosen online ausgeben.
Optimales Targeting wird der Advertiser also in Zukunft dann erhalten, wenn Agentur- und Vermarkter-Targeting Hand-in-Hand arbeiten. Intelligente Zielgruppenqualifizierung inkl. Kontaktklassenoptimierung sollte das Vermarkter-System machen – ergänzt um Auslieferungs-Steuerungen etc., die auch gut von einem Agentur-System erledigt werden können.
In einem Folge-Artikel werden wir darlegen wie ein übergreifendes, aber vermarktergetriebenes Targeting-System eigentlich die beste Lösung darstellen würde – übrigens auch für Agenturen!
Ein Kommentar