Der folgende Artikel ist erstmalig auf dem Blog der OMD 2008 in Düsseldorf veröffentlicht worden – und wurde an ein paar Stellen überarbeitet sowie mit einem weiteren Kapitel am Ende ergänzt.
Targeting war auf der online-marketing- düsseldorf eines der zentralen Themen – zurecht, wie ich finde. Denn es spricht vieles dafür, dass Targeting die Werbebranche in den nächsten 10 Jahren vom Kopf auf die Füße stellen wird. Und das nicht nur im Internet! Targeting ist seit etwa drei Jahren ein Mega-Trend. Allgemein ist aber wenig bekannt, dass es Predictive Targeting schon sehr viel länger gibt – die Wurzeln reichen mindestens 20 Jahre zurück und eine der wichtigsten liegt in Deutschland.
Die Anfänge: Benutzermodellierung und Personalisierung
Der Ursprung des Predictive Targeting liegt in der Forschung zur Benutzermodellierung – die übrigens nach Meinung vieler Forscher in Deutschland ihren Anfang nahm. Schon in den 80er Jahren fanden sich zahlreiche Publikationen zu diesem Thema in der Fachöffentlichkeit. Eine der entscheidenden Personen ist dabei Prof. Alfred Kobsa, Mitgründer der Zeitschrift bzw. der Konferenzreihe „User Modeling“ und Autor zahlreicher Fachbeiträge, u.a. auch des Standardwerks über die “Benutzermodellierung in Dialogsystemen”.
Kobsa war damals Leiter eines Instituts der GMD (heute Fraunhofer Gesellschaft), die in einem Projekt unter Leitung von Dr. Josef Fink (heute Professor an der FH Frankfurt) gemeinsam mit anderen Forschungs- Einrichtungen (insb. dem European Media Laboratory des SAP-Mitgründers Klaus Tschira) ein System zur Benutzermodellierung entwickelte. Mit diesem System sollte im Rahmen einer Stadtbesichtigung von Heidelberg analysiert werden welche Sehenswürdigkeiten, Gebäude bzw. Orte Besucher interessieren. Zu diesem Zweck wurden die Bewegungen von Touristen aufgezeichnet und basierend auf Ähnlichkeiten in Profilen wurden Empfehlungen für weitere interessante Orte (i.S.v. „andere Besucher fanden auch interessant“) präsentiert.
Vom Prinzip her also eines der ersten Targeting-Systeme überhaupt – schon damals konnte man von “Predictive Targeting” sprechen, denn das System war ja in der Lage über das konkrete Verhalten hinaus Empfehlungen auszusprechen, die der Algorithmus zuvor generiert hatte.
Erste Anwendungen im Internet Hype um 2000
Zur Vermarktung von Technologie aus diversen Forschungsgruppen gründeten Fink und Kobsa mit anderen Forschern der GMD zusammen die Firma humanIT. Eine Technologie war der “Dynamic Personalization Server (DPS)”, der später als „ValueProfiler“ vermarktet wurde. Dahinter verbarg sich ein zur Marktreife entwickeltes System aus der Forschergruppe um Fink und Kobsa – also im Kern dem System, mit dem schon die Heidelberger Touristen seinerzeit gelotst wurden. Im Gegensatz zu den früheren Forscherzeiten verfolgte die Gruppe nun aber kommerzielle Interessen und richtete das Produkt am neuen Hype-Thema Internet aus. Wir erinnern uns zurück: 1998-2001, New Economy, alles ging, nichts war unmöglich.
So wurde auch mit viel Energie das Thema Targeting angegangen und es gab eine Vielzahl an Firmen und Projekten mit entsprechenden Anwendungen. Bekannt war die Technologie damals unter dem Begriff “Personalisierung”, seinerzeit vornehmlich von Content, mehr und mehr aber auch von Werbung, über deren Anpassung an den User zunehmend mehr die Rede war. Neben zahlreichen Web-Sites, die sich ganz dem vornehmlich durch User selbst anpassbaren Content widmeten (z.B. MyYahoo, „Mein T-Online“, usw.) stellte humanIT die Technologie für eines der fortschrittlichsten Personalisierungsprojekte seinerzeit im deutschen Internet zur Verfügung: die neue Website des Newsportals N24. Hier wurde erstmalig bei einem volumenstarken Endkunden-Portal mit echter “Predictive-Technologie” gearbeitet, die sowohl Content als auch Werbung an die Interessen der User anpasst.
Dazu analysierte das System permanent worauf die User klickten, legte daraus Benutzerprofile an und ergänzte diese mit entsprechenden Algorithmen (Lesetipp). Auch das Thema Datenschutz war damals schon heiß – bei N24 hatte man sich für eine im Kirch-Konzern überraschende Variante im Umgang mit diesem Thema entschieden: konsequente Pseudonymisierung, Transparenz und Offenheit. Denn die User wurden nicht nur über ihr Profil informiert, sie konnten die Mess- und Prediction-Daten auch einsehen und sogar ändern.
Kurz nach Fertigstellung der neuen N24-Website brach die Kirch-Gruppe dann in der herannahenden Internet-Eiszeit Stück für Stück auseinander. Damals versuchte auch ein anders großes Internet-Portal noch auf den Zug der Personalisierung aufzuspringen – T-Online wollte ähnlich den großen amerikanischen Portalen mit personalisierten Content-Bereichen (Mein T-Online) und Teasern die Bindung der User an das Portal erhöhen. Außerdem dachte man, dass “paid content” eine der erfolgversprechendsten Umsatzquellen werden würde. Der Zuschlag für die Lieferung der Technologie erhielt damals eine Firma namens „7d“ AG aus Hamburg – heute besser bekannt als WunderLoop.
Nicht alle der spannenden Projekte und Technologien von damals haben überlebt. Eine der fortgeschrittensten Varianten stammte von Martina Pickhardt mit Ihrer Cocus AG – die schon lange vor openID und Open-Social die Idee hatte User Ihre Profile von A nach B transportieren zu lassen – wobei B eine E-commerce Seite sein konnte die sich dann an die Interessen des Nutzers anpasste. Auch Ideen der “attention economy”, also dass User Geld dafür bekommen wenn sie Ihre Profile zur Verfügung stellen, waren damals schon implementiert. Im Vergleich dazu wirkt selbst manches was heute noch als brandneu announced wird old-fashioned.
Wiederauferstanden aus Ruinen: Die ersten Targeting-Systeme in Deutschland
Mit der Internet-Eiszeit verschwanden ab 2001 auch die Personalisierungs-Technologien fast vollständig vom Markt – weltweit. Einige wenige Technologien überlebten, wechselten aber mehrfach den Besitzer. So die Personalisierungstechnologie der 7d AG, die heute als WunderLoop-System wieder verfügbar ist und bei T-Online unter dem neuen Label “Targeting 2.0” vermarktet wird. Und auch die ehemalige Fink-/Kobsa-Technologie, die für die Personalisierung des N24 News-Portals verwendet wurde und im Gegensatz zum WunderLoop-System immer schon mit Predictive-Ansätzen ausgestattet war. Nach einigen Irren und Wirren landete diese Technolgie schließlich samt Personal beim Marktforscher TNS Emnid in Bielefeld. Ein schöner Ort um zu überwintern.
Und wie der Weltgeist so will, kam das System dann schnell wieder mit der Online-Forschung in Kontakt. Im Herbst 2002 wurde die AGOF gegründet mit dem Ziel dem Markt in schwierigen Zeiten eine Online-Währung zu geben. Die AGOF suchte dazu nach einer Möglichkeit Messdaten mit Befragungsdaten zu kombinieren und mittels Prognoseverfahren daraus einen Planungsdatensatz zu erstellen. Konsequenterweise kam dafür die Forschungsgruppe um das Profiling-System in Bielefeld wieder ins Spiel.
Ich war damals der Verantwortliche dieses Teams und erinnere mich noch genau an den Tag, als wir die Anfrage auf dem Konferenztisch in Bielefeld liegen hatten. Eine sehr attraktive Anfrage, soviel war klar. Aber faktisch unlösbar, so schien sie uns damals. Ich weiß nicht was mich dennoch dazu verleitet hat seinerzeit zu sagen “man könne es ja doch mal versuchen” – vielleicht war es der Kollege Pfeiffer aus der Statistik, der fortwährend (mehr oder weniger leicht?) den Kopf nur schüttelte — ich weiß es nicht mehr. Jedenfalls wollten wir alle mit unserem Algorithmus und dem dahinter liegenden Personalisierungssystem versuchen einen entsprechenden Datensatz hinzubekommen. Was dann kam war eine sehr harte, lehr- und entbehrungsreiche Zeit. Die zwei Jahre bis zur Auslieferung des ersten Datensatzes haben alle Beteiligten bestimmt zehn Jahre und mehr altern lassen. Aber das Ergebnis konnte standhalten und die internet facts der AGOF sind inzwischen als Marktstandard etabliert. Wow!
Mitten in dieser arbeitsreichen AGOF-Zeit kam eine nicht weniger spannende Anfrage aus Karlsruhe auf unseren Tisch: “man habe gehört, dass das eingesetzte System in der Lage wäre mehr oder weniger in Echtzeit das Profil eines Internet-Surfers zu schätzen. Ob man denn darüber mal sprechen könne?”. Und schon waren wir wieder in einem der spannendsten Targeting-Projekte dieser Zeit involviert. Der technische Projektmanager und väterliche Betreuer dieses Projektes war übrigens der Josef Fink, von dem oben schon einmal die Rede war…
Wir waren natürlich froh nach der langen Eiszeit die faszinierenden Anfänge aus der N24-Zeit wieder aufleben lassen zu können – denn eigentlich war das System ja für den Online-Betrieb konzipiert gewesen und es erschien uns manchmal fast schon absurd es für Offline-Modellierungen zu verwenden. Das Projekt mit web.de war dann auch eine faszinierende Herausforderung, war doch eines der führenden Portale im deutschen Internet mit Userinteressen quasi in Echtzeit zu versorgen. Die ursprünglichen Lasttests für unser Profiling-System waren mit 12.500 Usern gemacht worden – hier hatten wir es mit der hundertfachen Menge zu tun! Der Schwerpunkt lag jetzt ausschließlich auf Onlinewerbung, auch die Darmstädter Kollegen hatten ihren Fokus in diese Richtung geändert.
Der Grund warum web.de – später dann unter dem Dach von UIM/1&1 – bisweilen als Erfinder des Targeting für Online-Werbung gilt liegt wohl darin, dass das Team um Matthias Ehrlich von Anfang an mit voller Energie und exzellentem Marketing auf das Thema gesetzt hat. Da waren wir wirklich beeindruckt – manchmal hatte das fast schon etwas Furchterregendes, denn im Prinzip waren all diese Technologien über die Jahre immer als Addons zum Einsatz gekommen. Hier wollte es einer tatsächlich wissen und setzte mit seinem ganzen Geschäft auf den Erfolg dieser Technologie. Aus heutiger Sicht war das eine bemerkenswerte Weitsicht, die Matthias Ehrlich damals an den Tag legte.
Es war noch ein recht junger Markt, und die verfügbaren Systeme wurden anfangs nur zum Teil als Technologien zur Verminderung von Streuverlusten betrieben – viele Buchungen erfolgten auch weil das Versprechen des Targetings so verlockend war. Denn der Markt hatte noch nicht vollends verstanden worum es dabei ging und wie man die Wirksamkeit derartiger Ansätze messen kann. Auch die zahlreichen Probleme mit dem Einsatz derartiger Technologien im Buchungsalltag kamen erst nach und nach ans Licht. Zum Beispiel die notorische Reichweitenimplosion, weil einfach zu wenig „behavior“ zur Verfügung stand. Oder Schwierigkeiten mit dem Inventory Management, weil es plötzlich gar kein Inventory mehr gab, sondern nur noch frei flottierende “predictive”-Variablen. Aber die Systeme waren da und setzten einen Prozess des Umdenkens in der ganzen Branche in Gang.
Die zweite Hype-Phase: Predictive Targeting in den letzten 2 Jahren
Zur OMD06 war Targeting dann das Thema schlechthin, drei starke Anbieter waren auf dem Markt: WunderLoop, nugg.ad und UIM/TGP. Jeder sprach von der Einsatzreife und der Wirksamkeit seiner Technologie, Testprojekte begannen, es hagelte Pressemitteilungen und Finanzierungsrunden. Der zweite Hype ums Targeting, das vorher Personalisierung hieß, hatte begonnen. Immer noch völlig zu Recht, natürlich.
Wir bei nugg.ad dachten anfangs, wir würden jetzt nur noch unser ganzes Know-How in einem von Grund auf neu entwickelten System “auf die Straße bringen” müssen… aber ganz so einfach war es dann doch nicht. Die Revolution der Online-Werbung findet nun einmal nicht über Nacht statt. Ich erinnere mich noch gut an eines der allerersten Meetings mit Jochen Rabe von Interactive Media. Er fragte wie wir denn den Ad-Server anzusprechen gedächten. Wir waren ratlos. Das Konzept Ad-Server war uns schon bekannt, bei bisherigen Projekten gab es diese Schnittstelle ja auch. Allerdings meist in Form einer komplexen Backend-Integration. Wie man einen anderen Ad-Server ansprechen sollte war uns schlicht nur theoretisch klar. Andere Probleme kamen später hinzu, z.B. das Forecasting für Targeting-Kampagnen, garantierte Buchungen, Reporting, usw. Und wir mussten lernen, dass zwar jeder von Targeting sprach, im Buchungsalltag aber so gut wie keiner Ahnung davon hatte (wir ja auch nicht). Also starteten wir wieder einen langen Marsch.
Und lange Zeit – heute kann man das ja sagen – waren wir nicht wirklich sicher ob alles so funktionieren würde, wie wir uns das dachten: also eine Zielgruppe zu schätzen auf der Basis des Online-Klickverhaltens in Verbindung mit einer Befragung. Die Idee war wie oben geschildert schon ziemlich alt und auf eine Art auch gut erprobt. Auch die eingesetzten Algorithmen waren der scientific community schon längst bekannt. Aber ob es wirklich funktionierten würde, also am Ende bessere Kampagnen mit geringeren Streuverlusten herauskommen würden, war lange Zeit nur eine Hoffnung. Und wir hatten uns auch weit aus dem Fenster gelehnt, ganz zu schweigen von den vielen Fragen, die indirekt damit zusammenhängen, beispielsweise nach dem Geschäftsmodell.
In unserer anfänglichen Überzeugung und Naivität hatten wir zuerst einen echten Revenue-Share vorgeschlagen. Wir mussten dann aber schnell lernen, dass alle von der Idee begeistert waren, aber keiner offenlegen wollte, welcher Umsatz mit Targeting-Kampagnen überhaupt gemacht wurde. Auch mussten wir lernen, dass unsere akademische Argumentation bezüglich des Effizienzgewinns durch Targeting häufig durch simple Preisnachlässe am point of sale ausgehebelt wurde.
Auch nahm die Komplexität des Themas nicht ab. Nachdem wir uns nach kurzer Zeit bereits im Schlafe durch die verschiedenen Ad-Server bewegen konnten, wurde uns plötzlich klar, dass mit Ad-Networks nochmal ganz neue Probleme auf uns zukamen. Es war auf einmal nicht mehr trivial einen “Tag” auf eine Seite einzubauen, weil diese dem Vermarkter gar nicht gehörte. Außerdem waren es plötzlich nicht zwei oder drei Portale, sondern durchaus auch einmal tausend Webseiten und mehr. Und viele davon wurden nicht exklusiv beschaltet – wie sollte Targeting nur unter diesen Umständen funktionieren? Und wie mit dem Content umgehen, ganz ohne AGOF-/InfONline-Kategorien, oder ähnliches? Nun sind wir zwei Jahre weiter und wieder einen großen Schritt voran gekommen. Die Technik ist erprobt und deren Wirksamkeit auch in Ad-Networks bewiesen. Auch mit einem für alle Seiten akzeptablem Geschäftsmodell.
Mit viel Training, Schulung und Überzeugungsarbeit – immer noch und immer wieder. Die Targeting-Revolution wird kommen, davon bin ich heute überzeugter als jemals zuvor. Wir sind mittendrin! Aber sie wird weder einfach kommen, noch schnell. Es wird harte Arbeit sein, die Technologie muss noch besser werden und wir werden wahrscheinlich auch in 2 Jahren noch Überzeugungsarbeit leisten. Insofern freue ich mich heute schon auf die online-marketing-düsseldorf 2010, egal ob in Köln oder Düsseldorf, ehrlich. Targeting wird wieder ein heißes Thema sein, soviel ist sicher.
Anfang 2021 – Targeting wird zum Standard
Zur Entwicklung des Targetings in 2009 und den Aussichten für 2010 haben wir uns ja hier in diesem Blog schon verschiedentlich geäussert, deshalb hier nur im Abriss: Inzwischen wurde das TGP-System von United Internet Media in WunderLoop eingebracht und soll mit deren System verschmolzen werden. Es wird schon gemunkelt dass Torsten Ahlers bzw. sein CTO dafür den Preis für das IT-Projekt des Jahre erhalten wird (welches Jahr das sein wird muss man sehen ). Vor dem Hintergrund der oben dargestellten Geschichte stimmt diese Entwicklung ein klein wenig melancholisch – verabschiedet sich doch eines der erfahrensten und lange Zeit auch mutigsten Teams aus dem Thema – Kollegen mit denen wir sehr gerne zusammengearbeitet haben.
Davon abgesehen wird 2021 die extrem gute Entwicklung des Targetings in 2020 fortsetzen und Zielgruppenbuchungen zum Standard in der Online-Mediaplanung machen. Auf der Basis dieser soliden Entwicklung werden wir darüberhinaus weitere Produkte und Erweiterungen sehen die auf den Grund-Errungenschaften des Predictive Targetings aufsetzen – wie z. B. die Buchbarkeit nach GRP.
Die Geschichte ist jedenfalls noch lange nicht zu Ende – sie hat nur mehr Fahrt aufgenommen, und inzwischen sehr deutlich das Laborstadium verlassen. Seien wir gespannt auf das nächste Update dieses Textes…