Künstliche Intelligenz: „Wir erkunden eine Terra Incognita für das Marketing“

Ein Interview mit Prof. Dr. Raoul Kübler vom Marketing Center der Westfälischen Wilhelms-Universität Münster

 

Prof. Dr. Raoul Kübler lehrt am renommierten Marketing Center der Westfälischen Wilhelms-Universität Münster. Zudem ist er Gastprofessor an der University of Amsterdam, der Freien Universität Amsterdam und der Graduate School of Management and Economics an der University of Geneva, wo er im Executive Programm Marketing-Entscheidern die neuesten AI- und Machine-Learning-Methoden näherbringt.

Im Interview mit Gunnar Brune von AI.HAMBURG erklärt Prof. Dr. Kübler, wie man mithilfe von künstlicher Intelligenz User Generated Content auswertet und welche Vorteile das für Unternehmen bringen kann. So geht es zum Beispiel darum, Markenbekanntheit zu messen, Kunden-Einstellungen gegenüber Marken zu analysieren sowie darum Hate-Speech, Shitstorms und andere Risiken frühzeitig zu erkennen.


Neuigkeiten aus dem KI-Kosmos gibt es übrigens regelmäßig
über den AI.Hamburg Newsletter  – jetzt anmelden! 


Gunnar Brune/AI.Hamburg: Prof. Kübler, Sie forschen im Bereich Marketing Analytics und sind ein Pionier im Einsatz von Machine Learning in der Marketing Forschung, was ist Ihre zentrale Forschungsfrage?
Prof. Kübler: In unserer aktuellen Forschung versuchen wir unter anderem herauszufinden, wie man mit User Generated Content die klassischen survey-based oder mindset-based Brand-Metrics ersetzen kann. In anderen Worten: Wir machen Marktforschung zur Unterstützung von Marketingentscheidungen. Zum Beispiel: Wir können Markenbekanntheiten messen oder Meinungen über Marken darstellen. Wir können Kundenverhalten voraussagen, zum Beispiel ob ein Kunde vermutlich bald die Marke wechseln wird. Bisher wurden dafür vor allem Umfragen eingesetzt, wir nutzen dagegen tatsächliche Aussagen und Konversationen von Zielgruppen und Kunden aus dem Internet.

Gunnar Brune/AI.Hamburg: Welchen Vorteil versprechen Sie sich davon?
Prof. Kübler: Durch die Arbeit mit User Generated Content (UGC) haben wir drei Vorteile: Wir nutzen authentische Konsumentenaussagen und sind frei von Befragungs- oder Panel-Einflüssen. Wir sind sehr schnell, denn die Erfassung kann dann durch die Unterstützung von Künstlicher Intelligenz in Echtzeit erfolgen. Drittens können wir mit hohen Fallzahlen arbeiten und damit die Prognosequalität verbessern.

Gunnar Brune/AI.Hamburg: Wie gehen Sie dabei vor?
Prof. Raoul Kübler: Wir nutzen die neuesten Verfahren und Algorithmen im Machine Learning zusammen mit den aktuellen Tools und Algorithmen aus der Linguistik. Dabei entwickelt sich schnell ein Entscheidungsbaum, der relativ komplex wird: Welche Daten brauche ich, um meine AI zu trainieren? Welche Algorithmen passen zu welchen Mindset Metrics? Wie beeinflussen Kontextfaktoren die jeweilige Eignung? Dabei ist das Interessante, dass wir auf Fragestellungen stoßen, die vor 30-40 Jahren bei den survey based Methoden auch aufgetaucht sind: Wo bekomme ich die Daten her? Wie teile ich die Daten auf? Kommt es zu Verzerrungen durch strategisches Antwortverhalten? Wir sehen dazu, dass neben dem Einsatz von AI und UGC zur Messung und Vorhersage der klassischen KPIs und Mindset Metrics, AI im Marketing auch andere, konkretere Probleme adressieren kann, wie zum Beispiel die Identifikation ob ein Kunde wiederkommt, oder abwandert (Churn-Rate), Kundenprofitabilität und andere Dinge, die zum Beispiel im Vertrieb von hohem Interesse sind. Aber auch hier bleibt immer die Herausforderung, dass künstliche Intelligenz große Mengen an guten Trainingsdaten benötigt, mit denen man die künstliche Intelligenz so füttert, dass sie überhaupt „intelligent wird“.

Gunnar Brune/AI.Hamburg: Lassen Sie uns nochmal zu den ersten Fragen zurück. Wie lösen Sie diese?
Prof. Raoul Kübler: Gerne. Wenn ich eine Antwort suche, dann ist, wie eben schon gesagt, die erste Frage: Wen befrage ich?
Für uns heißt das, wo finde ich die Daten im Internet? Praktisch kann das die Frage sein, ob ich Amazon Reviews nehme oder Instagram Posts auswerte. Die nächste Frage ist: Wie werte ich die Daten aus?
Wenn ich Texte oder Bilder vorliegen habe, weiß ich zunächst nicht, was diese bedeuten. Ich muss Tools identifizieren, um damit zu arbeiten. Zum Beispiel kann ich mit künstlicher Intelligenz eine Sentiment-Analyse durchführen oder Text-Mining betreiben, aber ich muss mir vorher überlegen, welches Verfahren relevante Antworten liefert.

Erst an diesem Punkt stellt sich die Frage, welchen Algorithmus man nutzt. Hier gibt es tausende Möglichkeiten. Es fängt mit naiven baysianischen Algorithmen an. Wir alle kennen diese aus unseren Spamfiltern. Sie vergleichen Merkmale und leiten daraus Wahrscheinlichkeiten ab: Wie wahrscheinlich ist es, dass eine Mail Spam ist, dass eine Aussage positiv oder negativ ist oder dass ein Kunde den Anbieter wechseln wird. Dann gibt es Support-Vector-Machines, die Muster erkennen können und viele andere Möglichkeiten. Bei jedem Algorithmus muss dann bestimmt werden, wie er spezifiziert wird, welche Faktoren und Variablen genutzt und analysiert werden sollen. Das ist sehr komplex und bedarf viel Erfahrung.

Weiterlesen!


AI.Hamburg ist Gründungsmitglied der AI4Germany Initiative, bei der sich führende Initiativen im Bereich Künstliche Intelligenz (KI) zusammenschliessen, um die lokale Wirtschaft und Gesellschaft in Deutschland aktiv bei der Anwendung von künstlicher Intelligenz zu unterstützen – und damit Deutschland ins KI-Zeitalter zu begleiten. Ganz konkret fördert AI.Hamburg den breiten Einsatz von künstlicher Intelligenz und insbesondere des maschinellen Lernens in Unternehmen im Norden durch Erfahrungsaustausch und Wissensvermittlung auf einschlägigen AI Events wie dem AI InfoBreakfast und verschiedenen Workshop-Formaten.

Der AI.Hamburg Newsletter versorgt dich regelmäßig mit Neuigkeiten aus dem KI-Kosmos – jetzt anmelden!