
Kundenbeziehungsmanagement ist ein wichtiger Faktor für Unternehmen. Nutzerbindungen spielen hierbei eine tragende Rolle und können durch verhaltensbasierte Analysen aufgebaut werden.
Grundlegende Fragen sind: Wie wird das vorhandene Angebot genutzt? Wer sind die aktivsten Nutzer? Gibt es Gemeinsamkeiten oder Synergien zw. den Nutzerverhalten? Die Herausforderung besteht in der effizienten Aufbereitung und Auswertung von großen Datenmengen.
Zielpublikum: Big Data Engineers, Data Scientists, Projektleiter, Entscheider
Voraussetzungen: Grundlagen Data Management, Grundlagen Datenaufbereitung, Interesse an Machine Learning/Deep Learning
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract
'Kundenzufriedenheit, -bindung und -wertermittlung sind wichtige gewinnbeeinflussende Faktoren. Daher grenzen sich Unternehmen schon lange nicht mehr nur über das Endprodukt voneinander ab, sondern ebenfalls über Zusatzdienste. Um die Wirksamkeit bzw. Rentabilität der Zusatzdienste sowie die dadurch entstehenden Kosten nachvollziehbar zu machen, ist es von Bedeutung, alle entstehenden Daten zusammenzuführen und geeignet zu aggregieren.
Pro Monat und angebotenem Dienst können in einem realen Umfeld mehrere Milliarden Einträge durch Kundenaktionen in Logfiles produziert werden. Diese fallen in unterschiedlichsten strukturierten, semistrukturierten oder unstrukturierten Formaten an. Im Zuge der Datentransformation werden komplex geschachtelte JSON- oder XML-Files, strukturierte CSVs oder Tabellen, die aus relationalen Datenbanksystemen stammen, verarbeitet und zentral für alle Verantwortlichen dienstübergreifend zugänglich und in einheitlichem Datenformat abgelegt.
Die Möglichkeit, diese enormen, inhomogenen Datenmengen performant zu verarbeiten, zu speichern und zu analysieren, bieten moderne Technologien wie Hadoop, HIVE und Spark. Aufgrund der Parallelisierung der Rechenvorgänge sind Transformationen auf Datensatzgrößen mehrerer Milliarden Zeilen in kurzer Zeit ausführbar. Die elementaren Aspekte, die hierbei beachtet werden müssen, sind die Laufzeit der Datentransformation, die Aktualität der Daten, mögliche Formatwechsel sowie eine laufende Qualitätssicherung.
Anhand der bereinigten Daten können anschließend sowohl Kennzahlen als auch spezielle Kundengruppen durch einfache ABC-Analysen definiert werden. Diese Werte können verwendet werden, um zu errechnen, wie das zur Verfügung gestellte Angebot an technischen Assistenten oder Multimediaanwendungen genutzt werden und wie sich das Kundenverhalten auf diesen Systemen verändert.
Durch intelligente Algorithmen können passende Marketing-Aktionen gestaltet und automatisiert verbessert werden, was die Kundenbindung messbar erhöht. Dies geschieht einerseits mit traditionellen Methoden, indem Nutzer, welche eine längere Zeit nicht aktiv waren, spezielle Angebote erhalten, und andererseits mit Verfahren aus dem Bereich Machine Learning. Ein Beispiel wären Empfehlungen auf Basis von Clustering-Algorithmen, bei denen bereits verwendete Dienste und möglicherweise interessante Systeme abgeglichen werden. Auch Deep-Learning-Verfahren können durch die Kennzahlen der aktiven User validiert und verbessert werden.
Für das Monitoring der Testfahrzeugflotte und auftretender Probleme wird ein intelligentes, interaktives und automatisiertes Reportingtool vorgestellt. Neben dem Reporting ist auch eine Ursachenanalyse bei auftretenden Problemen möglich - dank der Interaktivität auch live in einem Meeting. Im Vortrag werden die Entwicklungsschritte von der Projektidee bis zum Tool in Produktion vorgestellt, insbesondere die Herausforderungen, die dabei aufgetreten sind.
Zielpublikum: Projektleiter, Fachabteilungsleiter, Entscheider
Voraussetzungen: Grundlagen BI und Reporting, Grundlagen Datenmanagement
Schwierigkeitsgrad: Anfänger
Extended Abstract
'Von der Projektidee bis zum Tool in Produktion gibt es viele Herausforderungen. Diese liegen nicht unbedingt in der Entwicklung leistungsfähiger Algorithmen, sondern z.B. in der Verknüpfung verschiedener Datenquellen und Erstellung einer Datenpipeline oder der Überprüfung der Datenqualität mit Fehlererkennung und -bereinigung. Zudem zeigen wir, wie sich durch eine interaktive, intelligente, automatisierte Datenvisualisierung in Echtzeit in kurzer Entwicklungszeit bereits große Vorteile gegenüber einer statischen Lösung erzielen lassen und der Nutzer selbstständig umfangreiche Analysen durchführen kann. Aber auch die Zusammenarbeit der Fachexperten mit Data Scientists wird thematisiert, denn nur durch Kombination des fachlichen Spezialwissens mit den methodischen Kompetenzen des Data Scientists kann eine zufriedenstellende Lösung der Problematik entwickelt werden.