Die im Konferenzprogramm der TDWI München digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Für alle, die eine alternative Darstellung bevorzugen bieten wir unser Programm-PDF an:
» Zum PDF-Download
Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.
Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu. Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.
Zielpublikum: Analytics Manager, Data Scientist, BI & Big Data Experten, Automotive Interessierte, Verantwortliche für Digitalisierung, etc.
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu.
Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.
Eingebettet in das konsequent implementierte Performance Management System stellt BMW Deutschland mit C1 Advanced Analytics in der Breite und Tiefe über alle Vertriebsstufen passgenaue Lösungen bereit, um den Entscheidern bis hin zum Point of Sales einerseits maximale Transparenz über die aktuelle und künftig zu erwartende Geschäftsentwicklung zu geben. Andererseits werden auf Basis von Daten systematisch Entscheidungen getroffen und Maßnahmen zur Performance-Steigerung implementiert und stringent nachverfolgt. Die Beherrschbarkeit und Kosteneffizienz im Betrieb werden über automatisierte Abläufe wie z.B. die Konsolidierung und Harmonisierung von Händler-Reports professionalisiert. Dies führt hat über neue Berufsbilder in Kombination mit einer zielgerichteten Befähigung der Mitarbeiter in der Organisation gesamthaft zu einem 'New Way of Working' sowie zu gesteigerten Nutzung von Marktpotenzialen geführt. Gleichermaßen konnten über die Konsolidierung von Data Assets sowie eine strikte Data Governance erhebliche Effizienzsteigerungen realisiert werden. Letzteres hat sich insbesondere auch in der Corona-Krise bewährt.
Die technische Lösung basiert auf einer Cloud Data Plattform, in der alle relevanten Daten (strukturiert und unstrukturiert) so zusammengeführt werden, dass mit Hilfe von modernen Frontendlösungen alle relevanten Informationen zeitgerecht bereitgestellt. Teilweise werden bereits KI-Funktionalitäten genutzt, um beispielsweise die Allokation von Vertriebsförderungsmaßnahmen zu optimieren. Dafür werden sehr große Datenmengen mit komplexen Machine-Learning-Methoden verarbeitet, die Ergebnisse jedoch für die Anwender in benutzerfreundlicher Form im Frontend aufbereitet.
Seit 2018 wurde die Transformation zu einer datenbasierten Vertriebs- und Ergebnissteuerung im Markt systematisch vorangetrieben und seitdem mit über 80 umgesetzten Use Cases stetig ausgebaut. Die Geschäftsbereiche Finanzen/ Strategie (Weiterentwicklung zur Rolle als 'Performance Manager'), Vertrieb, Customer Support sowie und Marketing werden datenbasiert über das Performance Management System eng miteinander verzahnt und in die Lage versetzt, noch zielgerichteter zu steuern, um identifizierte Marktopportunitäten für die Vertriebsregion BMW Deutschland konsequent zu heben.
Im Vortrag werden der erfolgreiche Weg hin zu einem datenbasierten Arbeiten skizziert sowie die technische Architektur und beispielhaft ein Advanced Analytics Use Case aufgezeigt.
Self-Service Analytics: Fluch oder Segen?
Erfahren Sie, wie Sie die praktischen Herausforderungen bei der Einführung von Self-Service Analytics überwinden.
Begleiten Sie STADA Arzneimittel AG auf ihrem Weg zur Data-driven Company und welche Rolle Self-Service Analytics dabei einnahm.
Die Lektionen die wir dabei lernten werden Ihnen helfen die Hürden und Fallstricke zu meistern, um so die Datenanalyse-Kultur in Ihrem Unternehmen in einen Segen zu verwandeln.
Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Oktober 2021 ist er Senior Advisor New Business & Strategy bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge zur Entwicklung des Data & Analytics-Marktes veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Klaus-Dieter Schulze ist seit 2012 Mitglied im Vorstand des TDWI e.V.
Vortrag Teilen
Wohin geht der Trend? Wie entwickelt sich der Markt? Welche neuen Möglichkeiten bieten sich? Produktmanager müssen von Natur aus zukunftsorientiert arbeiten und mitunter in die Glaskugel blicken. Je höher die Anzahl und je diversifizierter die Waren, umso komplexer die Portfolioplanung. Das Produktmanagement bei ratioform steht täglich vor genau dieser Herausforderung – und hat mit Hilfe innovativer Technik eine zukunftsorientierte Lösung gefunden!
Zielpublikum: product managers, data management experts, ML specialists, decision makers
Voraussetzungen: experience
Schwierigkeitsgrad: Fortgeschritten
I will show the journey that Tires took from its first attempts to extend their BI services for analytics to operate a mission critical industrialization environment which runs several AI projects. Beneath the problems and obstacles that were taken I will also explain the decisions that were taken and show the industrialization environment which was created. I also will explain why it was necessary to have such an environment instead of making use of classical BI tools.
Target Audience: Project leader, decision makers, CIO, Software engineers
Prerequisites: None
Level: Basic
Extended Abstract:
When Continental Tires started to establish Data Science as a function it decided to grow this out of BI but with an external employee. The journey was a long one but due to the given experience Continental was able to leave out some of the painful experiences that were made in other companies. So they decided to build up an infrastructure for industrialization of Use Cases from the first minute. The example of Tires is a good one to understand the roadmap from BI to Data Science industrialization. While in the beginning there was the hope that a simple extension of BI and BI tools would deliver an answer today the organization is a complete different one. Also Tires created an own landscape for industrialization of AI. Why this is done so and why this might be useful will be shown in the talk.
Quantifying the impact of customer experience (CX) improvements on the financials is crucial for prioritizing and justifying investments. In telecommunication as well as other subscription-based industries, churn is one of or the most important financial aspects to take into account. The presented approach shows how the churn impact of CX improvements – measured via Net Promoter Score (NPS) – can be estimated based on structural causal models. It makes use of algorithms for causal discovery and counterfactual simulation.
Target Audience: Data Scientist, Decision Maker
Prerequisites: basic understanding of statistical modeling
Level: Advanced
Künstliche Intelligenz analysiert natürlichsprachliche Texte, um präzise, robusteSyntaxbäume abzuleiten. Die syntaktische Struktur einer Aussage ist aber oft weniger wesentlich als ihre semantische Struktur. Sprich:Was besagt sie? Welcher Sinn steckt in ihr? Ein Fokus auf die Bedeutung führt dazu, dass eine kleine Anzahl an Referenzsätzen ausreicht, um eine große Anzahl semantisch entsprechender aber unterschiedlich strukturierter Ausdrücke entdecken zu können. Die Technik lässt sich in verschiedenen Bereichen anwenden: Conversational Interfaces, themenbasiertes Matching und die Dokumentenklassifizierung.
Zielpublikum: spezialisierte Analysten, Entwickler, Architekten
Voraussetzungen: Ein grundlegendes Verständnis der gesprochenen Sprache
Schwierigkeitsgrad: Anfänger
ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. An AI project was started to get reliable + fast results on root cause discovery. Speed is important because production runs 24 hours/7 days a week. The target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.
Target Audience: Production manager, quality manager, CDO, CIO
Prerequisites: none
Level: Basic
Extended Abstract:
The ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. Each transmission is 100% tested in every technical detail before shipment. The plant Saarbrücken is a forerunner and lead plant in innovative Industry 4.0 technologies. Therefore, activities were started to tackle one significant challenge, which is caused by the enormous variant diversity: Finding root-causes for unsuccessful end of line testing. The management of the complexity is a big challenge because transmission parts can be produced in a huge number of variant processes. Process experts from each domain, like quality and testing, assembly departments and manufacturing units, had to spend significant time in analyzing influencing factors for malfunctioning and deciding on best action to prevent end of line test failures.
Therefore, an AI project was started with the objective to get reliable and fast results on root cause discovery. Speed is important because production runs 24 hours / 7 days a week. The sooner the real reasons for malfunctions are discovered, the sooner activities can be implemented to avoid bad quality. This saves a lot of time and reduces significant waste. The Target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.
Complex root-cause findings can be reduced from several days to hours.
ZF's intention with the digitalization approach is to deliver fast information to the people who are responsible for decision processes to keep a plant in an optimal output with high quality products. A self-learning AI solution Predictive Intelligence from IS Predict was used to analyze complex data masses from production, assembly, and quality to find reliable data patterns, giving transparency on disturbing factors/factor combinations. For training algorithms, end to end tracing data was used, made available in a data lake.
Britta Hilt beschäftigt sich seit 2011 mit der Anwenderseite von Künstlicher Intelligenz. Sie ist Mitbegründerin und Geschäftsführerin der KI-Firma IS Predict, die sich einen Namen gemacht durch ihre Automatisierung von Data Science sowie durch erklärende KI. Vor der Gründung von IS Predict war sie über 15 Jahre in einer internationalen IT-Firma (IDS Scheer / Software AG) tätig, zuletzt als Director verantwortlich für Product Management und Solution Marketing.
KI ist in der Fachwelt gerade in aller Munde. Ab was ist Chance, was ist Hype? Wir setzen Natural Language Processing seit vielen Jahren in der Qualitätssicherung von Anforderungen und Tests ein. Beispiele sind die automatische Prüfung von Anforderungen und Testgenerierung aus User Stories. In diesem Vortrag zeigen wir an konkreten Beispielen auf, was möglich ist und wo die Grenzen sind. Damit wollen wir die großen Chancen der Textanalyse aufzeigen, ohne in Buzzwords zu verfallen.
Zielpublikum: Decision Makers, Business Analysts, Data Engineers
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger
Extended Abstract:
In Wissenschaft und Praxis herrscht Revolutionsstimmung. Sprachassistenten simulieren natürliche Gespräche, Wetter- und Sportberichte werden automatisch generiert ohne, dass ein Mensch beteiligt ist, Systemüberwachung funktioniert automatisch per Anomalie-Erkennung oder man schiebt gleich das ganze Word-Dokument in einen automatischen Übersetzer. Der Eindruck von unendlichen Möglichkeiten drängt sich auf – auch in der Qualitätssicherung. Aber wie viel von diesen Ansätzen funktionieren in der Praxis wirklich – oder ist die Revolutionsstimmung tatsächlich nur eine Goldgräberstimmung?
Wir setzen Natural Language Processing (NLP) Techniken seit vielen Jahren bei mittlerweile über 60 Projekten in Automotive und Versicherungsbereich täglich zur Qualitätssicherung von Software ein. Täglich werden Millionen von Worten Text durch unsere Analysen gejagt. Beispiele sind die automatische Prüfung von Anforderungen, Testgenerierung aus User Stories oder automatisierte Traceability Analysen. Weiterhin machen wir immer wieder Studien mit unterschiedlichsten Machine-Learning- bzw. Artificial-Intelligence Ansätzen (ML/AI) um herauszufinden, ob der Stand der Technik reicht, um in der Qualitätssicherung produktiv eingesetzt zu werden.
Dabei ergibt sich ein etwas differenzierteres Bild davon, was mit NLP, ML und AI möglich ist. In diesem Vortrag zeigen wir drei Dinge auf:
Erstens, was ist der Stand der Technik? Welche Fähigkeiten bieten moderne Ansätze und welche Rollen in der Qualitätssicherung können wie profitieren.
Zweitens, wo sind dabei die Herausforderungen? Bei der Anwendung der Methoden zeigen sich schnell technische Herausforderungen (z.B. Echtzeitfähigkeit), Herausforderungen mit Daten (z.B. Grammatikanalysen auf englische Texte von Nicht-Muttersprachlern) und Herausforderungen auf der menschlichen Ebene (z.B. Akzeptanz).
Drittens, wo sind die Grenzen? In einer wissenschaftlichen Studie haben wir ganz konkret an Unternehmensguidelines analysiert, welche Aspekte von Qualität automatisiert prüfbar sind und welche nicht. Aus dem, was nicht möglich ist, lässt sich eine einfach anwendbare Checkliste erstellen, die mir sagt, welche Themen ich sinnvoll angehen kann und wovon ich die Finger lassen muss.
Dieser Vortrag zeigt Entscheidern und Anwendern also die großen Chancen der Textanalyse auf, ohne in unrealistische Erwartungen oder gar Buzzwords zu verfallen.
Data Science hat sich mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert. Nun gilt es einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann. Anhand eines Use Case aus der Versicherungsbranche wird aufgezeigt, wie sich Data Science verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.
Zielpublikum: Data Scientist, Projektmanager, Entscheidungsträger, KI-Verantwortliche
Voraussetzungen: Grundlegende Kenntnisse der Data Science sind für den Talk von Vorteil, stellen aber keine Muss-Anforderung dar.
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Nachdem sich Data Science mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert hat, gilt es nun einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann.
Der Beitrag gibt einen Überblick zum Status quo der Data Science Nutzung in Unternehmen und stellt aktuelle Trends vor. Im Anschluss wird anhand eines Use Case aus der Versicherungsbranche konkret aufgezeigt, wie sich Data Science im Wertschöpfungsprozess verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.
Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe (HKA). Dort vertritt er u. a. die Bereiche Business Intelligence und Projektmanagement im Fachgebiet Informatik. Den Bachelor Studiengang 'Data Science' an der HKA hat er maßgeblich mitgestaltet. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.
Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.
Für jede Transformation gilt: Sie ist der Übergang vom Bewährten zum Neuen! Es versteht sich, dass es dabei Befürworter und Skeptiker gibt. Beide Parteien wollen dabei nur das Beste für ihre Organisation und folgen einer in sich schlüssigen Logik. Mit der Zeit entstehen Gräben und es bilden sich Fronten. Dies mündet in einen Teufelskreis, der die Zusammenarbeit erschwert und in Kompromisse, die am Ende beiden Lagern recht geben. Der Referent zeigt anhand von Kundenbeispielen wie Führungsteams in vier Schritten gemeinsam die Zukunft gestalten.
Zielpublikum: Project leader, decision makers, Transformation Leads
Vorraussetzungen: Transformationserfahrung oder Erfahrung mit komplexen Projekten und Veränderungen
Schwierigkeitsgrad: Fortgeschritten
Die Wertschöpfung durch Daten ist heute ein zentrales Thema. CDOs werden installiert, BICCs als zentrale Einheiten für die Schöpfung von Potenzialen der Daten geschaffen. In der Operationalisierung stellt sich dann schnell heraus, dass es eines Fundamentes bedarf. Data Governance gibt Antworten auf diese Fragen. Das Data Governance Starterkit DB ermöglicht einen strukturierten Einstieg ins Thema, gibt Orientierung, macht den Standort transparent und weist den Weg.
Zielpublikum: CDO, CIO, Data Office, Data Council, Verantwortliche für datengetriebene Initiativen und Programme
Voraussetzungen: Ambitionen im Kontext datengetriebener Initiativen
Schwierigkeitsgrad: Fortgeschritten
Kubeflow ist ein mächtiges Framework für die Entwicklung, Überwachung und Operationalisierung von KI. Die Ressourcen für das Trainieren, Optimieren oder das Serving der Modelle stellt Kubeflow 'As a Service' bereit. Einzelne Schritte werden in einer Pipeline mit Kubernetes in einem Cluster ausgeführt – On Premise, in der Cloud oder Hybrid in verschiedenen Umgebungen. Dabei werden notwendige Ressourcen dynamisch allokiert. In einer Live Demonstration wird Kubeflow zusammen mit Tensorflow und Tensorflow Extended (TFX) vorgestellt.
Zielpublikum: Data Scientists, project leader,
Voraussetzungen: Grundkenntnisse KI
Schwierigkeitsgrad: Advanced
Extended Abstract:
Kubeflow ist eine auf Kubernetes aufsetzende Applikation, die aus mehr als 80 einzelnen Microservices zusammengestellt ist. Kubeflow ist von Google entwickelt worden und als Open Source Projekt veröffentlicht worden. Kubeflow läuft auf Kubernetes und damit wahlweise in der Cloud oder On Premise. Alle großen Cloudprovider bieten Kubeflow 'as a Service' an, was das Provisioning sehr einfach macht. Kubeflow setzt auf Argo als Workflow Engine auf. Einzelne Schritte wie die Datenvalidierung, die Modellerstellung, das eigentliche Trainieren oder das Serving, also die Verwendung von KI in den operativen Prozessen eines Unternehmens, werden von Argo orchestriert. Kubeflow kann als Multi-Tenant Solution aufgesetzt werden, um unterschiedliche Projekte und Kunden gleichzeitig zu unterstützen. Selbstverständlich ist Kubeflow Multi-User fähig und bringt eine eigene Benutzerverwaltung mit. Die Entwicklung geschieht über Notebook-Server, die Jupyter Notebooks dem Entwickler zur Verfügung stellen.
Kubeflow kann mit anderen KI-Frameworks, beispielsweise Tensorflow und Tensorflow Extended (TFX) kombiniert werden. Alle Prozesse werden als Pipeline designed und ausgeführt. Die Überwachung der Pipelines geschieht über einen Metadata Store. Dies beinhaltet vom Data Scientist definierte Metriken zur Überwachung ebenso wie einen direkten Zugriff auf Tensorboard für eine weiterführende Analyse. Die dafür notwendigen Artefakte werden in Minio persistiert, einem Open Source Object Store.