PROGRAMM

Die im Konferenzprogramm der TDWI München digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.

Track: Advanced Analytics & AI

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    22.06.
  • Mittwoch
    23.06.
10:00 - 10:40
Di 2.1
Etablierung einer Performance-Kultur mit Advanced Analytics
Etablierung einer Performance-Kultur mit Advanced Analytics

Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu. Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.

Zielpublikum: Analytics Manager, Data Scientist, BI & Big Data Experten, Automotive Interessierte, Verantwortliche für Digitalisierung, etc.
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu.
Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.
Eingebettet in das konsequent implementierte Performance Management System stellt BMW Deutschland mit C1 Advanced Analytics in der Breite und Tiefe über alle Vertriebsstufen passgenaue Lösungen bereit, um den Entscheidern bis hin zum Point of Sales einerseits maximale Transparenz über die aktuelle und künftig zu erwartende Geschäftsentwicklung zu geben. Andererseits werden auf Basis von Daten systematisch Entscheidungen getroffen und Maßnahmen zur Performance-Steigerung implementiert und stringent nachverfolgt. Die Beherrschbarkeit und Kosteneffizienz im Betrieb werden über automatisierte Abläufe wie z.B. die Konsolidierung und Harmonisierung von Händler-Reports professionalisiert. Dies führt hat über neue Berufsbilder in Kombination mit einer zielgerichteten Befähigung der Mitarbeiter in der Organisation gesamthaft zu einem 'New Way of Working' sowie zu gesteigerten Nutzung von Marktpotenzialen geführt. Gleichermaßen konnten über die Konsolidierung von Data Assets sowie eine strikte Data Governance erhebliche Effizienzsteigerungen realisiert werden. Letzteres hat sich insbesondere auch in der Corona-Krise bewährt.

Die technische Lösung basiert auf einer Cloud Data Plattform, in der alle relevanten Daten (strukturiert und unstrukturiert) so zusammengeführt werden, dass mit Hilfe von modernen Frontendlösungen alle relevanten Informationen zeitgerecht bereitgestellt. Teilweise werden bereits KI-Funktionalitäten genutzt, um beispielsweise die Allokation von Vertriebsförderungsmaßnahmen zu optimieren. Dafür werden sehr große Datenmengen mit komplexen Machine-Learning-Methoden verarbeitet, die Ergebnisse jedoch für die Anwender in benutzerfreundlicher Form im Frontend aufbereitet.

Seit 2018 wurde die Transformation zu einer datenbasierten Vertriebs- und Ergebnissteuerung im Markt systematisch vorangetrieben und seitdem mit über 80 umgesetzten Use Cases stetig ausgebaut. Die Geschäftsbereiche Finanzen/ Strategie (Weiterentwicklung zur Rolle als 'Performance Manager'), Vertrieb, Customer Support sowie und Marketing werden datenbasiert über das Performance Management System eng miteinander verzahnt und in die Lage versetzt, noch zielgerichteter zu steuern, um identifizierte Marktopportunitäten für die Vertriebsregion BMW Deutschland konsequent zu heben.

Im Vortrag werden der erfolgreiche Weg hin zu einem datenbasierten Arbeiten skizziert sowie die technische Architektur und beispielhaft ein Advanced Analytics Use Case aufgezeigt.

Herr Sven Straub ist seit dem Jahr 2018 in der BMW AG Leiter Finanzen im Markt Deutschland. Besondere Schwerpunkte seiner Arbeit liegen u.a. im Bereich Business Transformation sowie Performance Management. Aktuell überblickt er im Markt Deutschland u.a. die Fachthemen Strategie, Strategiekommunikation, Controlling, Händlerbetriebswirtschaft sowie gesamtheitlich Data Analytics. In früheren Funktionen seiner langjährigen Zugehörigkeit zur BMW Group hat er u.a. weltweit das Vertriebscontrolling, die Volumen- und Ergebnissteuerung der BMW AG Niederlassungen und als CFO der BMW Group Japan fungiert und sich darüber einen breiten sowie tiefen Erfahrungsschatz angeeignet.
Herr Dr. Horst-Florian Jaeck ist bei der rpc - The Retail Performance Company, ein Joint Venture Unternehmung von BMW Group und h&z, als Partner für die Service Line Data Analytics und die interne IT verantwortlich. Im Laufe seiner langjährigen Beratungserfahrung hat er bereits zweimal erfolgreich neue Business Units mit Fokus auf die Bereiche Data Science & Strategy, Big Data Analytics und AI (Artificial Intelligence) aufgebaut. Als ausgewiesener Experte in Data Science und Customer Analytics ist berät er bis heute selbst namhafte Kunden verschiedener Branchen bei der Digitalisierung von Kernprozessen im Marketing, Sales und Service.
Sven Straub, Horst-Florian Jaeck
Sven Straub, Horst-Florian Jaeck
Vortrag: Di 2.1
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 2.2
Data creativity for next-level mobility solutions
Data creativity for next-level mobility solutions

Working as a Data Scientist in a Start-Up can be challenging and exciting at the same time. The amount of available data, lack of data quality and fast-changing business needs are some of a Data-Scientist's biggest enemies. To overcome such obstacles you need to be creative to get as many insights as possible from the available data in order to establish scalable processes and take the right decisions at the right time. 

How we did that? We will elaborate in this talk.

Target Audience: Data Scientists, Project Leader, Project Manager, Analysts, Data Engineers, everyone who's juggling with Data
Prerequisites: Basic knowledge
Level: Basic

Extended Abstract:

As usual for a (grown up) Start-Up, there are many construction sites that need to be handled or optimized. And although Cluno is still very young, it already has a Data Team consisting of 9 employees, 3 of whom work in the Data Science team – because Cluno wants one thing above all others: to support decision making processes with data driven intelligence.

The Data-Science team is currently working on two major building blocks that are essential for Cluno: The purchase of the right vehicles in the right quantity and the matching of potential customers with the most convenient available vehicles. As for every data intensive project, using state of the art machine learning techniques is very tempting. Unfortunately, in theory this is often easier said than done. Even though we have the necessary data infrastructure and machine learning expertise, the amount of data collected over the two years of the existence of Cluno and its quality prevents us from leveraging the fanciest techniques. Under these conditions, the Data Science team had to get extra creative in order to distill as much intelligence as possible from the existing data to support our different departments – without losing ourselves in the depths of the most complex machine learning algorithms.

In this talk we want to give you some insights on how ideas for the optimization of existing processes were turned data-driven, what (data-) challenges we faced in a Start-Up environment and how both projects are not only leveraging simplicity and providing our business with the much needed insights, but also building the foundations of the next generation of machine learning based data products.

Alexander Diergarten is Data Scientist at Cluno and therefore responsible to connect data from different areas to create valuable data products using machine learning.
Before that, he was building data services for customers at Autoscout24. These services used machine learning to gain market knowledge about current and future market values to show personalized content to end users.
Marouen Hizaoui is Data Scientist at Cluno, working mainly on building recommendation engines supporting different parts of the business.
Before that, he worked for a few different companies on a variety of tasks ranging from demand forecasting to NLP.
Alexander Diergarten, Marouen Hizaoui
Alexander Diergarten, Marouen Hizaoui
Vortrag: Di 2.2
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 2.3
Produktmanagement der Zukunft – Machine Learning-optimiert
Produktmanagement der Zukunft – Machine Learning-optimiert

Wohin geht der Trend? Wie entwickelt sich der Markt? Welche neuen Möglichkeiten bieten sich? Produktmanager müssen von Natur aus zukunftsorientiert arbeiten und mitunter in die Glaskugel blicken. Je höher die Anzahl und je diversifizierter die Waren, umso komplexer die Portfolioplanung. Das Produktmanagement bei ratioform steht täglich vor genau dieser Herausforderung – und hat mit Hilfe innovativer Technik eine zukunftsorientierte Lösung gefunden!

Zielpublikum: product managers, data management experts, ML specialists, decision makers
Voraussetzungen: experience
Schwierigkeitsgrad: Fortgeschritten

Daniela Senkbeil ist Director Category Management, Solution und Pricing und seit gut 20 Jahren unter anderem im Produktmanagement sowohl in Konzernstrukturen als auch im Mittelstand tätig. Sie verfügt über B2B- und B2C-Erfahrung und ist sowohl im Stationär- als auch im Versandhandels-Business zu Hause mit den jeweiligen Herausforderungen. Ihr persönlicher Fokus liegt auf der Portfoliovermarktung und dem strategischen Brandmanagement.
Sie ist seit 2006 bei ratioform. Dort hat sie das Produktmanagement aufgebaut und zu einer tragenden Säule für die Wachstumsambitionen des Unternehmens geformt
Marcus Eichler ist Director Marketing, Digital & Technologie bei ratioform-Verpackungen und treibt dort u.a. die Digitalisierung und Nutzung von Daten voran. Zuvor war er bei der Telefonica Germany und hat dort mehrere hundert Prozess- und Datenexperten ausgebildet und die digitale Transformation in unterschiedlichen führenden Positionen vorangetrieben. Seit seinem Berufsstart als Energieelektroniker bei MAN und später als Wirtschafsingenieur und Lean Six Sigma Master Black Belt, faszinieren ihn datengetriebene Prozesse. Unter dem Motto 'Knowledge is nothing without action' realisiert er Ideen und Projekte und hat mit seinen Teams Netzwerke umgestellt, IT-Systeme definiert, Linien- zu Prozessorganisationen transferiert, Abteilungen auf- und umgebaut. Mit den realisierten Lösungen werden Kunden individuell, zum richtigen Zeitpunkt und dem richtigen Auslöser angesprochen und die Wertschöpfung während der Customer Journey signifikant beeinflusst.
Daniela Senkbeil, Marcus Eichler
Daniela Senkbeil, Marcus Eichler
Vortrag: Di 2.3
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 2.4
From BI to AI & analytics industrialization
From BI to AI & analytics industrialization

I will show the journey that Tires took from its first attempts to extend their BI services for analytics to operate a mission critical industrialization environment which runs several AI projects. Beneath the problems and obstacles that were taken I will also explain the decisions that were taken and show the industrialization environment which was created. I also will explain why it was necessary to have such an environment instead of making use of classical BI tools.

Target Audience: Project leader, decision makers, CIO, Software engineers
Prerequisites: None
Level: Basic

Extended Abstract:

When Continental Tires started to establish Data Science as a function it decided to grow this out of BI but with an external employee. The journey was a long one but due to the given experience Continental was able to leave out some of the painful experiences that were made in other companies. So they decided to build up an infrastructure for industrialization of Use Cases from the first minute. The example of Tires is a good one to understand the roadmap from BI to Data Science industrialization. While in the beginning there was the hope that a simple extension of BI and BI tools would deliver an answer today the organization is a complete different one. Also Tires created an own landscape for industrialization of AI. Why this is done so and why this might be useful will be shown in the talk.

Studied Sociology with focus on statistical methods Dubravko Dolic made his first IT/programming experience already during his time at universities in Oldenburg and Northern Ireland. His professional career was shaped by a huge number of projects located between IT and business. Always striving to make data analyses easy available he was consultant for BI and Data analysis for more than 15 years. Since 2017 he is responsible for Data Science at the central IT for Continental Tires.
Dubravko Dolic
Dubravko Dolic
Vortrag: Di 2.4
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 2.5
Quantifying the impact of customer experience improvements on churn via causal modeling
Quantifying the impact of customer experience improvements on churn via causal modeling

Quantifying the impact of customer experience (CX) improvements on the financials is crucial for prioritizing and justifying investments. In telecommunication as well as other subscription-based industries, churn is one of or the most important financial aspects to take into account. The presented approach shows how the churn impact of CX improvements – measured via Net Promoter Score (NPS) – can be estimated based on structural causal models. It makes use of algorithms for causal discovery and counterfactual simulation.

Target Audience: Data Scientist, Decision Maker
Prerequisites: basic understanding of statistical modeling
Level: Advanced

Dr. Björn Höfer manages a team for Advanced Analytics & Data Science at Telefónica Germany. He studied International Business at the University of Paderborn and received his PhD from Friedrich-Alexander-University (FAU) of Nuremberg for enhancing simulated test market methodology. His team at Telefónica uses modern data science methods to improve decision making at Telefónica.
Björn Höfer
Björn Höfer
Vortrag: Di 2.5
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:40
Mi 2.1
Semantische Textanalyse mit Prädikatenlogik
Semantische Textanalyse mit Prädikatenlogik

Künstliche Intelligenz analysiert natürlichsprachliche Texte, um präzise, robusteSyntaxbäume abzuleiten. Die syntaktische Struktur einer Aussage ist aber oft weniger wesentlich als ihre semantische Struktur. Sprich:Was besagt sie? Welcher Sinn steckt in ihr? Ein Fokus auf die Bedeutung führt dazu, dass eine kleine Anzahl an Referenzsätzen ausreicht, um eine große Anzahl semantisch entsprechender aber unterschiedlich strukturierter Ausdrücke entdecken zu können. Die Technik lässt sich in verschiedenen Bereichen anwenden: Conversational Interfaces, themenbasiertes Matching und die Dokumentenklassifizierung.

Zielpublikum: spezialisierte Analysten, Entwickler, Architekten
Voraussetzungen: Ein grundlegendes Verständnis der gesprochenen Sprache
Schwierigkeitsgrad: Anfänger

Richard Paul Hudson ist Principal IT Consultant bei msg. Er erforscht neue Trends und berät Kunden hauptsächlich in den Bereichen des maschinellen Lernens und der Anwendungsarchitektur. Er studierte ursprünglich Theoretische Linguistik an der University of Cambridge und freut sich sehr, in der Domäne der natürlichen Sprachverarbeitung seine IT- und linguistische Interessen miteinander verbinden zu können.
Mark Lubkowitz ist Software Engineer und Journalist. Thematisch fokussiert er sich auf Webtechnologien sowie neue Technologien. Er versucht stets, Maximen, Prinzipien und Gemeinsamkeiten zu finden, die den Alltag der Anwender, aber auch der Journalisten und Software-Ingenieure vereinfachen.
Richard Paul Hudson, Mark Lubkowitz
Richard Paul Hudson, Mark Lubkowitz
Vortrag: Mi 2.1
flag VORTRAG MERKEN

Vortrag Teilen

09:50 - 10:30
Mi 2.2
Quality whisperer – self-learning AI for production quality
Quality whisperer – self-learning AI for production quality

ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. An AI project was started to get reliable + fast results on root cause discovery. Speed is important because production runs 24 hours/7 days a week. The target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.

Target Audience: Production manager, quality manager, CDO, CIO
Prerequisites: none
Level: Basic

Extended Abstract:
The ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. Each transmission is 100% tested in every technical detail before shipment. The plant Saarbrücken is a forerunner and lead plant in innovative Industry 4.0 technologies. Therefore, activities were started to tackle one significant challenge, which is caused by the enormous variant diversity: Finding root-causes for unsuccessful end of line testing. The management of the complexity is a big challenge because transmission parts can be produced in a huge number of variant processes. Process experts from each domain, like quality and testing, assembly departments and manufacturing units, had to spend significant time in analyzing influencing factors for malfunctioning and deciding on best action to prevent end of line test failures.

Therefore, an AI project was started with the objective to get reliable and fast results on root cause discovery. Speed is important because production runs 24 hours / 7 days a week. The sooner the real reasons for malfunctions are discovered, the sooner activities can be implemented to avoid bad quality. This saves a lot of time and reduces significant waste. The Target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.

Complex root-cause findings can be reduced from several days to hours.

ZF's intention with the digitalization approach is to deliver fast information to the people who are responsible for decision processes to keep a plant in an optimal output with high quality products. A self-learning AI solution Predictive Intelligence from IS Predict was used to analyze complex data masses from production, assembly, and quality to find reliable data patterns, giving transparency on disturbing factors/factor combinations. For training algorithms, end to end tracing data was used, made available in a data lake.

Britta Hilt has focused on Artificial Intelligence for ca. 10 years, mainly from usage perspective in production industries. She is co-founder and managing director of AI company IS Predict which is automating Data Science for Industry 4.0 with its self-learning and explainable AI software Predictive Intelligence.
Britta Hilt
Britta Hilt
Vortrag: Mi 2.2
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:10
Mi 2.3
Ein paar Millionen Worte später: Text Analytics in der Praxis
Ein paar Millionen Worte später: Text Analytics in der Praxis

KI ist in der Fachwelt gerade in aller Munde. Ab was ist Chance, was ist Hype? Wir setzen Natural Language Processing seit vielen Jahren in der Qualitätssicherung von Anforderungen und Tests ein. Beispiele sind die automatische Prüfung von Anforderungen und Testgenerierung aus User Stories. In diesem Vortrag zeigen wir an konkreten Beispielen auf, was möglich ist und wo die Grenzen sind. Damit wollen wir die großen Chancen der Textanalyse aufzeigen, ohne in Buzzwords zu verfallen.

Zielpublikum: Decision Makers, Business Analysts, Data Engineers
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract:
In Wissenschaft und Praxis herrscht Revolutionsstimmung. Sprachassistenten simulieren natürliche Gespräche, Wetter- und Sportberichte werden automatisch generiert ohne, dass ein Mensch beteiligt ist, Systemüberwachung funktioniert automatisch per Anomalie-Erkennung oder man schiebt gleich das ganze Word-Dokument in einen automatischen Übersetzer. Der Eindruck von unendlichen Möglichkeiten drängt sich auf auch in der Qualitätssicherung. Aber wie viel von diesen Ansätzen funktionieren in der Praxis wirklich oder ist die Revolutionsstimmung tatsächlich nur eine Goldgräberstimmung?

Wir setzen Natural Language Processing (NLP) Techniken seit vielen Jahren bei mittlerweile über 60 Projekten in Automotive und Versicherungsbereich täglich zur Qualitätssicherung von Software ein. Täglich werden Millionen von Worten Text durch unsere Analysen gejagt. Beispiele sind die automatische Prüfung von Anforderungen, Testgenerierung aus User Stories oder automatisierte Traceability Analysen. Weiterhin machen wir immer wieder Studien mit unterschiedlichsten Machine-Learning- bzw. Artificial-Intelligence Ansätzen (ML/AI) um herauszufinden, ob der Stand der Technik reicht, um in der Qualitätssicherung produktiv eingesetzt zu werden.

Dabei ergibt sich ein etwas differenzierteres Bild davon, was mit NLP, ML und AI möglich ist. In diesem Vortrag zeigen wir drei Dinge auf:

Erstens, was ist der Stand der Technik? Welche Fähigkeiten bieten moderne Ansätze und welche Rollen in der Qualitätssicherung können wie profitieren.

Zweitens, wo sind dabei die Herausforderungen? Bei der Anwendung der Methoden zeigen sich schnell technische Herausforderungen (z.B. Echtzeitfähigkeit), Herausforderungen mit Daten (z.B. Grammatikanalysen auf englische Texte von Nicht-Muttersprachlern) und Herausforderungen auf der menschlichen Ebene (z.B. Akzeptanz).

Drittens, wo sind die Grenzen? In einer wissenschaftlichen Studie haben wir ganz konkret an Unternehmensguidelines analysiert, welche Aspekte von Qualität automatisiert prüfbar sind und welche nicht. Aus dem, was nicht möglich ist, lässt sich eine einfach anwendbare Checkliste erstellen, die mir sagt, welche Themen ich sinnvoll angehen kann und wovon ich die Finger lassen muss.

Dieser Vortrag zeigt Entscheidern und Anwendern also die großen Chancen der Textanalyse auf, ohne in unrealistische Erwartungen oder gar Buzzwords zu verfallen.

Dr. Henning Femmer ist einer der Gründer von Qualicen. Hier hilft Henning unterschiedlichsten Firmen bei der Einführung von Text-Analytics-Ansätzen. Er hat an der TU München promoviert und ist häufig Speaker auf nationalen und internationalen Konferenzen, in den letzten beiden Jahren ist er auf den Software Quality Days zu den besten Vortragenden der Konferenz gewählt worden.
Henning Femmer
Henning Femmer
Vortrag: Mi 2.3
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:40
Mi 2.4
Data Science in der Versicherungsbranche – Status und Trends
Data Science in der Versicherungsbranche – Status und Trends

Data Science hat sich mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert. Nun gilt es einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann. Anhand eines Use Case aus der Versicherungsbranche wird aufgezeigt, wie sich Data Science verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.

Zielpublikum: Data Scientist, Projektmanager, Entscheidungsträger, KI-Verantwortliche
Voraussetzungen: Grundlegende Kenntnisse der Data Science sind für den Talk von Vorteil, stellen aber keine Muss-Anforderung dar.
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Nachdem sich Data Science mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert hat, gilt es nun einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann.

Der Beitrag gibt einen Überblick zum Status quo der Data Science Nutzung in Unternehmen und stellt aktuelle Trends vor. Im Anschluss wird anhand eines Use Case aus der Versicherungsbranche konkret aufgezeigt, wie sich Data Science im Wertschöpfungsprozess verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.

Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe – Technik und Wirtschaft. Dort vertritt er u. a. die Bereiche Business Intelligence und Geschäftsprozessmanagement im Fachgebiet Informatik. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.
Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.
Uwe Haneke, Michael Zimmer
Uwe Haneke, Michael Zimmer
Vortrag: Mi 2.4
flag VORTRAG MERKEN

Vortrag Teilen

16:10 - 16:50
Mi 1.5
Echte Transformation durch die Arbeit an Sichtweisen (Bias)!
Echte Transformation durch die Arbeit an Sichtweisen (Bias)!

Für jede Transformation gilt: Sie ist der Übergang vom Bewährten zum Neuen! Es versteht sich, dass es dabei Befürworter und Skeptiker gibt. Beide Parteien wollen dabei nur das Beste für ihre Organisation und folgen einer in sich schlüssigen Logik. Mit der Zeit entstehen Gräben und es bilden sich Fronten. Dies mündet in einen Teufelskreis, der die Zusammenarbeit erschwert und in Kompromisse, die am Ende beiden Lagern recht geben. Der Referent zeigt anhand von Kundenbeispielen wie Führungsteams in vier Schritten gemeinsam die Zukunft gestalten.

Zielpublikum: Project leader, decision makers, Transformation Leads
Vorraussetzungen: Transformationserfahrung oder Erfahrung mit komplexen Projekten und Veränderungen
Schwierigkeitsgrad: Fortgeschritten

Hermann Ladner vereint naturwissenschaftliches Denken mit betriebswirtschaftlichem Verständnis. Seit 25 Jahren beschäftigt er sich an vorderster Front mit der Arbeit an Sichtweisen von Menschen und Bias. Im Life Institut ist er für das Thema den Fortschritt nutzen und Unternehmenstransformation verantwortlich. Unter seiner Führung entstand das «Gestalte die Zukunft!» Programm. Damit nutzen Organisationen den Fortschritt und gestalten die Zukunft.
Hermann Ladner
Hermann Ladner
Vortrag: Mi 1.5
flag VORTRAG MERKEN

Vortrag Teilen

16:10 - 16:50
Mi 2.5
Starterkit Data Governance für die Deutsche Bahn
Starterkit Data Governance für die Deutsche Bahn

Die Wertschöpfung durch Daten ist heute ein zentrales Thema. CDOs werden installiert, BICCs als zentrale Einheiten für die Schöpfung von Potenzialen der Daten geschaffen. In der Operationalisierung stellt sich dann schnell heraus, dass es eines Fundamentes bedarf. Data Governance gibt Antworten auf diese Fragen. Das Data Governance Starterkit DB ermöglicht einen strukturierten Einstieg ins Thema, gibt Orientierung, macht den Standort transparent und weist den Weg.

Zielpublikum: CDO, CIO, Data Office, Data Council, Verantwortliche für datengetriebene Initiativen und Programme
Voraussetzungen: Ambitionen im Kontext datengetriebener Initiativen
Schwierigkeitsgrad: Fortgeschritten

Frau Dr. Kappler ist seit November 2020 als Data Governance Expertin im Team Data Strategy der DB Systel tätig. Sie verfügt über langjährige Erfahrung im Business und Digitalisierungsconsulting Bereich in diversen Konzernen. Ihre Beratungsschwerpunkte liegen im Bereich Datenstrategie und Data Governance sowie Aufbau und Implementierung datengetriebener Governance und Compliance Management Systeme.
Christoph Oberhokamp ist seit März 2017 als Datenstrategie Experte im Team Data Strategy bei der DB Systel tätig. Er verfügt über langjährige Erfahrung in der Erarbeitung von umfassenden Datenstrategien in diversen Geschäftsbereichen und Konzernen. Seine Beratungsschwerpunkte liegen neben der Erstellung neuer Strategie in der Begleitung der Strategieumsetzung, sowie dem Review bestehender Datenstrategien.
Daniela Kappler, Christoph Oberhokamp
Daniela Kappler, Christoph Oberhokamp
Vortrag: Mi 2.5
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:10
Mi 1.6
AI factory and metadata driven data ingestion at ERGO
AI factory and metadata driven data ingestion at ERGO

In this session, the ERGO Group, one of Europe's leading insurance companies, presents their AI Factory for development and operationalization of AI models. The session gives an architectural overview of the AI Factory's components. Furthermore, it explains how cloud-native technologies like Openshift and AWS Cloud Services aided in moving towards a data driven organization. A deep dive into the AI Factory's data ingestion process shows how metadata-driven data ingestion supports Data Governance in an enterprise context.

Target Audience: AI Leader, Insurance, Decision Maker, Data Engineer
Prerequisites: Background knowledge AI, Big Data Technologies, BIA
Level: Advanced

Extended Abstract:
In times of Advanced Analytics and AI, enterprises are striving towards automated and operationalized analytics pipelines.

In this session, ERGO and saracus consulting present the ERGO Group AI Factory. In particular, the presentation retraces how ERGO in collaboration with saracus consulting evolved from an on-premises analytics environment to an automated AI-Ops environment running on modern technologies within the AWS Cloud.

To this end, strategic aspects of delivering AI as a service as well as important components for delivering automated AI Pipelines in enterprises are highlighted.

Furthermore, the speakers take a deep dive into the technical aspects of the AI Factory's metadata driven data ingestion pipeline, emphasizing how it supports the key functionalities for Data Governance within ERGO's Data Strategy.

Felix joined the ERGO Group in 2004, starting in the finance department. Following, he had been heading a team with (IT) responsibility for data management, reporting and self-service BI in the Property / Casualty segment. In his current position as Head of Data Engineering, he is responsible for ERGO's Advanced Analytics IT platforms as Business Owner and ensures with his team the AI data flow.
Senior Project and Program Manager for ITERGO, the IT service provider of the ERGO Group and responsible program manager for the AI IT program to rollout and implement various AI features within the ERGO Group 
After graduating in Information Systems from Münster University, Lukas joined saracus consulting in 2015 and started consulting in the realm of data engineering. 
In his current position as Head of Data Engineering, Lukas leads a team of Data Engineers involved in multiple projects in Germany and Switzerland.
Felix Wenzel, Christian Kundruß, Lukas Hestermann
Felix Wenzel, Christian Kundruß, Lukas Hestermann
Vortrag: Mi 1.6
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:10
Mi 2.6
AI as a Service – Machine Learning mit Kubeflow
AI as a Service – Machine Learning mit Kubeflow

Kubeflow ist ein mächtiges Framework für die Entwicklung, Überwachung und Operationalisierung von KI. Die Ressourcen für das Trainieren, Optimieren oder das Serving der Modelle stellt Kubeflow 'As a Service' bereit. Einzelne Schritte werden in einer Pipeline mit Kubernetes in einem Cluster ausgeführt On Premise, in der Cloud oder Hybrid in verschiedenen Umgebungen. Dabei werden notwendige Ressourcen dynamisch allokiert. In einer Live Demonstration wird Kubeflow zusammen mit Tensorflow und Tensorflow Extended (TFX) vorgestellt.

Zielpublikum: Data Scientists, project leader,
Voraussetzungen: Grundkenntnisse KI
Schwierigkeitsgrad: Advanced

Extended Abstract:
Kubeflow ist eine auf Kubernetes aufsetzende Applikation, die aus mehr als 80 einzelnen Microservices zusammengestellt ist. Kubeflow ist von Google entwickelt worden und als Open Source Projekt veröffentlicht worden. Kubeflow läuft auf Kubernetes und damit wahlweise in der Cloud oder On Premise. Alle großen Cloudprovider bieten Kubeflow 'as a Service' an, was das Provisioning sehr einfach macht. Kubeflow setzt auf Argo als Workflow Engine auf. Einzelne Schritte wie die Datenvalidierung, die Modellerstellung, das eigentliche Trainieren oder das Serving, also die Verwendung von KI in den operativen Prozessen eines Unternehmens, werden von Argo orchestriert. Kubeflow kann als Multi-Tenant Solution aufgesetzt werden, um unterschiedliche Projekte und Kunden gleichzeitig zu unterstützen. Selbstverständlich ist Kubeflow Multi-User fähig und bringt eine eigene Benutzerverwaltung mit. Die Entwicklung geschieht über Notebook-Server, die Jupyter Notebooks dem Entwickler zur Verfügung stellen.

Kubeflow kann mit anderen KI-Frameworks, beispielsweise Tensorflow und Tensorflow Extended (TFX) kombiniert werden. Alle Prozesse werden als Pipeline designed und ausgeführt. Die Überwachung der Pipelines geschieht über einen Metadata Store. Dies beinhaltet vom Data Scientist definierte Metriken zur Überwachung ebenso wie einen direkten Zugriff auf Tensorboard für eine weiterführende Analyse. Die dafür notwendigen Artefakte werden in Minio persistiert, einem Open Source Object Store.

The speaker Matthias Braun studied Mathematics and Physics. He works as consultant for Business Intelligence and Business Analytics for more than 10 years. Matthias Braun started in 2015 at Trevisto AG, a consultant company for digitalisation, Business Intelligence and AI. At Trevisto, he is responsible for the development of an AI framework including the full project life cycle starting from a proof-of-concept phase until operation and monitoring of the solution. He has worked in various data scientist projects.
Matthias Braun
Matthias Braun
Vortrag: Mi 2.6
flag VORTRAG MERKEN

Vortrag Teilen

Zurück