PROGRAMM

Die im Konferenzprogramm der TDWI München digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

Für alle, die eine alternative Darstellung bevorzugen bieten wir unser Programm-PDF an:
» Zum PDF-Download

Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.

Track: Advanced Analytics & AI

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    22.06.
  • Mittwoch
    23.06.
10:00 - 10:40
Di 2.1
Etablierung einer Performance-Kultur mit Advanced Analytics
Etablierung einer Performance-Kultur mit Advanced Analytics

Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu. Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.

Zielpublikum: Analytics Manager, Data Scientist, BI & Big Data Experten, Automotive Interessierte, Verantwortliche für Digitalisierung, etc.
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu.
Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.
Eingebettet in das konsequent implementierte Performance Management System stellt BMW Deutschland mit C1 Advanced Analytics in der Breite und Tiefe über alle Vertriebsstufen passgenaue Lösungen bereit, um den Entscheidern bis hin zum Point of Sales einerseits maximale Transparenz über die aktuelle und künftig zu erwartende Geschäftsentwicklung zu geben. Andererseits werden auf Basis von Daten systematisch Entscheidungen getroffen und Maßnahmen zur Performance-Steigerung implementiert und stringent nachverfolgt. Die Beherrschbarkeit und Kosteneffizienz im Betrieb werden über automatisierte Abläufe wie z.B. die Konsolidierung und Harmonisierung von Händler-Reports professionalisiert. Dies führt hat über neue Berufsbilder in Kombination mit einer zielgerichteten Befähigung der Mitarbeiter in der Organisation gesamthaft zu einem 'New Way of Working' sowie zu gesteigerten Nutzung von Marktpotenzialen geführt. Gleichermaßen konnten über die Konsolidierung von Data Assets sowie eine strikte Data Governance erhebliche Effizienzsteigerungen realisiert werden. Letzteres hat sich insbesondere auch in der Corona-Krise bewährt.

Die technische Lösung basiert auf einer Cloud Data Plattform, in der alle relevanten Daten (strukturiert und unstrukturiert) so zusammengeführt werden, dass mit Hilfe von modernen Frontendlösungen alle relevanten Informationen zeitgerecht bereitgestellt. Teilweise werden bereits KI-Funktionalitäten genutzt, um beispielsweise die Allokation von Vertriebsförderungsmaßnahmen zu optimieren. Dafür werden sehr große Datenmengen mit komplexen Machine-Learning-Methoden verarbeitet, die Ergebnisse jedoch für die Anwender in benutzerfreundlicher Form im Frontend aufbereitet.

Seit 2018 wurde die Transformation zu einer datenbasierten Vertriebs- und Ergebnissteuerung im Markt systematisch vorangetrieben und seitdem mit über 80 umgesetzten Use Cases stetig ausgebaut. Die Geschäftsbereiche Finanzen/ Strategie (Weiterentwicklung zur Rolle als 'Performance Manager'), Vertrieb, Customer Support sowie und Marketing werden datenbasiert über das Performance Management System eng miteinander verzahnt und in die Lage versetzt, noch zielgerichteter zu steuern, um identifizierte Marktopportunitäten für die Vertriebsregion BMW Deutschland konsequent zu heben.

Im Vortrag werden der erfolgreiche Weg hin zu einem datenbasierten Arbeiten skizziert sowie die technische Architektur und beispielhaft ein Advanced Analytics Use Case aufgezeigt.

Herr Sven Straub ist seit dem Jahr 2018 in der BMW AG Leiter Finanzen im Markt Deutschland. Besondere Schwerpunkte seiner Arbeit liegen u.a. im Bereich Business Transformation sowie Performance Management. Aktuell überblickt er im Markt Deutschland u.a. die Fachthemen Strategie, Strategiekommunikation, Controlling, Händlerbetriebswirtschaft sowie gesamtheitlich Data Analytics. In früheren Funktionen seiner langjährigen Zugehörigkeit zur BMW Group hat er u.a. weltweit das Vertriebscontrolling, die Volumen- und Ergebnissteuerung der BMW AG Niederlassungen und als CFO der BMW Group Japan fungiert und sich darüber einen breiten sowie tiefen Erfahrungsschatz angeeignet.
Christian Feilmeier verantwortet als Geschäftsführer den Bereich Data Analytics bei rpc – The Retail Performance Company, einem Joint Venture der BMW Group und h&z Unternehmensberatung. Nach Abschluss seines BWL-Studiums und der Teilnahme am Nachwuchsprogramm der BMW Group war Herr Feilmeier in verschiedenen Funktionen im Finanzbereich der BMW Group tätig, unter anderem als Leiter der Investor Relations. Als CFO der BMW Group Canada wechselte er 2007 in die Vertriebslinie, bevor er sich ab 2011 als Leiter der Retail Performance Consulting der BMW Group auf den Handel konzentrierte. Die Management-Erfahrung im Konzernumfeld konnte er für den gezielten Aufbau von Services bei rpc nutzen, um zahlreiche namhafte Kunden bei der bei der Digitalisierung von Kernprozessen im Marketing, Sales und Service zu begleiten. 
Sven Straub, Christian Feilmeier
Sven Straub, Christian Feilmeier
Vortrag: Di 2.1
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 2.2
Self-Service Analytics in der Praxis: Mit Scheitern zum Erfolg!
Self-Service Analytics in der Praxis: Mit Scheitern zum Erfolg!

Self-Service Analytics: Fluch oder Segen? 

Erfahren Sie, wie Sie die praktischen Herausforderungen bei der Einführung von Self-Service Analytics überwinden. 

Begleiten Sie STADA Arzneimittel AG auf ihrem Weg zur Data-driven Company und welche Rolle Self-Service Analytics dabei einnahm. 

Die Lektionen die wir dabei lernten werden Ihnen helfen die Hürden und Fallstricke zu meistern, um so die Datenanalyse-Kultur in Ihrem Unternehmen in einen Segen zu verwandeln.

Maurice Engelhardt arbeitet seit 3 Jahren für STADA als Head of Data Science & Analytics, eine seiner Kerntätigkeiten liegt darin mithilfe von Analytics Mehrwerte zu heben und das Verständnis für Advanced Analytics auf allen Ebenen zu verbessern.Ursprünglich studierte er Physik an der Universität Frankfurt. Im Nachgang war er teil mehrerer Startups bevor er Consultant bei Ernst & Young im Bereich Unternehmensbewertung und Business Modelling wurde.
Maurice Engelhardt
Maurice Engelhardt
Vortrag: Di 2.2
flag VORTRAG MERKEN

Vortrag Teilen

12:30 - 13:00
Di P2
Panel: Die Zukunft des Beratungsmarktes
Panel: Die Zukunft des Beratungsmarktes

Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im BI-Umfeld bei verschiedenen Beratungshäusern innegehabt. Seit Anfang 2015 ist er Vice President Big Data & Analytics bei NTT DATA. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit den Themen Business Intelligence und Data Warehouse. Er hat verschiedene Fachartikel und Buchbeiträge zur Entwicklung des BI-Marktes veröffentlicht, ist Co-Autor der Europäischen Business Intelligence Maturity Audit (biMA®)-Studie und referiert regelmäßig bei Fachveranstaltungen.
Dr. Ralf Finger arbeitet seit 1992 erfolgreich in Projekten zur Konzeption, Realisierung und Einführung individueller Business Intelligence, Analytics und Data Warehouse Lösungen für namhafte deutsche Großunternehmen. Aktuelle Beratungsschwerpunkte bilden strategische Technologieentscheidungen, Analytics Strategien sowie der Wertbeitrag von Datenstrategien. Dr. Finger studierte Betriebswirtschaft mit den Schwerpunkten Organisation und Unternehmensrechnung und promovierte in Wirtschaftsinformatik. Dr. Finger ist als CIIA und CEFA zertifizierter Finanzanalyst und Certified BI Professional (CBIP). Er ist Lehrbeauftragter für Business Intelligence an der Universität Stuttgart, Fachbeirat des TDWI (The Data Warehousing Institute e.V.) und TDWI Europe Fellow. Ferner ist er stellvertretender Sprecher der Arbeitsgruppe Smart Analytics in der Deutschen SAP Anwendergruppe e.V. (DSAG) und Mitglied des Leitungsgremiums der Fachgruppe Business Intelligence in der Gesellschaft für Informatik e.V. (GI). Dr. Finger ist Co-Author diverser Strategieleitfäden, so z.B. für SAP HANA Strategie sowie SAP Advanced Analytics der DSAG e.V. oder den TDWI Leitfäden zu Big Data und Cloud BI. 
Dr. Marcus Mende ist Director Sales & Marketing bei der infologistix GmbH, einer unabhängigen IT-Consulting mit den Schwerpunkten Data Warehousing und Business Intelligence. 
Nach seinem betriebswirtschaftlichen Studium startete er zunächst in der Management Consulting und konzentrierte sich hier auf die Themen Marketing und Vertrieb. Nach verschiedenen Stationen bei IT-Unternehmen aus dem Segment Marketing Data, CRM und Customer Intelligence konzentrierte er sich auf die Entwicklung und Vermarktung von KI-basierten Anwendungen.
Seit 2018 verantwortet er bei der infologistix die Bereiche Business Development und Sales mit Fokus auf den Bereichen Microsoft, Cloud Native Computing und Advanced Analytics.
Klaus-Dieter Schulze, Ralf Finger, Marcus Mende
Klaus-Dieter Schulze, Ralf Finger, Marcus Mende
Vortrag: Di P2
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 2.3
Produktmanagement der Zukunft – Machine Learning-optimiert
Produktmanagement der Zukunft – Machine Learning-optimiert

Wohin geht der Trend? Wie entwickelt sich der Markt? Welche neuen Möglichkeiten bieten sich? Produktmanager müssen von Natur aus zukunftsorientiert arbeiten und mitunter in die Glaskugel blicken. Je höher die Anzahl und je diversifizierter die Waren, umso komplexer die Portfolioplanung. Das Produktmanagement bei ratioform steht täglich vor genau dieser Herausforderung – und hat mit Hilfe innovativer Technik eine zukunftsorientierte Lösung gefunden!

Zielpublikum: product managers, data management experts, ML specialists, decision makers
Voraussetzungen: experience
Schwierigkeitsgrad: Fortgeschritten

Daniela Senkbeil ist Director Category Management, Solution und Pricing und seit gut 20 Jahren unter anderem im Produktmanagement sowohl in Konzernstrukturen als auch im Mittelstand tätig. Sie verfügt über B2B- und B2C-Erfahrung und ist sowohl im Stationär- als auch im Versandhandels-Business zu Hause mit den jeweiligen Herausforderungen. Ihr persönlicher Fokus liegt auf der Portfoliovermarktung und dem strategischen Brandmanagement.
Sie ist seit 2006 bei ratioform. Dort hat sie das Produktmanagement aufgebaut und zu einer tragenden Säule für die Wachstumsambitionen des Unternehmens geformt
Marcus Eichler ist Director Marketing, Digital & Technologie bei ratioform-Verpackungen und treibt dort u.a. die Digitalisierung und Nutzung von Daten voran. Zuvor war er bei der Telefonica Germany und hat dort mehrere hundert Prozess- und Datenexperten ausgebildet und die digitale Transformation in unterschiedlichen führenden Positionen vorangetrieben. Seit seinem Berufsstart als Energieelektroniker bei MAN und später als Wirtschafsingenieur und Lean Six Sigma Master Black Belt, faszinieren ihn datengetriebene Prozesse. Unter dem Motto 'Knowledge is nothing without action' realisiert er Ideen und Projekte und hat mit seinen Teams Netzwerke umgestellt, IT-Systeme definiert, Linien- zu Prozessorganisationen transferiert, Abteilungen auf- und umgebaut. Mit den realisierten Lösungen werden Kunden individuell, zum richtigen Zeitpunkt und dem richtigen Auslöser angesprochen und die Wertschöpfung während der Customer Journey signifikant beeinflusst.
Daniela Senkbeil, Marcus Eichler
Daniela Senkbeil, Marcus Eichler
Vortrag: Di 2.3
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 2.4
From BI to AI & analytics industrialization
From BI to AI & analytics industrialization

I will show the journey that Tires took from its first attempts to extend their BI services for analytics to operate a mission critical industrialization environment which runs several AI projects. Beneath the problems and obstacles that were taken I will also explain the decisions that were taken and show the industrialization environment which was created. I also will explain why it was necessary to have such an environment instead of making use of classical BI tools.

Target Audience: Project leader, decision makers, CIO, Software engineers
Prerequisites: None
Level: Basic

Extended Abstract:

When Continental Tires started to establish Data Science as a function it decided to grow this out of BI but with an external employee. The journey was a long one but due to the given experience Continental was able to leave out some of the painful experiences that were made in other companies. So they decided to build up an infrastructure for industrialization of Use Cases from the first minute. The example of Tires is a good one to understand the roadmap from BI to Data Science industrialization. While in the beginning there was the hope that a simple extension of BI and BI tools would deliver an answer today the organization is a complete different one. Also Tires created an own landscape for industrialization of AI. Why this is done so and why this might be useful will be shown in the talk.

Studied Sociology with focus on statistical methods Dubravko Dolic made his first IT/programming experience already during his time at universities in Oldenburg and Northern Ireland. His professional career was shaped by a huge number of projects located between IT and business. Always striving to make data analyses easy available he was consultant for BI and Data analysis for more than 15 years. Since 2017 he is responsible for Data Science at the central IT for Continental Tires.
Dubravko Dolic
Dubravko Dolic
Vortrag: Di 2.4
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 2.5
Quantifying the impact of customer experience improvements on churn via causal modeling
Quantifying the impact of customer experience improvements on churn via causal modeling

Quantifying the impact of customer experience (CX) improvements on the financials is crucial for prioritizing and justifying investments. In telecommunication as well as other subscription-based industries, churn is one of or the most important financial aspects to take into account. The presented approach shows how the churn impact of CX improvements – measured via Net Promoter Score (NPS) – can be estimated based on structural causal models. It makes use of algorithms for causal discovery and counterfactual simulation.

Target Audience: Data Scientist, Decision Maker
Prerequisites: basic understanding of statistical modeling
Level: Advanced

Dr. Björn Höfer manages a team for Advanced Analytics & Data Science at Telefónica Germany. He studied International Business at the University of Paderborn and received his PhD from Friedrich-Alexander-University (FAU) of Nuremberg for enhancing simulated test market methodology. His team at Telefónica uses modern data science methods to improve decision making at Telefónica.
Björn Höfer
Björn Höfer
Vortrag: Di 2.5
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:40
Mi 2.1
Semantische Textanalyse mit Prädikatenlogik
Semantische Textanalyse mit Prädikatenlogik

Künstliche Intelligenz analysiert natürlichsprachliche Texte, um präzise, robusteSyntaxbäume abzuleiten. Die syntaktische Struktur einer Aussage ist aber oft weniger wesentlich als ihre semantische Struktur. Sprich:Was besagt sie? Welcher Sinn steckt in ihr? Ein Fokus auf die Bedeutung führt dazu, dass eine kleine Anzahl an Referenzsätzen ausreicht, um eine große Anzahl semantisch entsprechender aber unterschiedlich strukturierter Ausdrücke entdecken zu können. Die Technik lässt sich in verschiedenen Bereichen anwenden: Conversational Interfaces, themenbasiertes Matching und die Dokumentenklassifizierung.

Zielpublikum: spezialisierte Analysten, Entwickler, Architekten
Voraussetzungen: Ein grundlegendes Verständnis der gesprochenen Sprache
Schwierigkeitsgrad: Anfänger

Richard Paul Hudson ist Principal IT Consultant bei msg. Er erforscht neue Trends und berät Kunden hauptsächlich in den Bereichen des maschinellen Lernens und der Anwendungsarchitektur. Er studierte ursprünglich Theoretische Linguistik an der University of Cambridge und freut sich sehr, in der Domäne der natürlichen Sprachverarbeitung seine IT- und linguistische Interessen miteinander verbinden zu können.
Richard Paul Hudson
Richard Paul Hudson
Vortrag: Mi 2.1
flag VORTRAG MERKEN

Vortrag Teilen

09:50 - 10:30
Mi 2.2
Quality whisperer – self-learning AI for production quality
Quality whisperer – self-learning AI for production quality

ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. An AI project was started to get reliable + fast results on root cause discovery. Speed is important because production runs 24 hours/7 days a week. The target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.

Target Audience: Production manager, quality manager, CDO, CIO
Prerequisites: none
Level: Basic

Extended Abstract:
The ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. Each transmission is 100% tested in every technical detail before shipment. The plant Saarbrücken is a forerunner and lead plant in innovative Industry 4.0 technologies. Therefore, activities were started to tackle one significant challenge, which is caused by the enormous variant diversity: Finding root-causes for unsuccessful end of line testing. The management of the complexity is a big challenge because transmission parts can be produced in a huge number of variant processes. Process experts from each domain, like quality and testing, assembly departments and manufacturing units, had to spend significant time in analyzing influencing factors for malfunctioning and deciding on best action to prevent end of line test failures.

Therefore, an AI project was started with the objective to get reliable and fast results on root cause discovery. Speed is important because production runs 24 hours / 7 days a week. The sooner the real reasons for malfunctions are discovered, the sooner activities can be implemented to avoid bad quality. This saves a lot of time and reduces significant waste. The Target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.

Complex root-cause findings can be reduced from several days to hours.

ZF's intention with the digitalization approach is to deliver fast information to the people who are responsible for decision processes to keep a plant in an optimal output with high quality products. A self-learning AI solution Predictive Intelligence from IS Predict was used to analyze complex data masses from production, assembly, and quality to find reliable data patterns, giving transparency on disturbing factors/factor combinations. For training algorithms, end to end tracing data was used, made available in a data lake.

Britta Hilt has focused on Artificial Intelligence for ca. 10 years, mainly from usage perspective in production industries. She is co-founder and managing director of AI company IS Predict which is automating Data Science for Industry 4.0 with its self-learning and explainable AI software Predictive Intelligence.
Britta Hilt
Britta Hilt
Vortrag: Mi 2.2
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:10
Mi 2.3
Ein paar Millionen Worte später: Text Analytics in der Praxis
Ein paar Millionen Worte später: Text Analytics in der Praxis

KI ist in der Fachwelt gerade in aller Munde. Ab was ist Chance, was ist Hype? Wir setzen Natural Language Processing seit vielen Jahren in der Qualitätssicherung von Anforderungen und Tests ein. Beispiele sind die automatische Prüfung von Anforderungen und Testgenerierung aus User Stories. In diesem Vortrag zeigen wir an konkreten Beispielen auf, was möglich ist und wo die Grenzen sind. Damit wollen wir die großen Chancen der Textanalyse aufzeigen, ohne in Buzzwords zu verfallen.

Zielpublikum: Decision Makers, Business Analysts, Data Engineers
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract:
In Wissenschaft und Praxis herrscht Revolutionsstimmung. Sprachassistenten simulieren natürliche Gespräche, Wetter- und Sportberichte werden automatisch generiert ohne, dass ein Mensch beteiligt ist, Systemüberwachung funktioniert automatisch per Anomalie-Erkennung oder man schiebt gleich das ganze Word-Dokument in einen automatischen Übersetzer. Der Eindruck von unendlichen Möglichkeiten drängt sich auf auch in der Qualitätssicherung. Aber wie viel von diesen Ansätzen funktionieren in der Praxis wirklich oder ist die Revolutionsstimmung tatsächlich nur eine Goldgräberstimmung?

Wir setzen Natural Language Processing (NLP) Techniken seit vielen Jahren bei mittlerweile über 60 Projekten in Automotive und Versicherungsbereich täglich zur Qualitätssicherung von Software ein. Täglich werden Millionen von Worten Text durch unsere Analysen gejagt. Beispiele sind die automatische Prüfung von Anforderungen, Testgenerierung aus User Stories oder automatisierte Traceability Analysen. Weiterhin machen wir immer wieder Studien mit unterschiedlichsten Machine-Learning- bzw. Artificial-Intelligence Ansätzen (ML/AI) um herauszufinden, ob der Stand der Technik reicht, um in der Qualitätssicherung produktiv eingesetzt zu werden.

Dabei ergibt sich ein etwas differenzierteres Bild davon, was mit NLP, ML und AI möglich ist. In diesem Vortrag zeigen wir drei Dinge auf:

Erstens, was ist der Stand der Technik? Welche Fähigkeiten bieten moderne Ansätze und welche Rollen in der Qualitätssicherung können wie profitieren.

Zweitens, wo sind dabei die Herausforderungen? Bei der Anwendung der Methoden zeigen sich schnell technische Herausforderungen (z.B. Echtzeitfähigkeit), Herausforderungen mit Daten (z.B. Grammatikanalysen auf englische Texte von Nicht-Muttersprachlern) und Herausforderungen auf der menschlichen Ebene (z.B. Akzeptanz).

Drittens, wo sind die Grenzen? In einer wissenschaftlichen Studie haben wir ganz konkret an Unternehmensguidelines analysiert, welche Aspekte von Qualität automatisiert prüfbar sind und welche nicht. Aus dem, was nicht möglich ist, lässt sich eine einfach anwendbare Checkliste erstellen, die mir sagt, welche Themen ich sinnvoll angehen kann und wovon ich die Finger lassen muss.

Dieser Vortrag zeigt Entscheidern und Anwendern also die großen Chancen der Textanalyse auf, ohne in unrealistische Erwartungen oder gar Buzzwords zu verfallen.

Jannik Fischbach hat Wirtschaftsinformatik an der TU München studiert und promoviert aktuell in Informatik an der Universität zu Köln. In seinen Forschungsarbeiten entwickelt er NLP Methoden, um kausale Relationen aus Anforderungen zu extrahieren und diese zur  automatisierten Testgenerierung zu nutzen. Neben seiner Promotion arbeitet er als Consultant bei Qualicen und unterstützt Unternehmen  bei der Optimierung ihrer Testprozesse und der Einführung von modellbasierten Testen. Zu diesen Themen hält er regelmäßig Vorträge für  Forschung und Industrie.
Jannik Fischbach
Jannik Fischbach
Vortrag: Mi 2.3
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:40
Mi 2.4
Data Science in der Versicherungsbranche – Status und Trends
Data Science in der Versicherungsbranche – Status und Trends

Data Science hat sich mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert. Nun gilt es einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann. Anhand eines Use Case aus der Versicherungsbranche wird aufgezeigt, wie sich Data Science verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.

Zielpublikum: Data Scientist, Projektmanager, Entscheidungsträger, KI-Verantwortliche
Voraussetzungen: Grundlegende Kenntnisse der Data Science sind für den Talk von Vorteil, stellen aber keine Muss-Anforderung dar.
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Nachdem sich Data Science mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert hat, gilt es nun einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann.

Der Beitrag gibt einen Überblick zum Status quo der Data Science Nutzung in Unternehmen und stellt aktuelle Trends vor. Im Anschluss wird anhand eines Use Case aus der Versicherungsbranche konkret aufgezeigt, wie sich Data Science im Wertschöpfungsprozess verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.

Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe – Technik und Wirtschaft. Dort vertritt er u. a. die Bereiche Business Intelligence und Geschäftsprozessmanagement im Fachgebiet Informatik. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.
Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.
Uwe Haneke, Michael Zimmer
Uwe Haneke, Michael Zimmer
Vortrag: Mi 2.4
flag VORTRAG MERKEN

Vortrag Teilen

16:10 - 16:50
Mi 1.5
Echte Transformation durch die Arbeit an Sichtweisen (Bias)!
Echte Transformation durch die Arbeit an Sichtweisen (Bias)!

Für jede Transformation gilt: Sie ist der Übergang vom Bewährten zum Neuen! Es versteht sich, dass es dabei Befürworter und Skeptiker gibt. Beide Parteien wollen dabei nur das Beste für ihre Organisation und folgen einer in sich schlüssigen Logik. Mit der Zeit entstehen Gräben und es bilden sich Fronten. Dies mündet in einen Teufelskreis, der die Zusammenarbeit erschwert und in Kompromisse, die am Ende beiden Lagern recht geben. Der Referent zeigt anhand von Kundenbeispielen wie Führungsteams in vier Schritten gemeinsam die Zukunft gestalten.

Zielpublikum: Project leader, decision makers, Transformation Leads
Vorraussetzungen: Transformationserfahrung oder Erfahrung mit komplexen Projekten und Veränderungen
Schwierigkeitsgrad: Fortgeschritten

Hermann Ladner vereint naturwissenschaftliches Denken mit betriebswirtschaftlichem Verständnis. Seit 25 Jahren beschäftigt er sich an vorderster Front mit der Arbeit an Sichtweisen von Menschen und Bias. Im Life Institut ist er für das Thema den Fortschritt nutzen und Unternehmenstransformation verantwortlich. Unter seiner Führung entstand das «Gestalte die Zukunft!» Programm. Damit nutzen Organisationen den Fortschritt und gestalten die Zukunft.
Hermann Ladner
Hermann Ladner
Vortrag: Mi 1.5
flag VORTRAG MERKEN

Vortrag Teilen

16:10 - 16:50
Mi 2.5
Starterkit Data Governance für die Deutsche Bahn
Starterkit Data Governance für die Deutsche Bahn

Die Wertschöpfung durch Daten ist heute ein zentrales Thema. CDOs werden installiert, BICCs als zentrale Einheiten für die Schöpfung von Potenzialen der Daten geschaffen. In der Operationalisierung stellt sich dann schnell heraus, dass es eines Fundamentes bedarf. Data Governance gibt Antworten auf diese Fragen. Das Data Governance Starterkit DB ermöglicht einen strukturierten Einstieg ins Thema, gibt Orientierung, macht den Standort transparent und weist den Weg.

Zielpublikum: CDO, CIO, Data Office, Data Council, Verantwortliche für datengetriebene Initiativen und Programme
Voraussetzungen: Ambitionen im Kontext datengetriebener Initiativen
Schwierigkeitsgrad: Fortgeschritten

Dipl.-Ing. Maschinenbau, seit 2001 bei DB Systel. Als Product Owner des Teams Data Strategy berät er dort verschiedene Kunden aus dem gesamten DB-Konzern im Hinblick auf die strategische und fachliche Umsetzung von Analytics- und Big Data-Themen.
Sein Beratungsschwerpunkt liegt im Bereich Datenstrategie und Data Governance sowie Aufbau und Implementierung datengetriebener Governance und Compliance Management Systeme. Außerdem agiert er als interner Trainer für verschiedene Projektthemen.
Ulrich Prätorius
Ulrich Prätorius
Vortrag: Mi 2.5
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:10
Mi 2.6
AI as a Service – Machine Learning mit Kubeflow
AI as a Service – Machine Learning mit Kubeflow

Kubeflow ist ein mächtiges Framework für die Entwicklung, Überwachung und Operationalisierung von KI. Die Ressourcen für das Trainieren, Optimieren oder das Serving der Modelle stellt Kubeflow 'As a Service' bereit. Einzelne Schritte werden in einer Pipeline mit Kubernetes in einem Cluster ausgeführt On Premise, in der Cloud oder Hybrid in verschiedenen Umgebungen. Dabei werden notwendige Ressourcen dynamisch allokiert. In einer Live Demonstration wird Kubeflow zusammen mit Tensorflow und Tensorflow Extended (TFX) vorgestellt.

Zielpublikum: Data Scientists, project leader,
Voraussetzungen: Grundkenntnisse KI
Schwierigkeitsgrad: Advanced

Extended Abstract:
Kubeflow ist eine auf Kubernetes aufsetzende Applikation, die aus mehr als 80 einzelnen Microservices zusammengestellt ist. Kubeflow ist von Google entwickelt worden und als Open Source Projekt veröffentlicht worden. Kubeflow läuft auf Kubernetes und damit wahlweise in der Cloud oder On Premise. Alle großen Cloudprovider bieten Kubeflow 'as a Service' an, was das Provisioning sehr einfach macht. Kubeflow setzt auf Argo als Workflow Engine auf. Einzelne Schritte wie die Datenvalidierung, die Modellerstellung, das eigentliche Trainieren oder das Serving, also die Verwendung von KI in den operativen Prozessen eines Unternehmens, werden von Argo orchestriert. Kubeflow kann als Multi-Tenant Solution aufgesetzt werden, um unterschiedliche Projekte und Kunden gleichzeitig zu unterstützen. Selbstverständlich ist Kubeflow Multi-User fähig und bringt eine eigene Benutzerverwaltung mit. Die Entwicklung geschieht über Notebook-Server, die Jupyter Notebooks dem Entwickler zur Verfügung stellen.

Kubeflow kann mit anderen KI-Frameworks, beispielsweise Tensorflow und Tensorflow Extended (TFX) kombiniert werden. Alle Prozesse werden als Pipeline designed und ausgeführt. Die Überwachung der Pipelines geschieht über einen Metadata Store. Dies beinhaltet vom Data Scientist definierte Metriken zur Überwachung ebenso wie einen direkten Zugriff auf Tensorboard für eine weiterführende Analyse. Die dafür notwendigen Artefakte werden in Minio persistiert, einem Open Source Object Store.

The speaker Matthias Braun studied Mathematics and Physics. He works as consultant for Business Intelligence and Business Analytics for more than 10 years. Matthias Braun started in 2015 at Trevisto AG, a consultant company for digitalisation, Business Intelligence and AI. At Trevisto, he is responsible for the development of an AI framework including the full project life cycle starting from a proof-of-concept phase until operation and monitoring of the solution. He has worked in various data scientist projects.
Matthias Braun
Matthias Braun
Vortrag: Mi 2.6
flag VORTRAG MERKEN

Vortrag Teilen

Zurück