PROGRAMM

Die im Konferenzprogramm der TDWI München 2022 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

 

Hier können Sie die Programmübersicht der TDWI München 2022 mit einem Klick als PDF herunterladen.

Track: #HandsOn

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Montag
    20.06.
  • Mittwoch
    22.06.
, (Montag, 20.Juni 2022)
10:45 - 12:15
Mo 7.1
ROOM E105 | MLOps: Schluss mit Experimenten, her mit dem Produkt! (Teil 1)
ROOM E105 | MLOps: Schluss mit Experimenten, her mit dem Produkt! (Teil 1)

Machine Learning-Projekte scheitern aus vielfältigsten Gründen: unzureichende Daten, fehlende Zusammenhänge oder überbordende Systemintegrationen. 

Doch die Data Science-Zunft schlägt zurück: Unter dem Slogan MLOps, Machine Learning Operations, versammelt sie Lösungsansätze, um Machine Learning zu produktionalisieren. Dieser Workshop erklärt den Bedarf an MLOps aus der unsicheren Natur von Machine Learning-Projekten, skizziert Blaupausen für End-To-End ML Pipelines und illustriert Best Practices anhand einer Open-Source-Implementierung.

Zielpublikum: ML-Engineers, Head of Analytics, Data Scientists
Voraussetzungen: Erfahrungen in Machine Learning, Python und DevOps
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Warum MLOps? Mit dieser Auftaktfrage widmet sich der Workshop der inhärenten Herausforderungen von Machine Learning-Projekten. Diese umfassen insbesondere den Spagat zwischen Experiment und Software-Engineering, der dynamischen Natur des Prädiktionskontexts (Data - und Concept Drift) oder Vertrauensanforderungen der beteiligten Stakeholder. Die Referenten lassen in diese Diskussion sowohl konzeptionelle Überlegungen als auch praktische Projekterfahrungen einfließen.  

Als Antwort auf diese Herausforderungen wird ein Katalog von Anforderungen abgeleitet, die ML-Systeme erfüllen sollten, um eine erfolgreiche Produktionalisierung zu gewährleisten. Dieser Anforderungskatalog umfasst unter anderem Model Registries, Feature Stores, Monitoring, Encapsulation von Systemkomponenten oder Separierung und Provisionierung von Train- und Test-Umgebungen.  

Der entwickelte Anforderungskatalog dient im nächsten Seminarteil als Grundlage für die Beschreibung und den Vergleich von gängigen Software-Lösungen und -Architekturen. Die Präsentation umfasst hierbei zumindest ML-SageMaker, Azure-ML und Open-Source-Plattformen wie Kubeflow und Mlflow.  

In dem folgenden interaktiven Teil des Seminars entwickeln die Teilnehmer gemeinsam eine Open-Source-MVP-Lösung auf Basis eines zur Verfügung gestellten Code-Repositories. Die vorgestellte Lösung dient primär der Vertiefung der Seminarinhalte und kann zudem als Ausgangspunkt für eigene MLOps-Initiativen dienen.  

Im letzten Seminarteil wird aus Anforderungskatalog, Architekturskizzen und Code-Experimenten eine Umsetzungsunterstützung für MLOps destilliert, die mögliche Produktionalisierungs-Vorhaben anleiten kann.

Christoph Hoffmann ist Data Scientist (M.Sc. Statistics) mit starkem methodischen Fokus und langjähriger Erfahrung in der erfolgreichen Umsetzung von Kundenprojekten. Mit innovativen datenanalytischen Methoden betreut er Unternehmen aus verschiedenen Branchen. Dies beinhaltet die Vermittlung fortgeschrittener Methoden aus dem Bereich der neuronalen Netze und des Maschinellen Lernens.

Elias Jebabli ist seit Abschluss seines Masterstudiums der Mathematik an der TU München als Consultant in den Bereichen Big-Data-Engineering und Machine Learning aktiv. In verschiedensten Kundenprojekten sammelte er umfassende Erfahrungen in den Bereichen Datenvisualisierung, -transformation und -aufbereitung sowie bei der Modellierung und Umsetzung von Machine Learning-Projekten.

Christoph Hoffmann, Elias Jebabli
Christoph Hoffmann, Elias Jebabli
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 7.1
ROOM E105 | MLOps: Schluss mit Experimenten, her mit dem Produkt! (Teil 2)
ROOM E105 | MLOps: Schluss mit Experimenten, her mit dem Produkt! (Teil 2)

Machine Learning-Projekte scheitern aus vielfältigsten Gründen: unzureichende Daten, fehlende Zusammenhänge oder überbordende Systemintegrationen. 

Doch die Data Science-Zunft schlägt zurück: Unter dem Slogan MLOps, Machine Learning Operations, versammelt sie Lösungsansätze, um Machine Learning zu produktionalisieren. Dieser Workshop erklärt den Bedarf an MLOps aus der unsicheren Natur von Machine Learning-Projekten, skizziert Blaupausen für End-To-End ML Pipelines und illustriert Best Practices anhand einer Open-Source-Implementierung.

Zielpublikum: ML-Engineers, Head of Analytics, Data Scientists
Voraussetzungen: Erfahrungen in Machine Learning, Python und DevOps
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Warum MLOps? Mit dieser Auftaktfrage widmet sich der Workshop der inhärenten Herausforderungen von Machine Learning-Projekten. Diese umfassen insbesondere den Spagat zwischen Experiment und Software-Engineering, der dynamischen Natur des Prädiktionskontexts (Data - und Concept Drift) oder Vertrauensanforderungen der beteiligten Stakeholder. Die Referenten lassen in diese Diskussion sowohl konzeptionelle Überlegungen als auch praktische Projekterfahrungen einfließen.  

Als Antwort auf diese Herausforderungen wird ein Katalog von Anforderungen abgeleitet, die ML-Systeme erfüllen sollten, um eine erfolgreiche Produktionalisierung zu gewährleisten. Dieser Anforderungskatalog umfasst unter anderem Model Registries, Feature Stores, Monitoring, Encapsulation von Systemkomponenten oder Separierung und Provisionierung von Train- und Test-Umgebungen.  

Der entwickelte Anforderungskatalog dient im nächsten Seminarteil als Grundlage für die Beschreibung und den Vergleich von gängigen Software-Lösungen und -Architekturen. Die Präsentation umfasst hierbei zumindest ML-SageMaker, Azure-ML und Open-Source-Plattformen wie Kubeflow und Mlflow.  

In dem folgenden interaktiven Teil des Seminars entwickeln die Teilnehmer gemeinsam eine Open-Source-MVP-Lösung auf Basis eines zur Verfügung gestellten Code-Repositories. Die vorgestellte Lösung dient primär der Vertiefung der Seminarinhalte und kann zudem als Ausgangspunkt für eigene MLOps-Initiativen dienen.  

Im letzten Seminarteil wird aus Anforderungskatalog, Architekturskizzen und Code-Experimenten eine Umsetzungsunterstützung für MLOps destilliert, die mögliche Produktionalisierungs-Vorhaben anleiten kann.

Christoph Hoffmann ist Data Scientist (M.Sc. Statistics) mit starkem methodischen Fokus und langjähriger Erfahrung in der erfolgreichen Umsetzung von Kundenprojekten. Mit innovativen datenanalytischen Methoden betreut er Unternehmen aus verschiedenen Branchen. Dies beinhaltet die Vermittlung fortgeschrittener Methoden aus dem Bereich der neuronalen Netze und des Maschinellen Lernens.

Elias Jebabli ist seit Abschluss seines Masterstudiums der Mathematik an der TU München als Consultant in den Bereichen Big-Data-Engineering und Machine Learning aktiv. In verschiedensten Kundenprojekten sammelte er umfassende Erfahrungen in den Bereichen Datenvisualisierung, -transformation und -aufbereitung sowie bei der Modellierung und Umsetzung von Machine Learning-Projekten.

Christoph Hoffmann, Elias Jebabli
Christoph Hoffmann, Elias Jebabli
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 18:30
Mo 7.3
Ausgebucht ROOM E105 | End-to-End Time Series Analysis from Data to Consumption
ROOM E105 | End-to-End Time Series Analysis from Data to Consumption

Forecasting events using time series analysis is used in a variety of fields, from stock prices and sales forecasts to weather forecasts and patient disease progression. However, time series analysis is fundamentally different from other machine learning (ML) methods. In this hands-on workshop, we will use freely available data to look at the entire life cycle of such an ML project, from data, to model training, to use of the trained model, to MLOps and model drift.

Maximum Number of Participants: 16
A laptop with the latest version of Google Chrome is required for participation.

Target Audience: Data Engineer, Data Scientist, Citizen Data Scientist, Business Analysts, Data Analysts, business users, curious people
Prerequisites: Basic knowledge of time series problems (demand forecast etc.) as well as machine learning (training and scoring), 
Level: Basic

Dr. Homa Ansari is a data scientist at DataRobot. She spent eight years on algorithm design for time series analysis from satellite data at the German Aerospace Center (DLR). Her expertise and publications are in the field of statistical signal processing and machine learning. She won two scientific awards, published 20+ technical articles and held 15+ talks at various space agencies and international conferences.

Homa Ansari, Maximilian Hudlberger
Homa Ansari, Maximilian Hudlberger
flag VORTRAG MERKEN

Vortrag Teilen

, (Mittwoch, 22.Juni 2022)
09:00 - 10:30
Mi 6.1
Limitiert ROOM F111 | Data Fabric Bootcamp
ROOM F111 | Data Fabric Bootcamp

Mit einer neuen Daten-Plattform erhöhen Sie die Effizienz bei der Orchestrierung verfügbarer Daten. Damit gelingt die Transformation zu einem datengetriebenen Unternehmen qualitativ besser & schneller. Moderne Daten-Plattformen folgen einem neuen architektonischen Konzept, auch Data Fabric genannt. 

Das Data Fabric Bootcamp führt durch 3 Lernblöcke, in denen Sie anhand eines kompletten AI-Prozesses von der Problemstellung über die virtuelle Datenintegration bis zur AI-Modellerstellung die Vorteile eines Data-Fabric-Ansatzes erleben werden. 

Maximale Teilnehmerzahl: 12

Zielpublikum: Data Engineers, Data Scientists, IT-Manager, Business Power User, BICC Lead 
Voraussetzungen: Basis-Know-how BI, BA, Data Science 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Mit einer modernen Daten-Plattform erhöhen Sie Ihre Effizienz bei der Orchestrierung aller verfügbaren Daten. Zudem reduzieren Sie den Aufwand und die Komplexität für Datenanalyse und -aufbereitung. Dadurch gelingt Ihre Transformation zu einem datengetriebenen Unternehmen qualitativ besser und schneller. Moderne Daten-Plattformen folgen einem neuen architektonischen Konzept, welches als Data Fabric bezeichnet wird. 

Im Data Fabric Bootcamp lernen Sie zunächst das Konzept des 'Data Fabric' kennen. Danach führen wir Sie in einer kurzen Live-Demo in das Produkt 'IBM CloudPak for Data' ein. Diese Data Fabric-Lösung verwenden wir dann als Daten-Plattform für unseren praktischen Anwendungsfall. 

Es folgen als wesentlicher Teil 3 Lernblöcke, in denen Sie anhand eines kompletten AI / Data Science-Prozesses von der Problemstellung über die virtuelle Datenintegration und -verwaltung bis zur AI-Modellerstellung die Vorteile eines Data Fabric-Ansatzes erleben und verstehen werden. Der letzte Block besteht aus einer praktischen Übungseinheit zu AutoAI, in der Sie selbst die neuen automatisierten AI-Möglichkeiten anhand der vorher erarbeiteten Daten-Assets anwenden und erleben können. Als Abschluss bewerten wir unsere Ergebnisse und diskutieren weitere Anwendungsmöglichkeiten. 

Martin Otto ist Senior Solution Expert bei der avantum consult GmbH. Er berät seit über 25 Jahren im Bereich Business Analytics. Er ist mehrfacher 'IBM Champion Data & Analytics' und seit vielen Jahren im Vorstand der Cognos User Group D/A/CH. Zusammen mit neun weiteren IBM Champions gründete er 2021 die 'AIDAUG - Artificial Intelligence, Data & Analytics Usergroup' in USA, die weltweit operiert.

Dominik Schott ist Assistant Consultant bei der avantum consult GmbH. Nach dem Studium der Informatik berät er Kunden in diversen Business-Analytics-Projekten. Dominik ist Experte für die Lösung IBM Cloud Pak for Data. Sein Fokus liegt neben der Architektur von Cloud Pak for Data vor allem auf den AI-Komponenten und der Überwachung fertiger Modelle.

Thomas Olak ist Consultant bei der avantum consult GmbH. Seit 2020 berät er Kunden in diversen Predictive-Analytics- sowie Data-Science-Projekten. Sein Fokus liegt neben der Datenmodellierung vor allem auf der Prognose von Finanzkennzahlen und Predictive Maintenance.

Martin Otto, Dominik Schott, Thomas Olak
Martin Otto, Dominik Schott, Thomas Olak
Track: #HandsOn
Vortrag: Mi 6.1
Themen: Hands-On
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:30
Mi 6.2
ROOM F111 | Ten Practical Guidelines for Designing Data Architectures
ROOM F111 | Ten Practical Guidelines for Designing Data Architectures

Often, existing data architectures can no longer keep up with the current 'speed of business change'. As a result, many organizations have decided that it is time for a new, future-proof data architecture. However, this is easier said than done. In this session, ten essential guidelines for designing modern data architectures are discussed. These guidelines are based on hands-on experiences with designing and implementing many new data architectures. 

Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists 
Prerequisites: General knowledge of databases, data warehousing and BI 
Level: Advanced 

Extended Abstract: 
Many IT systems are more than twenty years old and have undergone numerous changes over time. Unfortunately, they can no longer cope with the ever-increasing growth in data usage in terms of scalability and speed. In addition, they have become inflexible, which means that implementing new reports and performing analyses has become very time-consuming. In short, the data architecture can no longer keep up with the current 'speed of business change'. As a result, many organizations have decided that it is time for a new, future-proof data architecture. However, this is easier said than done. After all, you don't design a new data architecture every day. In this session, ten essential guidelines for designing modern data architectures are discussed. These guidelines are based on hands-on experiences with designing and implementing many new data architectures. 

  • Which new technologies are currently available that can simplify data architectures? 

  • What is the influence on the architecture of e.g. Hadoop, NoSQL, big data, data warehouse automation, and data streaming? 

  • Which new architecture principles should be applied nowadays? 

  • How do we deal with the increasingly paralyzing rules for data storage and analysis? 

  • What is the influence of cloud platforms? 

Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.

Rick van der Lans
Rick van der Lans
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 6.3
ROOM F111 | Die extra harten Kopfnüsse - mit SQL geknackt (V3.0)
ROOM F111 | Die extra harten Kopfnüsse - mit SQL geknackt (V3.0)

Torsten Ahlemeyer sammelt und löst unzählige Knobeleien rund um das Thema T-SQL. Immer geht es um Aufgaben, die extrem schnell zu erfassen, aber umso schwieriger zu lösen sind. Selbst erfahrene Developer scheitern oft bei der Ansatzsuche. Kennt man die Einfachheit der Lösung und blickt über den Tellerrand hinaus, sind plötzlich viele Herausforderungen des Entwickleralltags keine Hürde mehr. Diese Session ist eine unterhaltsame Lerneinheit in der kreativen Interpretation von Algorithmen - ohne dabei in die mathematische Theorie abzudriften. 

Zielpublikum: Entwickler, Analysten 
Voraussetzungen: Grundkenntnisse in SQL sind nicht zwingend notwendig, helfen aber beim Verständnis der zahleichen praktischen Anwendungen 
Schwierigkeitsgrad: Fortgeschritten 

Extended Abstract: 
Letztes Jahr haben wir hier Sudoku gespielt, sind Achterbahn gefahren, usw. Dieses Jahr wird es noch herausfordernder. Wir lösen u.a. den Zauberwürfel mit reinem T-SQL, bringen dem SQL-Server das Stottern bei und vieles mehr. Alle Aufgaben und Lösungen sind ohne Laptop zu verfolgen. Es geht um die kreative Anwendung von JOINs, Tipps & Tricks mit Rekursionen, die Wahl des 'richtigen' Datenmodells, außergewöhnliche Optimierungsansätze, den Wechsel des Blickwinkels ... 

Torsten Ahlemeyer realisiert seit über 18 Jahren Abrechnungs- und Stammdatenapplikationen in Großprojekten. Der Diplom-Wirtschaftsinformatiker hat als Entwickler angefangen und sich dann als Projektleiter in der Softwareentwicklung im Umfeld internationaler Projekte einen Namen gemacht. Die Microsoft-Technologie vom Betriebssystem über die Programmiersprachen war dabei in allen Projekten genauso gesetzt wie der MS-SQL-Server (SSAS, SSIS, SSRS, ...). Als IT-Consultant hilft Torsten Ahlemeyer Kunden der arelium GmbH hauptsächlich in der Rolle als Projektleiter, aber auch als Architekt, DB-Berater oder T-SQL-Spezialist bei der Umsetzung komplexerer Datenbankprojekte.

Torsten Ahlemeyer
Torsten Ahlemeyer
Track: #HandsOn
Vortrag: Mi 6.3
flag VORTRAG MERKEN

Vortrag Teilen

Zurück