Die im Konferenzprogramm der TDWI München 2022 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Hier können Sie die Programmübersicht der TDWI München 2022 mit einem Klick als PDF herunterladen.
Thema: Hands-On
- Montag
20.06. - Mittwoch
22.06.
Machine Learning-Projekte scheitern aus vielfältigsten Gründen: unzureichende Daten, fehlende Zusammenhänge oder überbordende Systemintegrationen.
Doch die Data Science-Zunft schlägt zurück: Unter dem Slogan MLOps, Machine Learning Operations, versammelt sie Lösungsansätze, um Machine Learning zu produktionalisieren. Dieser Workshop erklärt den Bedarf an MLOps aus der unsicheren Natur von Machine Learning-Projekten, skizziert Blaupausen für End-To-End ML Pipelines und illustriert Best Practices anhand einer Open-Source-Implementierung.
Zielpublikum: ML-Engineers, Head of Analytics, Data Scientists
Voraussetzungen: Erfahrungen in Machine Learning, Python und DevOps
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Warum MLOps? Mit dieser Auftaktfrage widmet sich der Workshop der inhärenten Herausforderungen von Machine Learning-Projekten. Diese umfassen insbesondere den Spagat zwischen Experiment und Software-Engineering, der dynamischen Natur des Prädiktionskontexts (Data - und Concept Drift) oder Vertrauensanforderungen der beteiligten Stakeholder. Die Referenten lassen in diese Diskussion sowohl konzeptionelle Überlegungen als auch praktische Projekterfahrungen einfließen.
Als Antwort auf diese Herausforderungen wird ein Katalog von Anforderungen abgeleitet, die ML-Systeme erfüllen sollten, um eine erfolgreiche Produktionalisierung zu gewährleisten. Dieser Anforderungskatalog umfasst unter anderem Model Registries, Feature Stores, Monitoring, Encapsulation von Systemkomponenten oder Separierung und Provisionierung von Train- und Test-Umgebungen.
Der entwickelte Anforderungskatalog dient im nächsten Seminarteil als Grundlage für die Beschreibung und den Vergleich von gängigen Software-Lösungen und -Architekturen. Die Präsentation umfasst hierbei zumindest ML-SageMaker, Azure-ML und Open-Source-Plattformen wie Kubeflow und Mlflow.
In dem folgenden interaktiven Teil des Seminars entwickeln die Teilnehmer gemeinsam eine Open-Source-MVP-Lösung auf Basis eines zur Verfügung gestellten Code-Repositories. Die vorgestellte Lösung dient primär der Vertiefung der Seminarinhalte und kann zudem als Ausgangspunkt für eigene MLOps-Initiativen dienen.
Im letzten Seminarteil wird aus Anforderungskatalog, Architekturskizzen und Code-Experimenten eine Umsetzungsunterstützung für MLOps destilliert, die mögliche Produktionalisierungs-Vorhaben anleiten kann.
Christoph Hoffmann ist Data Scientist (M.Sc. Statistics) mit starkem methodischen Fokus und langjähriger Erfahrung in der erfolgreichen Umsetzung von Kundenprojekten. Mit innovativen datenanalytischen Methoden betreut er Unternehmen aus verschiedenen Branchen. Dies beinhaltet die Vermittlung fortgeschrittener Methoden aus dem Bereich der neuronalen Netze und des Maschinellen Lernens.
Elias Jebabli ist seit Abschluss seines Masterstudiums der Mathematik an der TU München als Consultant in den Bereichen Big-Data-Engineering und Machine Learning aktiv. In verschiedensten Kundenprojekten sammelte er umfassende Erfahrungen in den Bereichen Datenvisualisierung, -transformation und -aufbereitung sowie bei der Modellierung und Umsetzung von Machine Learning-Projekten.
Vortrag Teilen
Machine Learning-Projekte scheitern aus vielfältigsten Gründen: unzureichende Daten, fehlende Zusammenhänge oder überbordende Systemintegrationen.
Doch die Data Science-Zunft schlägt zurück: Unter dem Slogan MLOps, Machine Learning Operations, versammelt sie Lösungsansätze, um Machine Learning zu produktionalisieren. Dieser Workshop erklärt den Bedarf an MLOps aus der unsicheren Natur von Machine Learning-Projekten, skizziert Blaupausen für End-To-End ML Pipelines und illustriert Best Practices anhand einer Open-Source-Implementierung.
Zielpublikum: ML-Engineers, Head of Analytics, Data Scientists
Voraussetzungen: Erfahrungen in Machine Learning, Python und DevOps
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Warum MLOps? Mit dieser Auftaktfrage widmet sich der Workshop der inhärenten Herausforderungen von Machine Learning-Projekten. Diese umfassen insbesondere den Spagat zwischen Experiment und Software-Engineering, der dynamischen Natur des Prädiktionskontexts (Data - und Concept Drift) oder Vertrauensanforderungen der beteiligten Stakeholder. Die Referenten lassen in diese Diskussion sowohl konzeptionelle Überlegungen als auch praktische Projekterfahrungen einfließen.
Als Antwort auf diese Herausforderungen wird ein Katalog von Anforderungen abgeleitet, die ML-Systeme erfüllen sollten, um eine erfolgreiche Produktionalisierung zu gewährleisten. Dieser Anforderungskatalog umfasst unter anderem Model Registries, Feature Stores, Monitoring, Encapsulation von Systemkomponenten oder Separierung und Provisionierung von Train- und Test-Umgebungen.
Der entwickelte Anforderungskatalog dient im nächsten Seminarteil als Grundlage für die Beschreibung und den Vergleich von gängigen Software-Lösungen und -Architekturen. Die Präsentation umfasst hierbei zumindest ML-SageMaker, Azure-ML und Open-Source-Plattformen wie Kubeflow und Mlflow.
In dem folgenden interaktiven Teil des Seminars entwickeln die Teilnehmer gemeinsam eine Open-Source-MVP-Lösung auf Basis eines zur Verfügung gestellten Code-Repositories. Die vorgestellte Lösung dient primär der Vertiefung der Seminarinhalte und kann zudem als Ausgangspunkt für eigene MLOps-Initiativen dienen.
Im letzten Seminarteil wird aus Anforderungskatalog, Architekturskizzen und Code-Experimenten eine Umsetzungsunterstützung für MLOps destilliert, die mögliche Produktionalisierungs-Vorhaben anleiten kann.
Christoph Hoffmann ist Data Scientist (M.Sc. Statistics) mit starkem methodischen Fokus und langjähriger Erfahrung in der erfolgreichen Umsetzung von Kundenprojekten. Mit innovativen datenanalytischen Methoden betreut er Unternehmen aus verschiedenen Branchen. Dies beinhaltet die Vermittlung fortgeschrittener Methoden aus dem Bereich der neuronalen Netze und des Maschinellen Lernens.
Elias Jebabli ist seit Abschluss seines Masterstudiums der Mathematik an der TU München als Consultant in den Bereichen Big-Data-Engineering und Machine Learning aktiv. In verschiedensten Kundenprojekten sammelte er umfassende Erfahrungen in den Bereichen Datenvisualisierung, -transformation und -aufbereitung sowie bei der Modellierung und Umsetzung von Machine Learning-Projekten.
Vortrag Teilen
Forecasting events using time series analysis is used in a variety of fields, from stock prices and sales forecasts to weather forecasts and patient disease progression. However, time series analysis is fundamentally different from other machine learning (ML) methods. In this hands-on workshop, we will use freely available data to look at the entire life cycle of such an ML project, from data, to model training, to use of the trained model, to MLOps and model drift.
Maximum Number of Participants: 16
A laptop with the latest version of Google Chrome is required for participation.
Target Audience: Data Engineer, Data Scientist, Citizen Data Scientist, Business Analysts, Data Analysts, business users, curious people
Prerequisites: Basic knowledge of time series problems (demand forecast etc.) as well as machine learning (training and scoring),
Level: Basic
Dr. Homa Ansari is a data scientist at DataRobot. She spent eight years on algorithm design for time series analysis from satellite data at the German Aerospace Center (DLR). Her expertise and publications are in the field of statistical signal processing and machine learning. She won two scientific awards, published 20+ technical articles and held 15+ talks at various space agencies and international conferences.
Vortrag Teilen
Mit einer neuen Daten-Plattform erhöhen Sie die Effizienz bei der Orchestrierung verfügbarer Daten. Damit gelingt die Transformation zu einem datengetriebenen Unternehmen qualitativ besser & schneller. Moderne Daten-Plattformen folgen einem neuen architektonischen Konzept, auch Data Fabric genannt.
Das Data Fabric Bootcamp führt durch 3 Lernblöcke, in denen Sie anhand eines kompletten AI-Prozesses von der Problemstellung über die virtuelle Datenintegration bis zur AI-Modellerstellung die Vorteile eines Data-Fabric-Ansatzes erleben werden.
Maximale Teilnehmerzahl: 12
Zielpublikum: Data Engineers, Data Scientists, IT-Manager, Business Power User, BICC Lead
Voraussetzungen: Basis-Know-how BI, BA, Data Science
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Mit einer modernen Daten-Plattform erhöhen Sie Ihre Effizienz bei der Orchestrierung aller verfügbaren Daten. Zudem reduzieren Sie den Aufwand und die Komplexität für Datenanalyse und -aufbereitung. Dadurch gelingt Ihre Transformation zu einem datengetriebenen Unternehmen qualitativ besser und schneller. Moderne Daten-Plattformen folgen einem neuen architektonischen Konzept, welches als Data Fabric bezeichnet wird.
Im Data Fabric Bootcamp lernen Sie zunächst das Konzept des 'Data Fabric' kennen. Danach führen wir Sie in einer kurzen Live-Demo in das Produkt 'IBM CloudPak for Data' ein. Diese Data Fabric-Lösung verwenden wir dann als Daten-Plattform für unseren praktischen Anwendungsfall.
Es folgen als wesentlicher Teil 3 Lernblöcke, in denen Sie anhand eines kompletten AI / Data Science-Prozesses von der Problemstellung über die virtuelle Datenintegration und -verwaltung bis zur AI-Modellerstellung die Vorteile eines Data Fabric-Ansatzes erleben und verstehen werden. Der letzte Block besteht aus einer praktischen Übungseinheit zu AutoAI, in der Sie selbst die neuen automatisierten AI-Möglichkeiten anhand der vorher erarbeiteten Daten-Assets anwenden und erleben können. Als Abschluss bewerten wir unsere Ergebnisse und diskutieren weitere Anwendungsmöglichkeiten.
Martin Otto ist Senior Solution Expert bei der avantum consult GmbH. Er berät seit über 25 Jahren im Bereich Business Analytics. Er ist mehrfacher 'IBM Champion Data & Analytics' und seit vielen Jahren im Vorstand der Cognos User Group D/A/CH. Zusammen mit neun weiteren IBM Champions gründete er 2021 die 'AIDAUG - Artificial Intelligence, Data & Analytics Usergroup' in USA, die weltweit operiert.
Dominik Schott ist Assistant Consultant bei der avantum consult GmbH. Nach dem Studium der Informatik berät er Kunden in diversen Business-Analytics-Projekten. Dominik ist Experte für die Lösung IBM Cloud Pak for Data. Sein Fokus liegt neben der Architektur von Cloud Pak for Data vor allem auf den AI-Komponenten und der Überwachung fertiger Modelle.
Thomas Olak ist Consultant bei der avantum consult GmbH. Seit 2020 berät er Kunden in diversen Predictive-Analytics- sowie Data-Science-Projekten. Sein Fokus liegt neben der Datenmodellierung vor allem auf der Prognose von Finanzkennzahlen und Predictive Maintenance.
Often, existing data architectures can no longer keep up with the current 'speed of business change'. As a result, many organizations have decided that it is time for a new, future-proof data architecture. However, this is easier said than done. In this session, ten essential guidelines for designing modern data architectures are discussed. These guidelines are based on hands-on experiences with designing and implementing many new data architectures.
Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists
Prerequisites: General knowledge of databases, data warehousing and BI
Level: Advanced
Extended Abstract:
Many IT systems are more than twenty years old and have undergone numerous changes over time. Unfortunately, they can no longer cope with the ever-increasing growth in data usage in terms of scalability and speed. In addition, they have become inflexible, which means that implementing new reports and performing analyses has become very time-consuming. In short, the data architecture can no longer keep up with the current 'speed of business change'. As a result, many organizations have decided that it is time for a new, future-proof data architecture. However, this is easier said than done. After all, you don't design a new data architecture every day. In this session, ten essential guidelines for designing modern data architectures are discussed. These guidelines are based on hands-on experiences with designing and implementing many new data architectures.
Which new technologies are currently available that can simplify data architectures?
What is the influence on the architecture of e.g. Hadoop, NoSQL, big data, data warehouse automation, and data streaming?
Which new architecture principles should be applied nowadays?
How do we deal with the increasingly paralyzing rules for data storage and analysis?
What is the influence of cloud platforms?
Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.
Vortrag Teilen