PROGRAMM

Die im Konferenzprogramm der TDWI München digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

Für alle, die eine alternative Darstellung bevorzugen bieten wir unser Programm-PDF an:
» Zum PDF-Download

Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.

Track: Architektur

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    22.06.
10:00 - 10:40
Di 1.1
TDWI StackTalk live: Von der Einzel- zur Serienfertigung in der Datenanalyse bei Daimler Trucks
TDWI StackTalk live: Von der Einzel- zur Serienfertigung in der Datenanalyse bei Daimler Trucks

Der TDWI StackTalk ist ein Format, bei dem wir anhand von echten Analytics-Lösungen aus der Praxis folgende Fragen beantworten möchten:

  • Was sind aktuelle Herausforderungen im Bereich Data & Analytics?
  • Wie sehen technische Lösungen aus?
  • Welche Komponenten und Produkte kommen zum Einsatz?
  • Was sind Best Practices?
  • Wo liegen Fallstricke und was ist bei einer Umsetzung zu beachten?
  • Wie sieht die Zukunft von Analytics aus?

Im Rahmen der TDWI München digital wird der Weg von der Einzel- zur Serienfertigung in der Datenanalyse bei Daimler Trucks betrachtet und gemeinsam mit Marco Sturm (Data Engineer und Data Scientist bei Daimler Trucks) besprochen.


Zielpublikum: Data Architects, Entscheider
Voraussetzungen: Keine
Level: Basic

Julian Ereth beschäftigt sich mit seiner Tätigkeit als Solution Architect bei dem Software-Unternehmen pragmatic_apps in Stuttgart mit innovativen Analytics-Anwendungsfälle und zukünftige Datenarchitekturen. Zudem ist er seit Jahren aktives Mitglied des TDWI-Vereins und Initiator des TDWI StackTalks.
Marco Sturm arbeitet bei der Daimler Truck AG daran durch mit Hilfe von Daten die LKWs von morgen besser zu machen. In seiner Rolle als Data Engineer und Data Scientist kombiniert er eine Vielzahl von Datenquellen um sowohl mit einmaligen Analysen als auch mit wiederverwendbaren Tools die Fragen der LKW-Entwickler zu beantworten. Ein besonderer Fokus liegt hierbei auf einer Vereinfachung der Analysen durch Automatisierung und einer Professionalisierung der Softwareentwicklung.
Julian Ereth, Marco Sturm
Julian Ereth, Marco Sturm
Vortrag: Di 1.1
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 1.2
Machine-Learning-basierte Systeme: Einstieg für Architekten
Machine-Learning-basierte Systeme: Einstieg für Architekten

Machine Learning ist auf dem Vormarsch und hochgradig von Daten abhängig. Das Thema ist omnipräsent und wird aber meist entweder sehr abstrakt oder aber sehr algorithmisch, daten-zentriert, auch code-nah beleuchtet. Der Blick auf die Gesamtarchitektur von Systemen, die ML enthalten, fehlt dabei oft. Unser Vortrag unterstützt Softwarearchitekten und Data Scientists dabei, den Überblick zu behalten, die wesentlichen Fragen zu stellen, besser zusammenzuarbeiten und somit bessere Architekturen für Systeme basierend auf Machine Learning zu designen.


Zielpublikum: Software Architect, Project Leader, Data Scientist
Voraussetzungen: Grundlegendes Verständnis zu Softwarearchitektur
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

  • KI ist ein absolut populäres Thema. Durch die einfache Verfügbarkeit von on-demand Rechenkapazität in der Cloud und die große Verfügbarkeit von Daten kann mittlerweile KI/Machine Learning einfach eingesetzt werden. Das wird zunehmend für unterschiedliche Domänen und Anwendungsfälle relevant
  • Aktuelle Betrachtungen fokussieren häufig auf detaillierte technische Aspekte mit dem Fokus wie bestimmte Algorithmen für unterschiedliche Anwendungsfälle verwendet werden können
  • Technische Publikationen sind oft sehr algorithmisch und codenah und für Architekten nicht ausreichend
  • Als Architekten müssen wir uns daher künftig zunehmend damit auseinandersetzen, wie wir KI als Werkzeug und Funktionalität in 'normalen' Systemen einsetzen
  • Dadurch ergeben sich neue Herausforderungen und Fragestellungen. Insbesondere der Betrachtung von Daten und der strukturierten Unterscheidung von
  • Wie integriert sich die KI als Baustein im Gesamtsystem?
  • Was wird wann woraus gelernt und welche Daten werden dazu einbezogen
  • Zu welchen Zeitpunkten wird ein Modell gelernt und wann wird nachgelernt?
  • Wie werden Modelle verteilt und deployed?

 

 

Dominik Rost ist seit 2009 Softwarearchitekt am Fraunhofer IESE und leitet dort seit 2020 die Abteilung »Architecture-Centric Engineering (ACE)«. Er berät Kunden aller Branchen dabei, die Architektur ihrer Produkte zu entwickeln, zu evaluieren und zu dokumentieren, und die Skills im Bereich Softwarearchitektur zu verbessern. Über seine Erfahrungen spricht er regelmäßig bei Konferenzen. Darüber hinaus leitet er das Seminar »Softwarearchitektur« der Fraunhofer Academy.
Matthias Naab ist Softwarearchitekt am Fraunhofer IESE und leitet seit 2020 die Hauptabteilung Information Systems. Seit 2010 verantwortet er die Weiterentwicklung von Architekturmethoden und die Beratung von Kunden aus der Wirtschaft. Er hat in zahlreichen Projekten in unterschiedlichsten Branchen Architekturen bewertet, Systeme verbessert und innovative Systeme mitgestaltet. Matthias Naab hält regelmäßig Vorträge zu Softwarearchitektur und Digitalen Ökosystemen.
Dominik Rost, Matthias Naab
Dominik Rost, Matthias Naab
Vortrag: Di 1.2
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 1.3
Data Lakehouse und Data Mesh: Das Ende von Data Lake & DWH?
Data Lakehouse und Data Mesh: Das Ende von Data Lake & DWH?

Mit Data Lakehouse und Data Mesh verbreiten sich im Moment neue Paradigmen und Architekturmuster für analytische Fragestellungen in Unternehmen unterschiedlichster Branchen. Die beiden Ansätze verfolgen hierbei sehr konträre Zielsetzungen und verheißen gleichzeitig die nächste Evolutionsstufe analytischer Architekturen zu sein.

Im Rahmen des Vortrags werden die beiden Architekturmuster und deren Intensionen gegenübergestellt und anhand praktischer Projekterfahrung eingeordnet.

Zielpublikum: Enterprise Architects, Data Architects, DACC / BICC Manager, Data Engineers, Data Scientists, Data Consumers

Voraussetzungen: Grundverständnis über heutige Architekturen im Data & Analytics-Umfeld und den daraus resultieren Herausforderungen für die involvierten Stakeholder.

Schwierigkeitsgrad: Fortgeschritten

Steffen Kandler studierte Wirtschaftsinformatik an der TH Mittelhessen. Nach seinem Einstieg bei INFOMOTION beschäftigte er sich als BI-Entwickler und Architekt mit Schwerpunkten im Datenmanagement, Datawarehousing sowie Datenvisualisierung. 
Aktuell befasst er sich mit dem Einfluss der Digitalen Transformation auf Data & Analytics und den Facetten von modernen, skalierbaren und flexiblen Analytics-Plattformen sowie den zugehörigen Architekturen, Technologien und Methoden.
Mathias Lipke studierte Wirtschaftsinformatik an der TH Ulm und arbeitet seit 2015 als Berater bei der INFOMOTION GmbH im Schwerpunkt von Big Data Technologien und Architekturen. Sein Fachwissen konzentriert sich insbesondere auf den Aufbau und die Operationalisierung analytischer Plattformen mit Basis von Hadoop (Cloudera) und Azure Cloud Komponenten.
Steffen Kandler, Mathias Lipke
Steffen Kandler, Mathias Lipke
Vortrag: Di 1.3
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 1.4
Complex Event Processing with Kafka Streams
Complex Event Processing with Kafka Streams

Kafka and Kafka Streams have emerged as the de facto standard for scalable, high volume and low-latency real time data processing in the industry. Complex event processing is concerned with the detection of patterns in raw events and their transformation to higher level events that are more business relevant. This talk shows how to implement scalable, fault tolerant and declarative complex event processing based on Kafka Streams.

Target Audience:Data Engineer, Data Scientist, Data Architect
Prerequisites: Basic understanding of real time data processing and Apache Kafka.
Level: Advanced

Extended Abstract:

Kafka and Kafka Streams have emerged as the de facto open source standard for real time, low latency and high throughput data integration in a large variety of industries. Besides providing traditional operations such as grouping, aggregations and table-table joins, Kafka Streams treats streams of data as first class citizens and offers some unique features geared at real time data wrangling such as aggregation of data across different types of time windows, real time data enrichment, and joins between streams of data. While both types of operations have emerged from the ambit of relational databases, the complex event processing community has focused their attention on declarative, pattern based recognition of business relevant events from lower level, raw events. Examples for operations supported by complex event processing are sequences, negation, conjunction, disjunction and repetition. This talk shows how sequences, negation and regular expressions on event streams can be implemented in a scalable and fault tolerant manner based upon the Kafka Streams DSL and the Kafka Streams Processor API. The provided examples are relevant to use cases such as detection of shoplifting, security systems, operations of production lines, and online shopping.

Benedikt is a Senior Solutions Architect at Confluent and has always been passionate about data and algorithms. He holds a Diploma and PhD in Computer Science from the University of Munich, where he fell in love with rule based data integration, and has authored many papers and given talks at international conferences. At Confluent, Benedikt has turned his attention to distributed real time data processing with Apache Kafka, Kafka Streams. During the last years, he has advised a large number of high profile customers on their event streaming journey. During his spare time, Benedikt loves to spend time with his family and trying out any kind of new sport.
Benedikt Linse
Benedikt Linse
Vortrag: Di 1.4
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 1.5
Bauen Sie Ihr Modern Data Warehouse!
Bauen Sie Ihr Modern Data Warehouse!

Das Modern Data Warehouse (MDWH) gilt als DAS Zukunftskonzept für die digitale Transformation. Denn: Dank Cloud-Technologien kann das MDWH auf ganz unterschiedliche Anforderungen vom Reporting bis zur KI angepasst werden. Aber wie sieht eine Basisarchitektur aus? Welche Anpassungen sind bei verschiedenen Use Cases notwendig? Jens Kröhnert liefert die Antworten. Vor den Augen des Publikums baut er ein MDWH in der Cloud auf und spielt konkrete Einsatzszenarien durch. Die Teilnehmer werden als Lieferant für Streaming-Daten unmittelbar involviert.

Zielpublikum: Alle Personengruppen im Unternehmen, die mit Daten arbeiten
Voraussetzungen: Basiskenntnisse
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

GLIEDERUNG:

Einführung in das MDWH

  • BI und Big Data auf einer Plattform
  • Von Open Source zu PaaS und SaaS
  • Gründe für Cloud-Migration/Anwendungsszenarien
  • Basisarchitektur 'Modern Data Warehouse'


Kunden-Case 'Aluminium-Fertigung'

  • Ausgangssituation: Klassisches DWH OnPrem
  • Ziele: Echtzeit & Machine Learning in der Cloud


Step by Step: Aufbau eines MDWH

  • Nutzung von PaaS- und SaaS-Diensten
  • Entwicklung in kurzen Sprint-Lösungen
  • Umsetzung von Streaming
Dipl.-Ing. Jens Kröhnert verfügt über 25 Jahre Erfahrung in der Planung und Umsetzung großer BI- und Big-Data-Projekte. Als Big Data & IoT Evangelist der ORAYLIS GmbH verantwortet er die Bereiche 'Innovation – neue Technologien' und 'Technische Presales'. Als P-TSP ist er direkt in den Presales-Prozess von Microsoft eingebunden. Sein Fokus liegt auf Themen wie Hadoop/Databricks, IoT und Azure.
Jens Kröhnert
Jens Kröhnert
Vortrag: Di 1.5
flag VORTRAG MERKEN

Vortrag Teilen

Zurück