Hinweis: Die aktuelle TDWI-Konferenz findest Du hier!

PROGRAMM

Die im Konferenzprogramm der TDWI München 2023 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen kannst du dir deinen eigenen Zeitplan zusammenstellen. Du kannst diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

 

Hier kannst Du die Programmübersicht der TDWI München 2023 mit einem Klick als PDF herunterladen.

Track: #Data Architecture

Nach Tracks filtern
Alle ausklappen
  • Mittwoch
    21.06.
  • Donnerstag
    22.06.
11:25 - 12:10
Mi 6.3
Technical Debts – der langsame Tod für jedes Data Warehouse
Technical Debts – der langsame Tod für jedes Data Warehouse

Bei der Entwicklung von IT-Systemen, so auch Data Warehouses und analytische Applikationen, kommt es zu unerwünschten Nebeneffekten. Neben Fehlern gibt es Abweichungen von Architektur-Vorgaben oder Design Patterns, die als technische Schuld (Technical Debt) bezeichnet werden. Im Gegensatz zu Fehlern läuft das System zwar korrekt, jedoch hat es Auswirkungen auf die Weiterentwicklung und den Betrieb (Kosten, Zeit, Incidents etc.).
Typische Gruppen von Technical Debts werden kurz erklärt, was deren Auswirkungen sind und wie sie diese vermeiden können.

Zielpublikum: Architekt:innen, Projektleiter:innen, Entscheider:innen, Entwickler:innen
Voraussetzungen: Grundlagen in Data Warehousing oder analytischen Infrastrukturen
Schwierigkeitsgrad: Einsteiger

Herbert Stauffer, TDWI Fellow, hat über 30 Jahre Erfahrung in Business Intelligence und Analytics, als Projektleiter, Hochschuldozent und Berater. Seine Schwerpunkte sind Strategie, Architektur, Qualität und Methodik. Er ist Hauptautor des Buches 'Testen von Data-Warehouse- und Business-Intelligence-Systemen' und Autor des Buches 'Security für DWH- und BI-Systeme'. Er ist Leiter des TDWI-Roundtables in Zürich.

Herbert Stauffer
E101/102
Herbert Stauffer
E101/102
Vortrag: Mi 6.3
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Mi 6.4
World Café: Next Generation Data Management
World Café: Next Generation Data Management

Kontrovers, provokativ und konstruktiv – wir diskutieren mit Ihnen das Thema Next Generation Data Management.

Gordon Witzel startete im Jahr 2007 bei der SAP als BW-Berater. Hier unterstütze er internationale Kunden bei der Architektur und Implementierungen von SAP BW und SAP BWA.
2015 wechselte er in das SAP Data Warehouse Produktmanagement der SAP SE und hat hier basierend auf Anforderungen der Kunden mit der Entwicklung neue Features definiert, priorisiert und zur Umsetzung gebracht. Bei diversen nationalen und internationalen Events präsentiert Gordon zu den Themen SAP BW und SAP Data Warehouse Cloud und stellt die SAP Data Warehouse Produkte in Hands-On Workshops vor.
Weiterhin unterstütze er bei Definition der SAP Data Warehouse Strategie und begleitete die erfolgreiche Einführung der SAP BW bridge als Teil der SAP Data Warehouse Cloud im Jahr 2021. Seit 2022 ist Gordon Principal Presales Expert für das Data Warehouse Portfolio der SAP.

Markus Ganser startete 1999 bei Bitburger als ABAP-Entwickler und in der Modulbetreuung im MM. Im Laufe der nächsten Jahre war er zusätzlich verantwortlich, für die Betreuung und Entwicklung von SAP Business Workflows und die Einführung der SAP Supplier Relationship Management (SRM).
Im Jahre 2005 wechselte er in das Themengebiet Analytics und übernahm die Betreuung des SAP Business Warehouses (SAP BW). Dort war er die Provisionierung, die Modellierung der Daten und deren Bereitstellung zuständig (”vom Extraktor bis zur Query”).
Seit 2021 ist Markus Teamleiter ”SAP Analytics” und verantwortet und betreut mit zwei Mitarbeiterinnen die Themenkomplexe BW/4, SAC, DWC und Hana Modellierung in der Bitburger Braugruppe.

Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. Im Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Matthias Stemmler das Technologie Presales Team der SAP Deutschland SE. Ab April 2016 war er in der Rolle des „Platform Architect“ tätig und unterstützte die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) beim Scoping, der Auswahl sowie Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.
Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.

Harry Enns war nach seinem Betriebswirtschaftsstudium mit Schwerpunkt Informatik an der Fachhochschule Niederrhein (Mönchengladbach) 1999 zunächst als Berater mit dem Fokus auf Business Intelligence-Projekte im SAP Umfeld tätig, bevor er 2011 zu INFOMOTION wechselte. Dort verantwortet er seitdem den Bereich SAP BW/HANA und dessen Weiterentwicklung, außerdem leitet Herr Enns seit 2012 den INFOMOTION Standort Saarbrücken. Mitte 2017 trat er als Partner in die Geschäftsleitung von INFOMOTION ein und entwickelt gesamtverantwortlich das SAP Portfolio.

Gordon Witzel, Markus Ganser, Matthias Stemmler, Harry Enns
E101/102
Gordon Witzel, Markus Ganser, Matthias Stemmler, Harry Enns
E101/102
Vortrag: Mi 6.4
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Mi 6.5
Turning your (maritime) data into a profit with Gaia-X
Turning your (maritime) data into a profit with Gaia-X

Daten sind das neue Gold” ist schon seit längerem ein Schlagwort oder eine eingängige Phrase. Und obwohl dies sicherlich stimmt, ist es wesentlich schwieriger, das Potenzial von Daten zu nutzen als das von Gold. Unternehmen sitzen auf Bergen von Daten, die sie oft kaum für ihre eigenen Zwecke nutzen, und schon gar nicht mit anderen Unternehmen teilen, um einen zusätzlichen Nutzen zu erzeugen. Die Gründe hierfür sind vielfältig und oftmals organisatorisch, rechtlich, technischer Natur. 

In diesem Talk werden wir zeigen, wie Gaia-X helfen kann, diese Hürden zu überwinden, indem wir aktuelle Use-Cases aus dem Projekt Marispace-X diskutieren. 

Zielpublikum: Decision Makers, Data Owners
Voraussetzungen: Ein grundlegendes Verständnis von Data Governance wäre hilfreich.
Schwierigkeitsgrad: Einsteiger

Extended Abstract:

Die maritime Welt basiert auf Daten. Große Infrastrukturprojekte wie Windparks, Unterseekabel und Pipelines benötigen riesige Mengen an Daten für die Planung, den Bau und die Wartung. Leider bleiben viele, bereits existierende, Datensätze unbenutzt oder sind von vornherein nicht zugänglich. Oft liegt dies an dem Aufwand, sie regelkonform zu teilen bzw. darauf zuzugreifen. Wenn es um die gemeinsame Nutzung von und den Zugriff auf kommerzielle Daten innerhalb der EU geht, ist die derzeitige Landschaft durch technische, rechtliche und organisatorische Hindernisse gekennzeichnet, die eine effektive Zusammenarbeit zwischen Unternehmen erschweren.
Dabei sitzen viele Unternehmen auf einem Berg an wertvollen Daten. In diesem Vortrag erläutern wir, wie Gaia-X dazu beitragen kann, diese Daten gewinnbringend zu nutzen und dabei viele Risiken und Reibungspunkte zu vermeiden.
Gaia-X ist eine europäische Initiative, die darauf abzielt, diese Hindernisse zu beseitigen und den Datenaustausch einfacher, sicherer und effizienter zu gestalten. Dieser Vortrag wird einige der Konzepte von Gaia-X einem breiteren Publikum näherbringen.
Anhand von realen Use-Cases aus dem Projekt Marispace-X (IoUT, Offshore-Wind, Munition im Meer, biologischer Klimaschutz) werden wir zeigen, welche Vorteile Gaia-X in diesem Szenario bieten kann und wie es dazu beitragen kann, die Herausforderungen des Datenaustauschs zu überwinden und die Zusammenarbeit und Innovation zu verbessern.

Nach diesem Vortrag wissen Sie mehr über Windparks, das maritime Daten-Ökosystem, Gaia-X und wie gemeinsame Daten zu einem Gewinn werden können.

Lars Francke has been involved in the OpenSource space since 2009. He's mainly focused on the Big Data ecosystem and has been a contributor and committer to various projects like Apache HBase or Apache Hive. He is also an Apache Foundation member and speaker at conferences about technical as well as community topics.
Lars co-founded two startups so far: OpenCore which focuses on consulting and Stackable (the GAIA-X member). He's currently serving as the CTO for Stackable.
Lars is 41 years old and lives with his girlfriend and two small children in northern Germany.

Sarah Gebauer is 31 years old, born in Kiel, therefore inevitably linked to the sea, and works at north.io as a project manager. Sarah is responsible for the research projects at north.io, which include Marispace-X among others. On the side, she is currently finishing her Master's degree in IT Management and will graduate this autumn. She has a strong background in digitalization due to her nine years at one of the largest logistic companies in northern Germany, where she lead several digitalization-projects.

Lars Francke, Sarah Gebauer
E101/102
Lars Francke, Sarah Gebauer
E101/102
Vortrag: Mi 6.5
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:30
Mi 6.6
Modern analytics platform in the railway industry
Modern analytics platform in the railway industry

A traditional Swiss railway company that operates train connections throughout the alps. Swisscom implemented a modern analytics platform based on Microsoft Azure to integrate vast amounts from technical and commercial sources. Among other use cases, the customer can now predict the arrival times of their trains in near-real time. The platform is based on a loosely-coupled architecture consisting solely of native PaaS services and leverages modern IaC capabilities to fully automate the deployment.

Target Audience: Business Decision-Makers, Architects, Data Engineers, and people from the transportation industry
Prerequisites: Basic understanding of data & analytics platforms
Level: Advanced

Tim Giger is an experienced developer, architect, and project manager with over eight years of experience in the data management consulting industry, and with a variety of technologies (SAP, Microsoft, Open Source, Cloudera) in various industries. Proven expert and speaker at Big Data conferences as well as a lecturer for Data & Analytics at the Zurich University of Applied Sciences for Business (HWZ).

Matthias Mohler is a result-oriented leader and consulting practice manager with 15+ years of experience in the technology industry. Proven track record in line management and project management. Successfully delivered projects and advisory mandates with responsibility for people, budget, and scope. Experience includes assignments for national and international clients in many industries. Holder of an MBA, certificates of advanced studies (IT management, leadership), a college degree in business information systems, and several professional certifications in technology (SAP, Microsoft, AWS) and methodology (e.g. PMP, TOGAF, ITIL). Lecturer at the University of Applied Sciences in Business Administration Zurich (HWZ) and the Lucerne University of Applied Sciences (HSLU).

Tim Giger, Matthias Mohler
E101/102
Tim Giger, Matthias Mohler
E101/102
Vortrag: Mi 6.6
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
Mi 6.7
How to bootstrap your Industry 4.0 IoT Platform
How to bootstrap your Industry 4.0 IoT Platform

Die Überwachung einer Fertigungsanlage und Erhebung kritischer Kennwerte mithilfe von Sensoren ist der Klassiker der IoT. Doch wie startet man ein solches Projekt? Welche Komponenten benötigt man und wo kann bzw. soll die Reise hingehen? 

Ein Erfahrungsbericht vom Aufbau einer Datenpipeline 'from scratch'. Vom Aufsetzen einer ersten einfachen Datenbank bis zur Echtzeitstreaming-Plattform. Von der Synchronisierung verschiedener Sensoren bis zur Datentransformation als Basis zur KI-Überwachung und Optimierung des Fertigungsprozesses in Echtzeit.

Zielpublikum: Data Engineer, Data Scientist, MLOps Engineer, Projektleiter:innen, Entscheider:innen, ...
Voraussetzungen: Interesse an Predictive Maintenance, IoT, Echtzeitsignalverarbeitung, Machine Learning
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
In dieser Session erzählen wir euch von unseren Erfahrungen bei der Umsetzung eines IoT-Predictive Maintenance-Projekts 'from scratch'. 

Wir starten mit dem Aufsetzen eines verteilten Sensorsystem zur Überwachung einer Fertigungsanlage. Fundamentale Herausforderungen sind hier die Synchronisierung der verschiedenen Sensoren sowie der Transfer der Daten in Echtzeit. 

Die Sensoren produzieren täglich Hunderte Gigabyte an Daten, welche es in Echtzeit aufzubereiten, zu analysieren und zu speichern gilt. Dies ermöglicht uns die Echtzeitauswertung der Daten mithilfe von Machine Learning-Verfahren. Die Ergebnisse können direkt als Feedback in den Produktionsprozess einfließen und erlauben die Optimierung des Prozesses in Echtzeit. 

Unser modularer und skalierbarer Ansatz ermöglicht dabei die einfache Einbindung zusätzlicher Sensoren sowie Datenverarbeitungsschritte. 

Unser Tech-Stack: Apache Kafka, Apache Spark, Apache Cassandra, Python, FastAPI, Precision-Time-Protocol, Grafana

Stephan Brehm (Dr. rer. nat. Machine Learning & Computer Vision) forschte über Jahre im Bereich des maschinellen Sehens unter Einsatz modernster Deep-Learning-Techniken. Inzwischen setzt er die erworbene Erfahrung als MLOps Engineer beim Management von Daten von der Erhebung bis zur Verwertung ein.

Benedikt Hofbauer (M.Sc. Biology) sammelte als Neurobiologe über Jahre Erfahrung mit der Akquise und Auswertung biologischer Daten. Inzwischen arbeitet er als Data Engineer in mehreren Projekten an der Datenintegration und Datenvisualisierung von Big Data, speziell im Bereich IoT.

Stephan Brehm, Benedikt Hofbauer
E101/102
Stephan Brehm, Benedikt Hofbauer
E101/102
Vortrag: Mi 6.7
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:45
Do 2.1
Low Code DWH – Turbo für den datengetriebenen Mittelstand
Low Code DWH – Turbo für den datengetriebenen Mittelstand

Der Aufbau eines Data Warehouse ist erfahrungsgemäß sehr aufwendig und langwierig. Gerade in Zeiten von Fachkräftemangel stellt es v. a. mittelständische Unternehmen vor die Herausforderung: Ausbau datengetriebener Entscheidungen, Automatisierung von Prozessen, Integration von IoT-Systemen. Die Goldhofer Aktiengesellschaft hat deshalb den Schritt zu Data Warehouse Automation mit dem Datavault Builder gewagt und innerhalb eines Jahres ein neues DWH aufgebaut.

Zielpublikum: Manager:innen, BI- und DWH-Entwickler:innen
Voraussetzungen: Grundverständnis zum Data Warehouse
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Wie gelingt der Weg zum datengetriebenen Unternehmen im Mittelstand? Datenbasierte Entscheidungen, Prognosesysteme, Verknüpfung von operativen Daten mit IoT-Daten, Automatisierung - Hierfür wird eine integrierte Datenbasis benötigt! Die Anbindung neue Systeme dauert meist mehrere Wochen. Anpassungen an bestehenden Systemen können durch die zunehmende Komplexität zu Seiteneffekten führen, was den Aufwand für die Wartung kontinuierlich steigen lässt. 
Um die Entwicklungszeit im Data Warehouse zu beschleunigen, mehr Flexibilität in der Modellierung zu ermöglichen und den Wartungsaufwand zu minimieren, hat sich die Goldhofer Aktiengesellschaft für die Einführung von Data Vault 2.0 mit Automatisierung durch den Datavault Builder entschieden. Nach über einem Jahr Nutzung der neuen Architektur hat sich bestätigt, dass die Nachteile der höheren Komplexität von Data Vault 2.0 durch die Automatisierung in den Hintergrund rücken. Das Unternehmen profitiert neben der gestiegenen Entwicklungsgeschwindigkeit von der gestiegenen Agilität und Transparenz aller Zusammenhänge und Automatisierung des Deployments. Durch die Metadaten-basierte Entwicklung sind die Wege für Migration auf eine analytische Datenbank bereitet.

Als Allrounder zu allen Themen rund um Daten, Data Warehouse und Reporting hat Andreas Peter in den vergangenen 3 Jahren bei der Goldhofer Aktiengesellschaft eine neue Business Intelligence-Plattform geschaffen und baut diese kontinuierlich aus. Schwerpunkte sind neben Datenmodellierung und Reporting auch Agilität und strategische Themen.

Petr Beles verfügt über fundierte Erfahrungen in Data-Warehouse-Projekten in den Bereichen Telekommunikation, Finanzen und Industrie. Seit mehreren Jahren führt er als Senior Consultant erfolgreich Projekte mit Data Vault durch. Nachdem er den Bedarf an Automatisierung mit Data Vault erkannt hatte, begann er zusammen mit seinen Kollegen mit der Entwicklung eines Automatisierungstools, das in der Erstellung des Datavault Builders gipfelte. Petr Beles ist heute CEO der 2150 Datavault Builder AG.
----
Petr Beles (Data-Vault-Specialist, Senior Consultant) has profound experience in data warehouse projects in the telecommunications, financial and industrial sectors. For several years he has been successfully implementing projects with Data Vault and trains teams in the application of this data modelling technique.

Andreas Peter, Petr Beles
E124
Andreas Peter, Petr Beles
E124
Vortrag: Do 2.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:45
Do 4.1
Der Cloud Data Lake als Enabler für Analytics @ Hapag Lloyd
Der Cloud Data Lake als Enabler für Analytics @ Hapag Lloyd

Auf dem Gesamtweg in die Cloud hat Hapag-Lloyd seine analytischen Fähigkeiten gestärkt, indem es eine zentrale Datenspeicherung ('Data LAKE') eingeführt hat und so Herausforderungen im Zusammenhang mit On-Premise-Lösungen überwunden und weitere Anwendungsfälle und Analysen ermöglicht hat. Die Präsentation wird auf die gemeisterten Herausforderungen und die direkten Vorteile aus dem Übergang in die Cloud eingehen.

Zielpublikum: Entscheider:innen, Product Specialists, Data Analysts, Data Scientists
Voraussetzungen: Grundlegendes analytisches Wissen, Grundlagen von Cloud-Umgebungen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Als eine der führenden Reedereien hat Hapag-Lloyd schon immer einen starken Fokus auf eine starke IT-Infrastruktur für den Betrieb und die Analyse gelegt - insbesondere die Nutzung von Daten, um Erkenntnisse, Dashboards und konkrete Maßnahmen zu generieren.

Mit immer mehr verfügbaren und zugänglichen Daten wird es immer deutlicher, dass die Fähigkeit, diese handlungsorientiert, sichtbar und in Produkte umzusetzen, ein entscheidender Erfolgsfaktor in der Schifffahrtsindustrie ist.
Angesichts der bevorstehenden neuen Herausforderungen hat Hapag-Lloyd beschlossen, die IT-Landschaft in die Cloud zu verlagern und ein enormes Projekt zur Migration, Überprüfung, Neubewertung und Innovation der gesamten IT-Landschaft in Richtung einer vollständig Cloud-basierten Infrastruktur zu starten.
Als eine der ersten Erfolgsgeschichten hat Hapag-Lloyd das Cloud-basierte Produkt 'Data Lake' aufgebaut. Das Produkt selbst ist zum zentralen Speicher für Analytics geworden und stellt alle relevanten Daten aus verschiedenen Datenquellen für die Analyse bereit.

Mit der Cloud-basierten Infrastruktur verschwanden die früheren Speicherlimitationen, was von einem Use-Case-getriebenen Ansatz zu einer Plattform führte. Daten werden also nicht mehr erhoben, sobald sie für eine Analyse gebraucht werden, sondern generell gesammelt, um für Analysen bereitzustehen.
Zunächst war der Fokus auf den Datenimport von den vorhandenen Kern-IT-Systemen in die Cloud gerichtet. Sobald die Daten in die Cloud geladen waren, ermöglichte dies eine dezentralisierte Analyse, mit der sich auch der Zugang zu den Daten signifikant veränderte und nun eine spezialisierte Benutzergruppe eingeführt wurde, die den Zugang zu allen verfügbaren Daten im Data Lake ermöglichte. Für diese Benutzergruppe wurde eine sichere Umgebung geschaffen, die den GDPR-Richtlinien entspricht. Alle personenbezogenen Informationen sind im Data Lake maskiert, wobei ein besonderer Schwerpunkt auf den Mitarbeiterdaten liegt, um die Möglichkeit zur Erstellung von Performance-Analysen auf Mitarbeiterbasis zu deaktivieren.
Darüber hinaus wurde das verfügbare Datenformat auch auf 'Change Data Capture' (CDC) geändert, was weitere Analysen ermöglichte (z. B. Verfolgung jeder Änderung an einem Versand, Schiff oder Container).

Die Einführung der spezialisierten Benutzergruppe im gesamten Unternehmen reduzierte die Abhängigkeit von verschiedenen IT-Teams und ermöglichte es den Benutzern, noch schneller von den Daten Erkenntnisse und Vorteile zu ziehen.
Die wichtigsten unterstützenden Technologien in der AWS-Cloud sind S3 als Speicher, Athena als Abfrage-Engine auf den S3-Daten, Glue als unterstützendes Tool zur Verbindung der S3-Daten mit Athena und Step-Functions zur Orchestrierung der Verarbeitung.
Neben der Einführung des Data Lakes war es essenziell, auch unterstützende Tools wie das Meta Data Management Tool einzuführen, um den Anwender zu führen und um Datenrelation und -zusammenhänge darzustellen.

Robert Ziegltrum ist Daten-Enthusiast, Data Scientist, Business Intelligence Specialist und Product Owner mit über 8 Jahren Erfahrung in BI und Analytics. Derzeit ist er Data Scientist und Product Owner des Data Lake bei Hapag-Lloyd. (>4 Jahre bei HL), vormals Data-Analyst bei Ströer (Ströer Media Brands) und RTL (Checkout Charlie).

Robert Ziegltrum
E119
Robert Ziegltrum
E119
Vortrag: Do 4.1
flag VORTRAG MERKEN

Vortrag Teilen

09:55 - 10:40
Do 2.2
Cloud-Kommunikation hinter Schloss & Riegel
Cloud-Kommunikation hinter Schloss & Riegel

Die Novellierung des IT-Sicherheitsgesetzes umfasst neue Wirtschaftszweige, die zukünftig die hohen KRITIS-Sicherheitsanforderungen erfüllen müssen. Um späteren Mehraufwand zu vermeiden, sollte Sicherheit daher von Anfang an mitbedacht werden (Secure by Design). Auch cloud-native Data Warehouses, Data Fabrics und Data Meshes müssen auf verschiedenen Ebenen abgesichert und Kommunikation muss verschlüsselt werden. infologistix zeigt einen Verschlüsselungsansatz einer Data Platform, der die BSI-Sicherheitsanforderungen erfüllt.

Zielpublikum: Platform Engineer, Data Engineer, Projektleiter:innen, IT-Verantwortliche
Voraussetzungen: BSI-Grundschutzkatalog, DWH-Konzepte in der Cloud, Container-Plattformen
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der KRITIS-Katalog umfasst nach der Novellierung der NIS 2-Richtlinie der EU nahezu alle Bereiche der digitalen Infrastruktur. In diesem Zusammenhang werden sämtliche großen Data Warehouse-Systeme die neuen Sicherheitsanforderungen erfüllen müssen. Für Cloud-native Daten-Plattformen muss dabei die gesamte Infrastruktur betrachtet werden. Hier muss sämtliche Kommunikation (ETL-Strecken, Datenbankanbindung, Batch Processing) TLS-verschlüsselt werden. Zu diesem Zweck wird der Ansatz des Service Mesh gewählt, um einen einfachen Zertifikatstausch zu ermöglichen und die Verschlüsselung der Kommunikation zu übernehmen.

Im Vortrag von infologistix wird hierzu ein Ansatz mit Istio präsentiert. Istio bietet neben der reinen Verschlüsselung der Kommunikation über mTLS auch viele weitere optionale Features für Authentifikation, Autorisierung und Ausfallsicherheit. Der Zuhörer erfährt anhand der praxiserprobten Lösung, wie die komplette Absicherung einer Plattform umgesetzt werden kann. Im Fazit erfolgt ein Abgleich der Lösung mit den hohen Sicherheitsanforderungen.

Dr.-Ing. Harald Philipp Gerhards ist Bereichsleiter Cloud Engineering bei der infologistix GmbH und Lehrbeauftragter an der TH Würzburg-Schweinfurt. Er ist zertifizierter Projekt- und Qualitätsmanager und berät als Senior Systemarchitekt Kunden mit den Schwerpunkten Container-Plattformen und Erweiterungen bestehender BI-Architekturen. Zurzeit ist er für eine hochsichere Kubernetes-Plattform eines Kunden verantwortlich und beschäftigt sich mit Security und Observability.

Paul Schmidt ist IT Consultant bei der infologistix GmbH. Mit einem Master in Informationssystemen hat er sich auf die Themen Industrie 4.0, Business Intelligence und Cloud Operations fokussiert. Sein Schwerpunkt liegt in der Entwicklung und Integration von Machine Learning und künstlicher Intelligenz sowie der Absicherung von Netzwerkarchitekturen. Auf der TDWI München digital 2021 hat er den Vortrag 'KI für Energetische Optimierung innerbetrieblicher Stromnetze' gehalten.

Harald Philipp Gerhards, Paul Schmidt
E124
Harald Philipp Gerhards, Paul Schmidt
E124
Vortrag: Do 2.2
flag VORTRAG MERKEN

Vortrag Teilen

09:55 - 10:40
Do 4.2
Datenpipelines, Dokumentation und Lineage mit SQL & dbt
Datenpipelines, Dokumentation und Lineage mit SQL & dbt

SQL ist nicht wegzudenken aus der Datenanalyse. In der Realität findet man dann häufig das Pattern: Python Glue Code in Notebooks, der SQL Statements ausführt. dbt (data build tool) hilft dabei, SQL-Datenpipelines strukturiert aufzubauen, inkl. Validierung der Daten, Dokumentation & Abhängigkeitsgraphen. Die Automatisierung von Datenaufbereitungen und Analysen gelingt so ganz einfach.

Zielpublikum: Data Engineer, Data Architect
Voraussetzungen: Grundlagen SQL/Python sind hilfereich
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
SQL ist weiterhin nicht wegzudenken aus der Datenanalyse - es ist vergleichsweise einfach zu lernen und kann ohne zusätzliche Werkzeuge auf einer Datenbank ausgeführt werden. Entsprechend ist es bei vielen Datenanalysten sehr beliebt. Es hat aber auch Schwächen, die besonders im Vergleich zu Python auffallen. Neben den bekannten ML-Frameworks gibt es in Python auch für Datenpipelines eine Reihe von Werkzeugen, sowohl zur Datenvalidierung als auch Orchestrierung. Dinge, die mit SQL allein gar nicht oder nur mühselig abzubilden sind. 

SQL für Transformationen möchte man nicht aufgeben. Allerdings befindet man sich heute auch als Data Analyst immer mehr in der Python-Welt wieder. Bei Datenplattformen ist Python oft der Standard für jegliche Verarbeitung von Daten. Und auch die Data Engineers wollen lieber Python als SQL schreiben. Da mit SQL aber vergleichsweise gut Transformationen auf Daten ausgedrückt werden können, findet man dann häufig folgendes Pattern: Python Glue Code wird geschrieben, der dann SQL Statements ausführt. Und das Ganze im Extremfall auch noch verteilt über Notebooks.

dbt (data build tool) ist ein Kommandozeilentool, um mit SQL solche Datenpipelines strukturiert aufzubauen. Ebenso ermöglicht es, die Validierung der Daten direkt mit zu erledigen. Auch bei der Historisierung von Stammdaten, die regelmäßig aus operativen Systemen abgezogen werden, hilft es. Als Ergebnis gibt es nicht nur saubere & gefüllte Tabellen in einer Datenbank, sondern auch noch Dokumentation und Abhängigkeitsgraphen. Das Ganze hilft nicht nur beim Aufbereiten von Daten. Auch die darauf folgenden, regelmäßigen Analysen und Auswertungen lassen sich so bequem automatisieren. Inklusive Rückverfolgbarkeit, welche Analyse welche Daten benutzt. Und wenn die Basisdaten inhaltliche Fehler aufweisen, werden die Auswertungen, die darauf basieren, gar nicht erst aktualisiert.

Matthias Niehoff ist als Data Architect sowie Head of Data & AI für die codecentric unterwegs und unterstützt Kunden bei Design und Umsetzung von Datenarchitekturen. Dabei liegt sein Fokus weniger auf dem Modell, sondern viel mehr auf der notwendigen Infrastruktur & Organisation, um Daten & KI-Projekten zum Erfolg zu verhelfen.

Matthias Niehoff
E119
Matthias Niehoff
E119
Vortrag: Do 4.2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:10
Do 2.3
Modern Data Stack im Bereich Erneuerbare Energien
Modern Data Stack im Bereich Erneuerbare Energien

Wir geben einen Überblick über den Modern Data Stack bei SENEC. SENEC ist der größte Solarstromspeicheranbieter in Deutschland mit einer starken Wachstumsstory. Innerhalb dieses Umfelds kam die Idee, einen Modern Data Stack als Single Point of Truth für sämtliche Datenprodukte aufzusetzen. Von der Idee bis zum PoC war und ist es ein sehr spannender Weg, auf den wir euch gerne mitnehmen wollen. Wir geben euch einen Überblick über die Architektur und zeigen euch aus verschiedenen Perspektiven Highlights & Lowlights.

Zielpublikum: Data Engineers, Analyst:innen, Entscheider:innen, Projektmanager:innen
Voraussetzungen: Erfahrung in der Arbeit mit DWHs, wünschenswert auch Erfahrung im Cloud-Umfeld
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Ein Modern Data Stack besteht aus einer Vielzahl von Technologien und Tools, die für die Erfassung, Speicherung, Verarbeitung und Analyse von Daten unerlässlich sind. In diesem Vortrag erhaltet ihr einen Überblick über den Data Stack bei SENEC. In dem Vortrag wird der Hintergrund des Projektes dargelegt, die Komponenten des Stacks sowie der Weg zur finalen Plattform.
Hintergrund: Durch das starke Wachstum der Firma SENEC haben wir uns als BI-Team entschlossen, einen Modern Data Stack auf Basis von Azure einzuführen, um mit den wachsenden Reporting- und Analyseanforderungen Schritt halten zu können. 
 

Armin Geisler verantwortet als Team Lead den Bereich Data & Analytics bei der SENEC GmbH in Leipzig. In seiner aktuellen Rolle trägt er Verantwortung für das 12-köpfige Team, die BI-Struktur und ist an verschiedenen Reporting & Analytics-Projekten in Power BI sowie an Data Science-Projekten (z. B. Predictive Analytics) beteiligt. Eines seiner wichtigsten Projekte bei SENEC ist die Erstellung einer unternehmensweiten Datenplattform für Analysen und Reports.

Lisa-Marie Krause ist studierte Mathematikerin und hat in der Vergangenheit im Bankensektor wertvolle Beratungserfahrung gesammelt. Nach einer Weiterbildung im Bereich Data Engineering hat sie im Herbst 2021 bei der SENEC begonnen zu arbeiten. Bei der SENEC betreut Lisa die Interne Data and Analytics-Plattform (DAP) und weitere Data Engineering-Projekte.

Philipp Schlechter hat bereits einschlägige Erfahrung im Bereich Data Engineering und hat vor dieser Laufbahn ein Studium im Bereich Computer Science absolviert. Seit Februar 2023 ist er bei der QUNIS und unterstützt dort unter anderem den Aufbau der SENEC-Datenplattform mithilfe seines tiefen Fachwissens im Bereich Data Engineering.

Armin Geisler, Lisa-Marie Krause, Philipp Schlechter
E124
Armin Geisler, Lisa-Marie Krause, Philipp Schlechter
E124
Vortrag: Do 2.3
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:10
Do 4.3
SAP Greenfield DWH mit Data Vault bei der C&A
SAP Greenfield DWH mit Data Vault bei der C&A

Das Fashion-Retail Unternehmen C&A führt aktuell eine SAP Retail-Landschaft ein. Der Aufbau eines Greenfield Data Warehouse als Basis für Analytics, BI und Reporting ist dabei grundlegender Bestandteil. Anders als in traditionellen SAP-Umgebungen hat sich C&A für die Einführung einer best-of-breed DWH-Architektur auf Grundlage von Data Vault, Data Warehouse Automation und einer Data Lakehouse-Architektur entschieden, die erst auf Basis einer Cloud-basierten DWH-Plattform eines Hyperscaling-Anbieters möglich wurde.

Zielpublikum: Data Architect, Data Engineer, BI Expert:in, Data Analyst
Voraussetzungen: Grundkenntnisse in Datenarchitektur und Datenmanagement
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Das Fashion-Retail Unternehmen C&A führt aktuell eine SAP Retail-Landschaft ein. Ziel ist es, die zahlreichen Geschäftsprozesse zu digitalisieren und zu optimieren. Der Bedarf für Analytics ist im Unternehmen hoch, sodass der Aufbau eines Greenfield Data Warehouse als Basis für Analytics, BI und Reporting von Anfang an Bestandteil des SAP-Programms wurde. Anders als in traditionellen SAP-Umgebungen hat sich C&A für die Einführung einer best-of-breed DWH-Architektur auf Grundlage von Data Vault, Data Warehouse Automation und einer Data Lakehouse-Architektur entschieden, die erst auf Basis einer Cloud-basierten DWH-Plattform eines Hyperscaling-Anbieters möglich wurde.

Übergreifendes Ziel des Greenfield DWHs ist die Bereitstellung einer Data Platform für sämtliche Dateninhalte der C&A, d.h. sowohl aus der SAP Retail-Landschaft als auch aus sämtlichen Non-SAP-Systemen. Hierdurch sollen flexible und performante Möglichkeiten für Analytics und Reporting geschaffen werden. Eine einfache Datenintegration mit Non-SAP-Daten ist ein wichtiges, langfristiges Ziel, ebenso wie die direkte Verknüpfbarkeit von SAP-Daten mit Rohdaten (z. B. Kassendaten, Sensordaten, Customer Counting, RFID) für Analytics.

Lutz Bauer ist seit 2019 als Domain-Architekt für Data und Analytics bei der IT-Tochter der C&A tätig. Seine fachlichen Schwerpunkte sind Data Integration, DWH-Plattformen und die Modernisierung von DWH-Architekturen. Er blickt auf über 25 Jahre Erfahrung im Bereich Data Warehousing und BI zurück und war bereits Autor im BI Spektrum sowie mehrfach Sprecher auf der TDWI-Konferenz und anderen Veranstaltungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/lutz.bauer

Till Sander weist eine 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Vor areto war er als Solution Manager bei verschiedenen Beratungsunternehmen tätig. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran. Seine Ausdauer und seinen Willen immer das Optimum zu erreichen, beweist er nicht nur in den Kundenprojekten sondern auch als passionierter Rennradler.
Mehr Infos finden Sie hier: https://tillsander.wordpress.com/

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/till.sander

Lutz Bauer, Till Sander
E119
Lutz Bauer, Till Sander
E119
Vortrag: Do 4.3
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Do 2.4
Die „Re-Evolution“ einer ganzheitlichen Datenplattform in der Cloud
Die „Re-Evolution“ einer ganzheitlichen Datenplattform in der Cloud

Der Vortrag zeigt den Weg, wie das BI Competence Center der Volkswagen Marke Nutzfahrzeuge es geschafft hat, in kurzer Zeit eine On Premises DWH-Plattform für die die gesamte Volkswagen Gruppe auf modernste Cloudtechnologie zu migrieren und zu skalieren. Hierbei wird speziell auf Herausforderungen der Skalierbarkeit klassischer BI-Architekturen und die Grenzen der Nutzung von Automation im Kontext von Cloudservices eingegangen. Der Bericht stammt aus der aktuellen Praxis und macht klar wie flexibel und erweiterbar heutige Teams und Architekturen sein müssen, um den heutigen Business-Anforderungen gerecht zu werden.

Zielpublikum: (Cloud-) Data Engineers, BI-Projektmanager:innen, Cloud-Architekt:innen, Entscheider:innen...
Voraussetzungen: Grundverständnis von Daten- und BI-Themen, Cloud-Architektur und BI-Strategie
Schwierigkeitsgrad: Fortgeschritten

Tim Grützner ist seit 13 Jahren im BI-Bereich tätig und während seiner Tätigkeit als Head of BI für die Marke Nutzfahrzeuge wechselte Tim mit seinem gesamten Team in die Volkswagen Group IT und verantwortet aktuell technisch eine der größten BI-Plattformen der Volkswagen-Gruppe in der Azure-Cloud.

Tim Grützner
E124
Tim Grützner
E124
Vortrag: Do 2.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 16:15
Do 4.4
Each Data Architectures Requires a Metadata Architecture
Each Data Architectures Requires a Metadata Architecture

In all data architectures, be it a data mesh, data fabric, data warehouse, or data lakehouse architecture, metadata is indispensable. This is especially true for business users who develop their own dashboards and reports and create data science models. To offer frictionless access to metadata, it is important that, when designing a data architecture, time is reserved for designing a full-fledged metadata architecture. Metadata should not be an afterthought or treated like a neglected stepchild. It is the key to a successful data architecture.

Target Audience: Data Architects, Enterprise Architects, Solutions Architects, IT Architects, Data Warehouse Designers, Analysts, Chief Data Officers, Technology Planners, IT Consultants, IT Strategists
Prerequisites: Some understanding of data architectures
Level: Advanced

Extended Abstract:
In the past, metadata was mainly kept for IT specialists. They needed detailed descriptions of what all the files, tables, and columns meant. That need still exists, but new users are interested in metadata.

Today, business users, especially those who develop their own dashboards and create data science models, need access to metadata. They need to be able to see descriptions, categorizations, lineage, and so on. They need to know exactly what they are looking at. They must be able to search metadata to find the right data to develop a report or data science model. They also need metadata to clarify how to interpret the data. So, we need to analyze in detail what types of metadata business users need.

It is also important to study how they want to access the metadata. For example, for a business user working with a dashboard full of financial data, descriptions of what all those values mean should be readily available. And they may want to see that metadata automatically when they hover their mouses over a specific value for two seconds. They may not want to start a separate system to get those descriptions, because it would be inconvenient and time consuming. It is important to understand how users want to use metadata. Business users may want to add their own metadata descriptions in the form of annotations. Again, to design the right metadata architecture, this would be an important requirement.

Currently, metadata must be properly managed for reasons of data privacy, security, auditability, and governability, which may require robust forms of version control. 

Metadata must also be entered and extracted from other systems. With respect to extraction, an ETL-like solution may be required to extract metadata from source systems and schedule these extraction processes periodically, as metadata can change. Keep in mind that ETL for metadata does not simply extract metadata from some structured data source. It can mean extracting metadata descriptions from ETL programs, database stored procedures, and the semantic layers of reporting tools. The source for metadata-ETL is not always a database, but sometimes also code and specifications.

All of these requirements do not magically appear; they must be analyzed, designed, and developed. In all data architectures, be it a data mesh, data fabric, data warehouse, or data lakehouse architecture, metadata is indispensable, especially for modern business users who develop their own dashboards and reports. To offer frictionless access to metadata, it is important that, when designing a data architecture, time is reserved for designing a full-fledged metadata architecture. Metadata should not be an afterthought or treated like a neglected stepchild. Metadata is the key to a successful data architecture.

Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.

Rick van der Lans
E119
Rick van der Lans
E119
Vortrag: Do 4.4
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Do 2.5
Sustainalytics: Grüne (Daten-)Lösungen für grüne Zahlen
Sustainalytics: Grüne (Daten-)Lösungen für grüne Zahlen

In einer quantitativen Umfrage hat Adastra festgestellt, dass viele Unternehmen ihre Nachhaltigkeitspotenziale noch nicht voll ausschöpfen. Neue Gesetze erhöhen den Druck. Unternehmen sollten sich jedoch nicht nur daran halten, weil sie müssen - sondern die Gelegenheit nutzen, um innovativ und wertschöpfend zu sein.
Die Herausforderung dabei: auf relevante Daten zuzugreifen und sie auszuwerten. In diesem Vortrag sprechen wir darüber, wie Sie moderne Datenarchitekturen nutzen können, um Ihre Unternehmens- und Nachhaltigkeitsziele zu erreichen.

Zielpublikum: Entscheider:innen, ESG Officers, Data Architects/Engineers
Voraussetzungen: Interesse an Nachhaltigkeit und/oder modernen Datenlösungen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
In einer quantitativen Umfrage hat Adastra festgestellt, dass viele Unternehmen ihre Nachhaltigkeitspotenziale noch nicht voll ausschöpfen. Dies gilt insbesondere auch für Nachhaltigkeit im Datenmanagement. Neue Gesetze erhöhen den Druck. Unternehmen sollten sich jedoch nicht nur daran halten, weil sie müssen - sondern die Gelegenheit nutzen, um innovativ und wertschöpfend zu sein.
Die Herausforderung dabei: auf relevante Daten zuzugreifen und sie auszuwerten. In diesem Vortrag sprechen wir darüber, wie Sie moderne Datenarchitekturen nutzen können, um Ihre Unternehmens- und Nachhaltigkeitsziele zu erreichen. Darüber hinaus zeigen wir verschiedene Lösungen und Best Practices aus Kundenprojekten auf, wie Sie Ihre Daten nutzen können, um Nachhaltigkeitsinitiativen in Ihrem Unternehmen zum Erfolg zu führen. Im Fokus dabei sind unter anderem die Optimierung von Query-Performance und Data Storage, Cloudification sowie die Optimierung von Logistikprozessen.

Dr. Michael Simora ist Head of Adastra South Germany und als Lead Data Governance & Data Science Consultant tätig. Bevor er vor 5 Jahren ein Teil von Adastra wurde, analysierte Dr. Michael Simora in seiner Dissertation empirisch die Wahrnehmung und Anpassungen deutscher Privathaushalte an den Klimawandel sowie die Akzeptanz verschiedener klimapolitischer Maßnahmen. Als Projekt- & Account Manager verknüpft er heute in Kundenprojekten Nachhaltigkeit mit modernen Datenlösungen.

Michael Simora
E124
Michael Simora
E124
Vortrag: Do 2.5
flag VORTRAG MERKEN

Vortrag Teilen

Zurück