Konferenzprogramm

Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

 

Thema: Data Mesh

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    11.06.
  • Mittwoch
    12.06.
  • Donnerstag
    13.06.
, (Dienstag, 11.Juni 2024)
10:40 - 11:25
Di 3.1
Data Mesh & DDD: Synergien für datengetriebene Exzellenz
Data Mesh & DDD: Synergien für datengetriebene Exzellenz

Dieser Vortrag beleuchtet Data Mesh im Detail und streift dabei auch alle zugehörigen Themen, wie Domain-oriented decentralized Data Ownership and Architecture, Data as a Product, Self-serve Data Infrastructure as a Platform und Federated Governance.

Ein besonderer Fokus dieses Vortrags liegt auf den Parallelen zu modernen cloud-nativen OLTP-Architekturen. Der Vortrag endet mit einem Ausblick auf zukünftige Entwicklungen im Bereich Data Mesh und gibt Empfehlungen für Unternehmen, die eine agile und skalierbare Datenstrategie anstreben.

Zielpublikum: Datenarchitekten, Data Engineers und Führungskräfte
Voraussetzungen: Architekturwissen hilfreich, Governance
Schwierigkeitsgrad: Basic

Extended Abstract:
Dieser Vortrag beleuchtet das Konzept des Data Mesh, das einen Paradigmenwechsel in der Verwaltung von Daten in Unternehmen verspricht. Data Mesh geht über traditionelle Vorgehen einer zentralen Datenhaltung für analytische Daten hinaus, indem es eine dezentrale, föderierte Dateninfrastruktur fördert. Das Versprechen eines Data Mesh: Datensilos, wie wir sie bisher kennen, gehören der Vergangenheit an. 

Der Vortrag beginnt mit einer Einführung in die Herausforderungen herkömmlicher Datenarchitekturen und zeigt auf, wie Data Mesh diese adressiert.

Im weiteren Verlauf werden die vier Grundprinzipien von Data Mesh detailliert erläutert: Domain-oriented decentralized Data ownership and architecture, Data as a product, Self-serve data infrastructure as a platform, Federated governance. Diese Prinzipien ermöglichen eine effiziente Skalierung, verbessern die Datenqualität und fördern die Eigenverantwortung der Teams für ihre Daten. Dabei wird auch betrachtet, was diese Ideen eines Data Mesh für die Organisation und die Menschen bedeuten.

Ein besonderer Fokus dieses Vortrags liegt auf den Parallelen zu modernen cloud-nativen OLTP-Architekturen, wobei die Übertragbarkeit der Data-Mesh-Prinzipien auf in diesem Zusammenhang bereits etablierte Integrationskonzepte und -prozesse betont wird. Der Vortrag endet mit einem Ausblick auf zukünftige Entwicklungen im Bereich Data Mesh und gibt Empfehlungen für Unternehmen, die eine agile und skalierbare Datenstrategie anstreben. Dieser Vortrag richtet sich an Datenarchitekten, Data Engineers und Führungskräfte, die ihre Dateninfrastruktur zukunftsfähig gestalten möchten.

Fabian Hardt arbeitet als Solution Architect bei der OPITZ CONSULTING Deutschland GmbH. Er verfügt über langjährige Projekterfahrung in Analytics-Projekten und beschäftigt sich mit modernen Architekturen für die gestiegenen Anforderungen im Zeitalter der Digitalisierung.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/fabian.hardt

Sven Bernhardt ist ein Technologie-Enthusiast und arbeitet für Opitz Consulting in Deutschland als Chief Architect und Integration Evangelist im Corporate Development Team. In seiner Rolle ist er für das Management des Technologieportfolios und die Entwicklung von Best Practices und Richtlinien verantwortlich. Darüber hinaus unterstützt Sven seine Kollegen bei der Implementierung von Softwarelösungen für Kunden. Zu seinen Kernthemen gehören cloud-native Architekturen, API-Management und Service Mesh. Sven spricht regelmäßig auf verschiedenen Konferenzen über Technologie- und Architekturthemen und teilt seine Gedanken und Erfahrungen in Artikeln und Blogbeiträgen. Zudem beteiligt er sich als Kong Champion sowie Oracle ACE Pro aktiv am Wissensaustausch in der Development Community.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/sven.bernhardt

Fabian Hardt, Sven Bernhardt
E119
Fabian Hardt, Sven Bernhardt
E119

Vortrag Teilen

10:40 - 11:25
Di 5.1
Mehr Demokratie wagen – und als Architekt die Flöhe hüten?
Mehr Demokratie wagen – und als Architekt die Flöhe hüten?

Stellen Sie sich vor, Sie haben in einem Großunternehmen als Daten-Architekt einer BI-Initiative mit ca. 160 Daten-Enthusiasten aus zentraler IT, Business Units und Zentralabteilungen die Aufgabe, die Architektur zu gestalten. Ist das wie einen Sack Flöhe zu hüten? Wie prägt ein 'people first'-Ansatz die Architekturarbeit? Und welchen Beitrag leisten aktuelle technische und organisatorische Ansätze wie Cloud, Data Marketplaces oder Data Mesh dabei?

Zielpublikum: Data Engineer, Project Leader, Decision Makers, Architects
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Edgar Kaemper ist Architecture Guide bei Bosch im Bereich xBI (Cross Business Intelligence). Er hat in Groß- und mittelständischen Unternehmen Big-Data-Architekturen und Data-Warehouse-Services (SaaS) aufgebaut und betrieben.
Edgar Kaemper ist Sprecher auf Anwendertreffen und Konferenzen.
Nebenberuflich ist er Vorsitzender einer Stiftung und unterstützt als Perspektivenentwickler einen Jugendverband mit > 50.000 Ehrenamtlichen in Change-Prozessen.

Edgar Kaemper
K3
11:35 - 12:20
Di 3.2
Erfahrungsbericht einer modernen Lakehouse-Architektur
Erfahrungsbericht einer modernen Lakehouse-Architektur

Wir klären, warum die Kombination aus Data Mesh und Data Vault DWH einen entscheidenden Wettbewerbsvorteil in einem dynamischen Umfeld birgt. Und zeigen auf, wie mittels Databricks und dbt die Transformation von einem klassischem DWH hin zu einer modernen Lakehouse-Architektur gelingt. Neben einem technischen 'deep dive' in die Data-Vault-Herausforderungen beinhaltet der Vortrag einen Erfahrungsbericht. Wir beantworten, wie es uns gelungen ist, ein für die Analysten neues Data-Vault-Konzept in einer dezentralen Daten-Umgebung zu implementieren.

Zielpublikum: Data Engineer, Data Architekt, Project Leader, Data Analyst
Voraussetzungen: Grundkenntnisse in Data Vault 2.0 und Data Mesh
Schwierigkeitsgrad: Basic

Extended Abstract:

  • Warum birgt die Kombination aus Data Mesh und Data Vault Warehouse einen entscheidenden Wettbewerbsvorteil in einem sehr dynamischen Umfeld?
  • Wie entsteht eine Synergie zwischen dezentralem Mesh und zentralem DWH?

In diesem Vortrag wollen wir genau diese Fragestellungen beantworten. Und zeigen auf, wie - mittels Databricks und dbt - die Transformation von einem sehr klassischem DWH hin zu einer modernen Lakehouse-Architektur gelingt.

Seit dem Start der Flaschenpost in Münster umfasst das Liefergebiet mehr als 200 Städte in ganz Deutschland. Das führt zwangsläufig auch datenseitig zu immer neuen und steigenden Anforderungen.

Neben einem technischen 'deep dive' in die Data-Vault-Herausforderungen innerhalb dieser Umgestaltung beinhaltet der Vortrag einen Erfahrungsbericht. Wir beantworten, wie es uns gelungen ist, ein für die Datenanalysten völlig neues Data-Vault-Konzept in einer dezentralen Daten-Umgebung zu implementieren.

Vera Melang verfügt über 9 Jahre Berufserfahrung im Bereich Business Intelligence, Data Warehouse Architektur und Reporting über viele Branchen hinweg. Als Teamleiterin Data Warehouse und Data Engineer hat sie viele Projekte im Bereich BI und DWH absolviert. Zurzeit baut sie zum zweiten Mal ein Data Vault basiertes Data Warehouse.

Marco Lohaus verfügt über mehr als 10 Jahre Erfahrung im Bereich Business Intelligence, Data Science und Dashboarding mit besonderen Fachkenntnissen im E-Commerce.
Im Rahmen seiner Tätigkeit als BI-Leiter, Management-Berater und Architekt hat er Projekte in den Bereichen Reporting, Big Data, DWH, Digitalisierung und Data Science verantwortet.

Vera Melang, Marco Lohaus
E119
Vera Melang, Marco Lohaus
E119

Vortrag Teilen

14:30 - 15:30
Di 3.3
Erfahrungen aus zwei Jahren Data Mesh Architekturanwendung
Erfahrungen aus zwei Jahren Data Mesh Architekturanwendung

Die ANDREAS STIHL AG & Co. KG befindet sich im Prozess der Digitalisierung. Als ein Kernelement wurde die Data Analytics Platform als Basis für die Umsetzung zahlreicher unterschiedlicher Anwendungsfälle verschiedener Fachbereiche vor mehr als zwei Jahren entworfen und realisiert. Die Plattform ist nach dem Prinzip der Data Mesh Architektur konzipiert. In unserem Vortrag möchten wir wichtige Erfahrungen teilen und auch einen Ausblick auf eine mögliche zukünftige Weiterentwicklung geben.

Zielpublikum: Data Architects, Data Strategists, Data Engineers
Voraussetzungen: Basic knowledge of Data Platforms
Schwierigkeitsgrad: Advanced

Extended Abstract:
Im Zuge der Digitalisierung sind bei ANDREAS STIHL AG & Co. KG zahlreiche Ideen für die zukünftige Nutzung von Daten entstanden. Nach einer Evaluation aktueller und abzusehender zukünftiger Anforderungen und damals bestehender technischer Lösungen sowie möglicher Alternativen vor mehr als zwei Jahren wurde die Entscheidung für den Aufbau einer neuen Plattform für analytische Zwecke gefällt. Die Wahl fiel auf eine Data Mesh Architektur. Im Verlauf der letzten beiden Jahre sind mehrere Instanzen entstanden, die die unterschiedlichen Datenhaushalte und Anwendungsfälle der verschiedenen Fachbereiche beheimaten. Ebenso entwickeln sich die möglichen technischen Lösungsoptionen weiter, die im Zuge einer kontinuierlichen Bewertung einen Einfluss auf die zukünftige Ausgestaltung haben. In unserem Vortrag möchten wir einen technischen und organisatorischen Überblick geben und wichtige Erfahrungen teilen.

Dr. Dierk Jugel ist Teamleiter des Big Data Analytics Hub bei STIHL, einem zentralen Kompetenzzentrum für Data Analytics & KI. In seiner aktuellen Rolle verantwortet er die Data Analytics Platform als Basis für Use-Case-Implementierungen zusammen mit Fachbereichen und treibt die Datenstrategie für STIHL voran.

Fabian Schmid ist Data Engineer und Solution Architect im Big Data Analytics Hub bei STIHL.
In dieser Funktion ist er neben der kontinuierlichen Weiterentwicklung der Data Analytics Platform auch für die gemeinsame Umsetzung von Use Cases mit verschiedenen Fachbereichen zuständig.

Peter Schulz ist ein Technologie-Enthusiast mit dem professionellen Schwerpunkt auf Datenplattformen. Seit mehr als 20 Jahren unterstützt er Unternehmen aus den unterschiedlichsten Branchen bei der erfolgreichen Generierung von Werten aus Daten mit der zielgerichteten Hilfe von Technologien. Dabei hat er breite und tiefe Erfahrung mit unterschiedlichen Anwendungsfällen, Regularien und Technologien erworben. Peter ist Head of Data Architecture bei der Alexander Thamm GmbH.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/peter.schulz

Dierk Jugel, Fabian Schmid, Peter Schulz
E119
Dierk Jugel, Fabian Schmid, Peter Schulz
E119

Vortrag Teilen

14:30 - 15:30
Di 5.3
Data Architecture Evolution and the Impact on Analytics
Data Architecture Evolution and the Impact on Analytics

This session looks at how adoption of open table formats by data warehouse database management vendors and advances in SQL are making it possible to merge siloed analytical systems into a new federated data architecture supporting multiple analytical workloads.

Target Audience: Data architect, enterprise architect, CDO, data engineer
Prerequisites: Basic understanding of data architecture & databases
Level: Advanced

Extended Abstract:
In the last 12-18 months we have seen many different architectures emerge from many different vendors who claim to be offering 'the modern data architecture solution' for the data-driven enterprise. These range from streaming data platforms to data lakes, to cloud data warehouses supporting structured, semi-structured and unstructured data, cloud data warehouses supporting external tables and federated query processing, lakehouses, data fabric, and federated query platforms offering virtual views of data and virtual data products on data in data lakes and lakehouses. In addition, all of these vendor architectures are claiming to support the building of data products in a data mesh. It's not surprising therefore, that customers are confused as to which option to choose.  

However, in 2023, key changes have emerged including much broader support for open table formats such as Apache Iceberg, Apache Hudi and Delta Lake in many other vendor data platforms. In addition, we have seen significant new milestones in extending the ISO SQL Standard to support new kinds of analytics in general purpose SQL. Also, AI has also advanced to work across any type of data. 

The key question is what does this all mean for data management? What is the impact of this on analytical data platforms and what does it mean for customers? What opportunities does this evolution open up for tools vendors whose data foundation is reliant on other vendor database management systems and data platforms? This session looks at this evolution and helps vendors realise the potential of what's now possible and how they can exploit it for competitive advantage.

  • The demand for data and AI
  • The need for a data foundation to underpin data and AI initiatives
  • The emergence of data mesh and data products
  • The challenge of a distributed data estate
  • Data fabric and how can they help build data products
  • Data architecture options for building data products
  • The impact of open table formats and query language extensions on architecture modernisation
  • Is the convergence of analytical workloads possible?

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

16:00 - 16:45
Di 3.4
Moderne Datenorchestration im Kontext der Automobilindustrie
Moderne Datenorchestration im Kontext der Automobilindustrie

Im Vortrag wird die praktische Umsetzung einer Architektur auf Basis des modern Technology Stack (Einsatz von: DBT, Databricks, Dagster) im Kontext der Automobilindustrie gezeigt. Hierbei wird besonderer Fokus auf ein modernes Orchestrationswerkzeug gelegt, welches am Markt noch nicht so bekannt ist. Es wird auch übergreifend auf den Gesamtkontext eines Enterprise-Unternehmens hinsichtlich Data Governance, Data Security und Data Mesh sowie die Nutzung mehrerer Cloud-Hyperscaler eingegangen.

Zielpublikum: Data Engineers, BI Specialists, Data Managers, BI Solution Architects, Cloud Engineers
Voraussetzungen: Basiswissen über modernes Datenmanagement, Data Warehousing und BI
Schwierigkeitsgrad: Advanced

Tim Grützner arbeitet in seiner aktuellen Rolle als Produktmanager für Data Platforms and Products übergreifend für die Realisierung einer Datenplattform auf Basis des modern Technology Stack und verantwortet eine Großzahl von BI- und Dateninitiativen für die Marke Volkswagen Nutzfahrzeuge und in der Volkswagen AG. Er ist seit ca. 10 Jahren für Volkswagen tätig und hatte verschiedene Rollen im Kontext Data Management wie z.B. Head of BI für VW Nutzfahrzeuge in der Vergangenheit inne.

Tim Grützner, Maximilian Vollmer, Sascha Kellner
E119
Tim Grützner, Maximilian Vollmer, Sascha Kellner
E119

Vortrag Teilen

16:00 - 16:45
Di 5.4
Consumer-Driven Contract Testing for Data Products
Consumer-Driven Contract Testing for Data Products

Data Mesh is a decentralized approach to enterprise data management. A Data Mesh consists of Data Products, which can be composed to form higher-order Data Products. In order for a Data Mesh to scale, this composition needs to be safe and efficient, which calls for automated testing. In the Microservices architecture, scalably testing the interaction between services is sometimes achieved by an approach called Consumer-Driven Contract Testing. This session explores how this approach can be applied to the automated testing of Data Products.

Target Audience: Data Engineers, Data Scientists
Prerequisites: Basic knowledge of key concepts of Data Mesh, such as Data Products, as well as basic knowledge of Microservices architectural practices
Level: Advanced

Arif Wider is a professor of software engineering at HTW Berlin and a fellow technology consultant with Thoughtworks Germany, where he served as Head of Data & AI before moving back to academia. As a vital part of research, teaching, and consulting, he is passionate about distilling and distributing great ideas and concepts that emerge in the software engineering community. He is a frequent speaker at conferences, book author, and industry expert on topics around Data Mesh.

Arif Wider
K3
Arif Wider
K3

Vortrag Teilen

17:15 - 18:00
Di 3.5
DWH vs. Data Mesh – ein Streitgespräch
DWH vs. Data Mesh – ein Streitgespräch

Im Konflikt zwischen traditionellem Data Warehouse und moderner BI geht es um mehr als Buzzwords! Und diesen Konflikt werden Andreas und Artur live auf der Bühne austragen!

Ist ein dezentraler Ansatz mit Datenprodukten wirklich ein Fortschritt oder nicht doch vielmehr unrealistisches Marketing, das keinen Mehrwert bringt? Ist jemand, der weiterhin auf ein zentrales und verwaltetes Data Warehouse besteht, wirklich von gestern? Oder sind die ganzen Konflikte bald dank KI ohnehin überflüssig?

Zielpublikum: Datenarchitekten, Modellierer und allgemein Leute, die Daten ernst nehmen
Voraussetzungen: Buzzword wie Data Mesh, Data Vault, Stern-Schema und Co. zu kennen, ist sicher von Vorteil, denn Insider-Sprüche gehören zu so einem Nerd-Battle dazu
Schwierigkeitsgrad: Advanced

Extended Abstract:
Im Stil von Pro-/Contra-Debatten werden wir den immer währenden Kampf zwischen zentralem und dezentralem Datenmanagement-Ansatz austragen.

Dabei geht es weniger ums Gewinnen, sondern darum aufzuzeigen, welche Debatten bei Entscheidungen geführt werden und was sinnvolle und weniger sinnvolle Argumente sind. Hoffentlich werden wir dabei den einen oder anderen Zuschauern auch den Spiegel vorhalten und für Aha-Effekte sorgen.

Fachlichkeit kommt dabei natürlich nicht zu kurz, denn auch wenn es bei Entscheidungen nicht immer nur um Technik geht, so ist die sachliche Auseinandersetzung damit absolut unersetzlich, um sich weiterzuentwickeln.

Ob Data Mesh alle Probleme löst, wissen wir danach vermutlich immer noch nicht, aber immerhin haben wir gute Argumente, was im konkreten Einsatz dafür oder dagegen sprechen könnte.

Andreas Peter ist als Data Architect bei Bosch im Bereich Datenmodellierung, Datenstrategie und Semantische Modellierung.

Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe. 
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld. 

Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.

Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.

Andreas Peter, Artur König
E119
Andreas Peter, Artur König
E119

Vortrag Teilen

17:15 - 18:00
Di 5.5
Stichwort Data Fabric – zwischen Vision und Pragmatismus
Stichwort Data Fabric – zwischen Vision und Pragmatismus

Eine Data Fabric soll den Zugriff auf die verteilten Daten im Unternehmen vereinfachen oder überhaupt erst ermöglichen. Die Vorstellungen, wie eine Data Fabric aussieht und was Anbieter unter dem Label verkaufen, klaffen oft weit auseinander.

Wie sind aktuelle Konzepte und Angebote am Markt einzuordnen? Welche Wege gibt es, die Data Fabric und die damit verbundenen Versprechen für mich Realität werden zu lassen? Der Vortrag soll ein Verständnis über die Bedeutung und eine Einordnung von Lösungen und Konzepten ermöglichen.

Zielpublikum: CDO, CIO, Verantwortliche Data & Analytics, Datenarchitekten, IT-Architekten
Voraussetzungen: Grundlegende Kenntnisse zu Datenarchitekturen und Datenmanagementkonzepten
Schwierigkeitsgrad: Advanced

Extended Abstract:
Real-time-, Business- oder Logical-Data-Fabric. Marktforschungsunternehmen und Technologieanbieter streiten sich über die Deutungshoheit der Data Fabric und arbeiten damit häufig an der Situation der Kunden vorbei. Was ist wirklich wichtig, welche Komponenten bringen mich wirklich weiter und wie wirken sich aktuelle Trends wie Data Mesh und LLMs auf das Konzept aus, um endlich die Herausforderungen eines modernen, analytischen Datenmanagements zu bewältigen.

Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einstieg bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Peter_Baumann

Peter Baumann
K3
Peter Baumann
K3

Vortrag Teilen

, (Mittwoch, 12.Juni 2024)
10:30 - 11:15
Mi 4.2
Mesh Dich nicht ein! Vom klassischen DWH zum agilen Data Mesh
Mesh Dich nicht ein! Vom klassischen DWH zum agilen Data Mesh

Nicht noch ein Vortrag über die organisatorischen Herausforderungen von Data Mesh als dezentrale Daten-Architektur. In diesem Vortrag wird es konkret. Wir sprechen über einen möglichen Migrationspfad aus der klassischen DWH-Welt hin zu einer domänengetriebenen, dezentralen Data-Mesh-Architektur. Dabei wird es etwas technisch, aber insbesondere lösungsorientiert. Wir zeigen eine Best-Practice-Architektur mit Microsoft Fabric, mit der den o.g. Herausforderungen begegnet werden kann. Spoiler Alert: Komplett ohne zentrale Strukturen geht es nicht!

Zielpublikum: Geschäftsführer, BI-Analysten, IT-Verantwortliche
Voraussetzungen: Grundlegendes Know-how über Data Mesh und DWH-Architekturen
Schwierigkeitsgrad: Basic

Extended Abstract:
Wenn es um Architekturen zur analytischen Nutzung von Daten geht, ist Data Mesh in aller Munde. Data Mesh basiert dabei im Wesentlichen auf vier Grundprinzipien:

  1. Domain Ownership
    Mehr Verantwortung in die Fachbereiche! Daten sollen dezentralisiert da verwaltet werden, wo mit ihnen gearbeitet wird. 
  2. Data as a Product
    Daten müssen als Produkte verstanden und in den Fachabteilungen als solche angeboten werden. Die Nutzer der Daten werden als Kunden betrachtet.
  3. Self Service Data Platform
    Teams sollen möglichst einfach Daten teilen und nutzen zu können.
  4. Federated Computational Governance
    Datenprodukte sollen miteinander interagieren und sich ergänzen können, um eine ganzheitlichere Sicht zu ermöglichen.

Diese vier Grundprinzipien spielen bei der Transformation zu einer Data-Mesh-Architektur eine wichtige Rolle. Die Architektur muss am Ende den o.g. vier Grundprinzipien entsprechen, die technische Umsetzung wird sich daran messen lassen müssen. Die grundsätzlichen Vorteile von Data Mesh als dezentrale Lösung wurden bereits ausgiebig diskutiert, wie sieht es aber mit der konkreten technischen Umsetzung aus?

Nicht nur organisatorisch, sondern auch technisch muss ein Umdenken im Unternehmen im Umgang mit Daten stattfinden. Dies erfordert neben Zeit und Ausdauer eine ebenso sorgfältige Vorbereitung und Planung. Organisatorische Änderungen müssen mit technischen Änderungen oftmals einhergehen und vorangetrieben werden. 

In diesem Vortrag zeigen wir eine mögliche technische Lösungsarchitektur sowie einen dazugehörigen Migrationspfad von einem klassischen DWH hin zu einer agilen Data-Mesh-Architektur. Wir zeigen am Beispiel von Microsoft Fabric, wie sich zentrale Verantwortlichkeiten für Software durch den Einsatz moderner Cloudservices reduzieren lassen und wie gleichermaßen eine einheitliche Plattform zum Austausch der Datenprodukte aufgebaut werden kann. Anhand eines Best-Practice-Beispiels zeigen wir, weshalb zentrale Strukturen unserer Überzeugung nach in bestimmten Bereichen essenziell sind und wie sich diese trotzdem schlank halten und einfach betreiben lassen. Die Lösungsarchitektur stützt sich dabei auf einen hybriden Ansatz, der übergangsweise den Parallelbetrieb des DWH und des Data Mesh vorsieht.

Matthias Jung verantwortet den Bereich Data Management bei der ORDIX AG mit ca. 80 Mitarbeitern und ist seit 25 Jahren als Berater tätig. Technologisch liegt sein Schwerpunkt dabei im Datenbankumfeld sowie in der Konzeption belastbarer und skalierbarer Daten-Architekturen.

Kwang-Il Son ist Senior Chief Consultant im Bereich BI & Reporting. Mit mehr als 15 Jahren branchenübergreifender Erfahrung als Consultant und Data Engineer verfügt er über ein tiefes Fachwissen im Umfeld Data Warehouse und BI. Er verantwortet zudem die ORDIX interne Weiterentwicklung von Data-Management-Themen im Cloud-Umfeld.

Wolfgang Kettler leitet das Team BI & Reporting bei der ORDIX AG. Er verfügt über 12 Jahre Erfahrung im Bereich der Architektur komplexer Daten-Plattformen und BI-Anwendungen. Als Senior Chief Consultant berät er Kunden in den oben genannten Themenfeldern. In den letzten Jahren lag sein Fokus insbesondere auf der Migration bestehender On-premise-Lösungen auf moderne, skalierbare Cloud-Lösungen auf Microsoft Azure.

Matthias Jung, Kwang-Il Son, Wolfgang Kettler
E101/102
Matthias Jung, Kwang-Il Son, Wolfgang Kettler
E101/102
Vortrag: Mi 4.2

Vortrag Teilen

15:20 - 16:20
Mi 3.4
Die Helm AG macht sich fit für die Daten-Zukunft
Die Helm AG macht sich fit für die Daten-Zukunft

Auch für die weltweit tätige Helm AG gewinnt der moderne Umgang mit Daten zunehmend an Bedeutung. Der Vortrag beschreibt, wie das Unternehmen Daten als wesentliche Informationsquelle und als Basis für Entscheidungen etabliert und sichergestellt wird, dass alle Nutzenden die notwendigen Informationen zur richtigen Zeit erhalten. Die Herausforderungen bestehen dabei vielmehr darin, moderne Arbeitsweisen in Bezug auf Daten einzuführen. Technisch wurde bei der Umsetzung auf moderne, automatisierte und skalierende Komponenten gesetzt.

Zielpublikum: ArchitektInnen, Geschäftsführung, C-Level, Abteilungs-/Bereichsleitung, Product Owner, BICC-Leitung
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced

Extended Abstract:
Es begann mit der Vorstellung vier unterschiedlicher BI-Tools. Die HELM AG, ein traditionsreiches Hamburger Familienunternehmen mit über 120-jähriger Geschichte, gehört heute zu den weltweit größten Chemie-Marketingunternehmen und sichert mit mehr als 100 Niederlassungen, Verkaufsbüros und Beteiligungen in über 30 Ländern durch spezifische regionale Kenntnis den Zugang zu den wichtigsten Märkten. Kein Wunder also, dass ein zeitgemäßer Umgang mit den Daten des Unternehmens eine Voraussetzung für den Erfolg der HELM AG darstellt. Dieser war jedoch mit den aktuellen Werkzeugen nur noch schwer in Einklang zu bringen. Zuerst wurde das Problem bei der aktuellen BI-Lösung gesucht., aber während der Vorstellung der möglichen Kandidaten identifizierte die Helm AG zusammen mit dem Data Strategy & Analytics-Experten areto die tatsächlichen Probleme, und es wurde allen Beteiligten schnell klar, dass die Herausforderungen nur zu bewältigen waren, wenn die Helm AG das Thema Analytics ganzheitlich betrachten und umsetzen würde Im Folgenden hielt areto eine maßgeschneiderte Workshopserie mit unterschiedlichen Beteiligungen seitens der Helm AG ab.

Mittels Data Strategy Workshops wurde die Vision und die Erwartungen des Unternehmens an einen modernen, analytischen Umgang mit Daten geklärt und ein grundsätzlicher Fahrplan für die Zukunft festgelegt. Die Umsetzung sollte Use Case-bezogen erfolgen, und so wurde mit dem Bereich “Chemicals” in weiteren Workshops über die relevanten Use Cases gesprochen, die dann als Backlog dokumentiert wurden. Gleichzeitig entwickelte areto auf Basis der identifizierten Anforderungen eine Architekturempfehlung, die dann intensiv diskutiert und letztendlich so umgesetzt wurde. Auf in die Zukunft mit dem Projekt “Flux”! Mit “Flux” schafft die Helm AG die Basis für die zentrale Daten- und Analytics-Plattform, die nun sukzessiv auf alle Bereiche des Unternehmens ausgeweitet wird. Das allseits präsente Thema “Data Mesh” wird in diesem Kontext zwar diskutiert, aber in einer für die Helm AG angepassten Variante eingesetzt. Die Umsetzung des Projektes “Flux” erfolgt in einzelnen Abschnitten (“Waves”), die jeweils separat geschätzt wurden. Die technische Umsetzung erfolgte agil an Scrum angelehnt. SAP und Salesforce sind und waren die wichtigsten Datenquellen. SAP befand sich auf dem kritischen Pfad des Projektes, da wegen des parallelen Rollouts von SAP auf andere Regionen wenig internes Personal unterstützen konnte. Mit Microsoft Azure und Snowflake wurden leistungsfähige und skalierende Komponenten gewählt. Die Automatisierung der Datenbewirtschaftung erfolgt über die Azure Data Factory (inkl. der SAP-Anbindung) und den Datavault Builder. Analysen und Dashboards werden über PowerBI implementiert.

Hallo liebe Community,

Ich denke und handle durch und durch Business Intelligence. Ich brenne für neue BI und Datenlösungen, die es einfach jeder und jedem ermöglicht, ihre und seine Arbeit Tag für Tag besser zu machen. Das lernte ich während meiner Beratungstätigkeit kennen und baute es danach weiter aus, sodass ich federführend an dem Aufbau der Datenplattform und der datengetriebenen Kultur bei hagebau Connect beteiligt war. Beim Global Player HELM AG startete ich mit dem Auftrag eine komplett neue globale Datenlandschaft aufzubauen, die für jedmögliche BI- und AI-Initiative der Zukunft gewappnet sein soll. Als Product Owner vereine ich die Anforderungen vom Business und entwickle zusammen mit dem Corporate BI Team die technische Plattform und vor allem auch die datengetriebene Kultur.

Data-Driven Self-Service sollte die Gegenwart sein und ist unabdingbar in der Zukunft. 
Think BI(g)

Till Sander weist eine über 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/till.sander

Simon Eller, Till Sander
F111
Simon Eller, Till Sander
F111

Vortrag Teilen

, (Donnerstag, 13.Juni 2024)
11:10 - 12:10
Do 3.3
SAP als First-Class-Citizen einer Cloud-Datenplattform
SAP als First-Class-Citizen einer Cloud-Datenplattform

Viele Organisationen kennen das Problem: SAP-Daten sind für viele Use-Cases interessant, aber der Zugriff ist kompliziert oder sehr teuer. Unsere Lösung: Eine Spark Data Source für SAP, die ohne zusätzliche Software oder Module direkt von Databricks auf SAP-Systeme zugreift und damit native Weiterverarbeitung in der Spark-Welt erlaubt. Am Beispiel des Data-Stacks der GEMA zeigen wir, wie die SAP-Integration unsere Data-Mesh-Plattform im Self-Service beflügelt und welche Use-Cases wir damit umsetzen konnten.

Zielpublikum: Data Engineers und alle Daten-Rollen in Organisationen mit SAP-Quellsystemen
Voraussetzungen: Grundkenntnisse in PySpark
Schwierigkeitsgrad: Basic

Martin Zürn treibt als Head of Data Engineering die Weiterentwicklung des Data-Stacks der GEMA voran. Seit 2 Jahren arbeitet die Verwertungsgesellschaft mit einer Self-Service-Datenplattform mit dezentraler Verantwortlichkeit. Aus vielfältigen Datenquellen entsteht so ein Lakehouse, das uns in eine digitale, datengetriebene Organisation transformiert.

Dr. Julius von Ketelhodt gestaltet und entwickelt seit vielen Jahren Data & Analytics-Projekte für namhafte Kunden aus verschiedenen Branchen. Sein Fokus liegt auf der Integration relevanter Daten aus verschiedenen SAP-Quellsystemen in führende Cloud-Datenplattformen. Als Product Lead leitet er ein Team, um die SAP-Integration weiterzuentwickeln und stetig zu vereinfachen. Sein Hintergrund liegt in der Physik mit Promotion im Bereich Seismologie.

Martin Zürn, Julius von Ketelhodt
E124
Martin Zürn, Julius von Ketelhodt
E124

Vortrag Teilen

Zurück