Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Thema: Data Products
- Dienstag
11.06. - Mittwoch
12.06. - Donnerstag
13.06.
Dieser Vortrag beleuchtet Data Mesh im Detail und streift dabei auch alle zugehörigen Themen, wie Domain-oriented decentralized Data Ownership and Architecture, Data as a Product, Self-serve Data Infrastructure as a Platform und Federated Governance.
Ein besonderer Fokus dieses Vortrags liegt auf den Parallelen zu modernen cloud-nativen OLTP-Architekturen. Der Vortrag endet mit einem Ausblick auf zukünftige Entwicklungen im Bereich Data Mesh und gibt Empfehlungen für Unternehmen, die eine agile und skalierbare Datenstrategie anstreben.
Zielpublikum: Datenarchitekten, Data Engineers und Führungskräfte
Voraussetzungen: Architekturwissen hilfreich, Governance
Schwierigkeitsgrad: Basic
Extended Abstract:
Dieser Vortrag beleuchtet das Konzept des Data Mesh, das einen Paradigmenwechsel in der Verwaltung von Daten in Unternehmen verspricht. Data Mesh geht über traditionelle Vorgehen einer zentralen Datenhaltung für analytische Daten hinaus, indem es eine dezentrale, föderierte Dateninfrastruktur fördert. Das Versprechen eines Data Mesh: Datensilos, wie wir sie bisher kennen, gehören der Vergangenheit an.
Der Vortrag beginnt mit einer Einführung in die Herausforderungen herkömmlicher Datenarchitekturen und zeigt auf, wie Data Mesh diese adressiert.
Im weiteren Verlauf werden die vier Grundprinzipien von Data Mesh detailliert erläutert: Domain-oriented decentralized Data ownership and architecture, Data as a product, Self-serve data infrastructure as a platform, Federated governance. Diese Prinzipien ermöglichen eine effiziente Skalierung, verbessern die Datenqualität und fördern die Eigenverantwortung der Teams für ihre Daten. Dabei wird auch betrachtet, was diese Ideen eines Data Mesh für die Organisation und die Menschen bedeuten.
Ein besonderer Fokus dieses Vortrags liegt auf den Parallelen zu modernen cloud-nativen OLTP-Architekturen, wobei die Übertragbarkeit der Data-Mesh-Prinzipien auf in diesem Zusammenhang bereits etablierte Integrationskonzepte und -prozesse betont wird. Der Vortrag endet mit einem Ausblick auf zukünftige Entwicklungen im Bereich Data Mesh und gibt Empfehlungen für Unternehmen, die eine agile und skalierbare Datenstrategie anstreben. Dieser Vortrag richtet sich an Datenarchitekten, Data Engineers und Führungskräfte, die ihre Dateninfrastruktur zukunftsfähig gestalten möchten.
Fabian Hardt arbeitet als Solution Architect bei der OPITZ CONSULTING Deutschland GmbH. Er verfügt über langjährige Projekterfahrung in Analytics-Projekten und beschäftigt sich mit modernen Architekturen für die gestiegenen Anforderungen im Zeitalter der Digitalisierung.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/fabian-hardt/
Sven Bernhardt ist ein Technologie-Enthusiast und arbeitet für Opitz Consulting in Deutschland als Chief Architect und Integration Evangelist im Corporate Development Team. In seiner Rolle ist er für das Management des Technologieportfolios und die Entwicklung von Best Practices und Richtlinien verantwortlich. Darüber hinaus unterstützt Sven seine Kollegen bei der Implementierung von Softwarelösungen für Kunden. Zu seinen Kernthemen gehören cloud-native Architekturen, API-Management und Service Mesh. Sven spricht regelmäßig auf verschiedenen Konferenzen über Technologie- und Architekturthemen und teilt seine Gedanken und Erfahrungen in Artikeln und Blogbeiträgen. Zudem beteiligt er sich als Kong Champion sowie Oracle ACE Pro aktiv am Wissensaustausch in der Development Community.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/sven-bernhardt/
Vortrag Teilen
This session looks at how adoption of open table formats by data warehouse database management vendors and advances in SQL are making it possible to merge siloed analytical systems into a new federated data architecture supporting multiple analytical workloads.
Target Audience: Data architect, enterprise architect, CDO, data engineer
Prerequisites: Basic understanding of data architecture & databases
Level: Advanced
Extended Abstract:
In the last 12-18 months we have seen many different architectures emerge from many different vendors who claim to be offering 'the modern data architecture solution' for the data-driven enterprise. These range from streaming data platforms to data lakes, to cloud data warehouses supporting structured, semi-structured and unstructured data, cloud data warehouses supporting external tables and federated query processing, lakehouses, data fabric, and federated query platforms offering virtual views of data and virtual data products on data in data lakes and lakehouses. In addition, all of these vendor architectures are claiming to support the building of data products in a data mesh. It's not surprising therefore, that customers are confused as to which option to choose.
However, in 2023, key changes have emerged including much broader support for open table formats such as Apache Iceberg, Apache Hudi and Delta Lake in many other vendor data platforms. In addition, we have seen significant new milestones in extending the ISO SQL Standard to support new kinds of analytics in general purpose SQL. Also, AI has also advanced to work across any type of data.
The key question is what does this all mean for data management? What is the impact of this on analytical data platforms and what does it mean for customers? What opportunities does this evolution open up for tools vendors whose data foundation is reliant on other vendor database management systems and data platforms? This session looks at this evolution and helps vendors realise the potential of what's now possible and how they can exploit it for competitive advantage.
- The demand for data and AI
- The need for a data foundation to underpin data and AI initiatives
- The emergence of data mesh and data products
- The challenge of a distributed data estate
- Data fabric and how can they help build data products
- Data architecture options for building data products
- The impact of open table formats and query language extensions on architecture modernisation
- Is the convergence of analytical workloads possible?
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Data Mesh is a decentralized approach to enterprise data management. A Data Mesh consists of Data Products, which can be composed to form higher-order Data Products. In order for a Data Mesh to scale, this composition needs to be safe and efficient, which calls for automated testing. In the Microservices architecture, scalably testing the interaction between services is sometimes achieved by an approach called Consumer-Driven Contract Testing. This session explores how this approach can be applied to the automated testing of Data Products.
Target Audience: Data Engineers, Data Scientists
Prerequisites: Basic knowledge of key concepts of Data Mesh, such as Data Products, as well as basic knowledge of Microservices architectural practices
Level: Advanced
Arif Wider is a professor of software engineering at HTW Berlin and a fellow technology consultant with Thoughtworks Germany, where he served as Head of Data & AI before moving back to academia. As a vital part of research, teaching, and consulting, he is passionate about distilling and distributing great ideas and concepts that emerge in the software engineering community. He is a frequent speaker at conferences, book author, and industry expert on topics around Data Mesh.
Vortrag Teilen
Viele Unternehmen befassen sich mit den Mehrwerten von Datenprodukten und möchten diese heben. Gleichzeitig starten nur die wenigsten Organisationen auf der grünen Wiese - oft existieren bereits organisatorische, prozessuale und architektonische Rahmenparameter. Ein Datenmarktplatz bietet die Chance, die wesentlichen Anforderungen des Datenproduktansatzes zu erfüllen, ohne umfassende Adaptionen des Bestands zu erfordern. Der Vortrag stellt diese Chancen dar und gibt Impulse für die Etablierung eines Datenmarktplatzes in Bestandsorganisationen.
Zielpublikum: Data Engineers, Datenproduktmanager, Datennutzer, Datenstrategen, Datenarchitekten, Enterprise-Architekten, Data Owner, Chief Data Officer
Voraussetzungen: Grundlegendes Verständnis der Herausforderungen von gewachsenen Datenlandschaften wie Datentransparenz, Datenteilung, Data Governance heterogene technologische Bebauung, Schnittstellenumfang etc.
Schwierigkeitsgrad: Basic
Steffen Kandler studierte Wirtschaftsinformatik an der Technischen Hochschule Mittelhessen. Seit seinem Berufseinstieg im Jahr 2014 arbeitet er als Berater in verschiedenen Rollen im Data & Analytics-Kontext wie beispielsweise als Data Engineer und Solutionarchitect mit Schwerpunkten im Data Management und Data Visualization. Seit 2019 berät er Unternehmen unterschiedlicher Branchen und Größenordnungen bei der Entwicklung und Etablierung passgenauer und ganzheitlicher Datenstrategien mit allen zugehörigen Facetten wie Organisation, Governance, Architektur und Technologie.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/steffen-kandler/
Vortrag Teilen
Maximierung des Wertes von Daten ist entscheidend für den Unternehmenserfolg. Der Vortrag führt die praxisorientierte Methode zur Ermittlung des Data Value von Datenprodukten ein und beleuchtet die Priorisierung ihrer Umsetzung. Unternehmen können hierdurch den Wert ihrer Daten identifizieren und entscheiden, welche Datenprodukte zuerst angegangen werden. Die Data Value Exploration stützt sich auf praktische Erfahrungen und zielt darauf ab, Unternehmen bei der strategischen Ausrichtung und effektiven Durchführung ihrer Dateninitiativen zu leiten.
Zielpublikum: Verantwortliche Projekt- und Programm-Manager für Data & Analytics
Voraussetzungen: Data Strategy, Data Value, Datenprodukt
Schwierigkeitsgrad: Basic
Extended Abstract:
Eine der wesentlichen Herausforderungen beim Aufbau einer datenproduktorientierten Data & Analytics-Landschaft ist die Priorisierung bzw. Reihenfolge der Umsetzung von Datenprodukten. Das Data-Value-Exploration-Vorgehen gibt den Projektverantwortlichen und Stakeholdern eine Methode an die Hand, mit der die Priorisierung wertorientiert erfolgen kann. Der Vortrag stellt das Vorgehen und Erfahrungen aus Kundenprojekten vor.
Alexander Bauer begleitet Kunden bei der strategischen Ausrichtung der BI- und IT-Anwendungslandschaft. Er hat sich mehrer Jahre mit den Einsatzgebieten von Technologien wie KI, IoT und Cloud beschäftigt.
Laura Weber beschäftigt sich als Strategy Consultant im Bereich Data & Analytics Strategy seit 5 Jahren mit der ganzheitlichen Betrachtung strategischer Themen in diesem Bereich. Ihre Expertise umfasst die Entwicklung und Implementierung von Strategien und Projekten über diverse Branchen hinweg, unter Anwendung verschiedenster Technologien und Methoden. Als Projektleiterin fördert sie transformative Lösungen mit einem strukturierten Ansatz.
Vortrag Teilen
How can Data Cataloguing, Modelling, DQ and other streams join forces to create business value? The speaker shares experience from a data vendor and a manufacturing business.
Target Audience: Data Professionals and decision makers with stakes in the value chain big picture
Prerequisites: Familiarity with Data Governance concepts (Catalogue, Quality, Integration etc.)
Level: Advanced
Extended Abstract:
Data Governance can contribute local optimizations to a company's value chain, such as better data discovery via a Data Catalogue, or quality-monitored and cleansed data sets. From a 30,000 ft Data Strategy view, it is even more desirable to connect the dots for business objects frequently reused among business processes and make them available as governed, quality-controlled, easily accessible Data Products.
The speaker successfully launched a Data Governance program in a company traditionally ranking metal higher than data and will share experiences on the ongoing Data Product journey:
- Identifying scope
- Cataloging technical metadata
- Modeling a logical layer
- Managing sensitive data in a hybrid architecture
- Simplifying cross-system access
Dominik Ebeling is a CDMP-certified data and technology manager with more than ten years of international experience in start-up and enterprise contexts. He is passionate about building and developing successful teams, optimizing global processes and structures, and turning data into solutions for customer problems. In his current role as Head of Data Governance at Rolls-Royce Power Systems, Dominik is developing a long-standing manufacturing business into a data-driven organization.
Vortrag Teilen