Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Thema: Data Management
- Dienstag
11.06. - Mittwoch
12.06. - Donnerstag
13.06.
This session looks at how adoption of open table formats by data warehouse database management vendors and advances in SQL are making it possible to merge siloed analytical systems into a new federated data architecture supporting multiple analytical workloads.
Target Audience: Data architect, enterprise architect, CDO, data engineer
Prerequisites: Basic understanding of data architecture & databases
Level: Advanced
Extended Abstract:
In the last 12-18 months we have seen many different architectures emerge from many different vendors who claim to be offering 'the modern data architecture solution' for the data-driven enterprise. These range from streaming data platforms to data lakes, to cloud data warehouses supporting structured, semi-structured and unstructured data, cloud data warehouses supporting external tables and federated query processing, lakehouses, data fabric, and federated query platforms offering virtual views of data and virtual data products on data in data lakes and lakehouses. In addition, all of these vendor architectures are claiming to support the building of data products in a data mesh. It's not surprising therefore, that customers are confused as to which option to choose.
However, in 2023, key changes have emerged including much broader support for open table formats such as Apache Iceberg, Apache Hudi and Delta Lake in many other vendor data platforms. In addition, we have seen significant new milestones in extending the ISO SQL Standard to support new kinds of analytics in general purpose SQL. Also, AI has also advanced to work across any type of data.
The key question is what does this all mean for data management? What is the impact of this on analytical data platforms and what does it mean for customers? What opportunities does this evolution open up for tools vendors whose data foundation is reliant on other vendor database management systems and data platforms? This session looks at this evolution and helps vendors realise the potential of what's now possible and how they can exploit it for competitive advantage.
- The demand for data and AI
- The need for a data foundation to underpin data and AI initiatives
- The emergence of data mesh and data products
- The challenge of a distributed data estate
- Data fabric and how can they help build data products
- Data architecture options for building data products
- The impact of open table formats and query language extensions on architecture modernisation
- Is the convergence of analytical workloads possible?
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Im Konflikt zwischen traditionellem Data Warehouse und moderner BI geht es um mehr als Buzzwords! Und diesen Konflikt werden Andreas und Artur live auf der Bühne austragen!
Ist ein dezentraler Ansatz mit Datenprodukten wirklich ein Fortschritt oder nicht doch vielmehr unrealistisches Marketing, das keinen Mehrwert bringt? Ist jemand, der weiterhin auf ein zentrales und verwaltetes Data Warehouse besteht, wirklich von gestern? Oder sind die ganzen Konflikte bald dank KI ohnehin überflüssig?
Zielpublikum: Datenarchitekten, Modellierer und allgemein Leute, die Daten ernst nehmen
Voraussetzungen: Buzzword wie Data Mesh, Data Vault, Stern-Schema und Co. zu kennen, ist sicher von Vorteil, denn Insider-Sprüche gehören zu so einem Nerd-Battle dazu
Schwierigkeitsgrad: Advanced
Extended Abstract:
Im Stil von Pro-/Contra-Debatten werden wir den immer währenden Kampf zwischen zentralem und dezentralem Datenmanagement-Ansatz austragen.
Dabei geht es weniger ums Gewinnen, sondern darum aufzuzeigen, welche Debatten bei Entscheidungen geführt werden und was sinnvolle und weniger sinnvolle Argumente sind. Hoffentlich werden wir dabei den einen oder anderen Zuschauern auch den Spiegel vorhalten und für Aha-Effekte sorgen.
Fachlichkeit kommt dabei natürlich nicht zu kurz, denn auch wenn es bei Entscheidungen nicht immer nur um Technik geht, so ist die sachliche Auseinandersetzung damit absolut unersetzlich, um sich weiterzuentwickeln.
Ob Data Mesh alle Probleme löst, wissen wir danach vermutlich immer noch nicht, aber immerhin haben wir gute Argumente, was im konkreten Einsatz dafür oder dagegen sprechen könnte.
Andreas Peter ist als Data Architect bei Bosch im Bereich Datenmodellierung, Datenstrategie und Semantische Modellierung.
Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe.
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld.
Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.
Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.
Vortrag Teilen
Eine Data Fabric soll den Zugriff auf die verteilten Daten im Unternehmen vereinfachen oder überhaupt erst ermöglichen. Die Vorstellungen, wie eine Data Fabric aussieht und was Anbieter unter dem Label verkaufen, klaffen oft weit auseinander.
Wie sind aktuelle Konzepte und Angebote am Markt einzuordnen? Welche Wege gibt es, die Data Fabric und die damit verbundenen Versprechen für mich Realität werden zu lassen? Der Vortrag soll ein Verständnis über die Bedeutung und eine Einordnung von Lösungen und Konzepten ermöglichen.
Zielpublikum: CDO, CIO, Verantwortliche Data & Analytics, Datenarchitekten, IT-Architekten
Voraussetzungen: Grundlegende Kenntnisse zu Datenarchitekturen und Datenmanagementkonzepten
Schwierigkeitsgrad: Advanced
Extended Abstract:
Real-time-, Business- oder Logical-Data-Fabric. Marktforschungsunternehmen und Technologieanbieter streiten sich über die Deutungshoheit der Data Fabric und arbeiten damit häufig an der Situation der Kunden vorbei. Was ist wirklich wichtig, welche Komponenten bringen mich wirklich weiter und wie wirken sich aktuelle Trends wie Data Mesh und LLMs auf das Konzept aus, um endlich die Herausforderungen eines modernen, analytischen Datenmanagements zu bewältigen.
Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einstieg bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/peter-baumann/
Vortrag Teilen
Supporting analytics and data science in an enterprise involves more than installing open source or using cloud services. Too often the focus is on technology when it should be on data. The goal is to build multi-purpose infrastructure that can support both past uses and new requirements. This session discusses architecture principles, design assumptions, and the data architecture and data governance needed to build good infrastructure.
Target Audience: BI and analytics leaders and managers; data architects; architects, designers, and implementers; anyone with data management responsibilities who is challenged by recent changes in the data landscape
Prerequisites: A basic understanding of how data is used in organizations, applications and platforms in the data ecosystem, data management concepts
Level: Advanced
Extended Abstract:
The focus in our market has been on acquiring technology, and that ignores the more important part: the landscape within which this technology exists and the data architecture that lies at its core. If one expects longevity from a platform then it should be a designed rather than accidental architecture.
Architecture is more than just software. It starts with uses, and includes the data, technology, methods of building and maintaining, governance, and organization of people. What are design principles that lead to good design and data architecture? What assumptions limit older approaches? How can one modernize an existing data environment? How will this affect data management? This session will help you answer these questions.
Outline - Topics covered:
- A brief history of data infrastructure and past design assumptions
- Categories of data and data use in organizations
- Differences between BI, analysis, and data science workloads
- Data architecture
- Data management and governance processes
- Tradeoffs and antipatterns
Mark Madsen works on the use of data and analytics for decision-making and organizational systems. Mark worked for the past 25 years in the field of analytics and decision support, starting with AI at the University of Pittsburgh and robotics at Carnegie Mellon University.
Vortrag Teilen
Learn how Lufthansa Group is leveraging AI in the sky - and how you could apply the same concepts to your business. Lufthansa Group and Google Cloud developed a cloud native application that pulls data from operational systems to the cloud for analysis by artificial intelligence and operations research for optimizing flight operations. It balances crew availability, passenger demand, aircraft maintenance status etc. Recommendations are given to Operations Control for final checks and implementation.
Target Audience: People with interest in how to apply data driven optimization of their businesses. Data Engineers, Project Leads, and Decision Makers
Prerequisites: Interest in optimizing operational processes using data. A basic understanding of managing data coming from a diverse set of operational applications
Level: Advanced
Extended Abstract:
Imagine you are an airline OpsController responsible for running the operations of an airline and you just learned that an aircraft that was supposed to leave for Frankfurt in 30 minutes has to stay on the ground longer due to a minor repair. What do you do now? Passengers have booked connecting flights from Frankfurt, otherwise hotel accommodations might become necessary. Wait for the repair and possibly delay connecting flights as well? Is such a delay okay for the crews or will some exceed their permitted working hours? Is a replacement aircraft available? If so, is there a crew for it? And what about...
Such a small issue can trigger a cascade of thighs to consider and this can quickly exceed human capabilities in their complexity. There are more potential matches of chess possible than protons in the universe. And airline operations is an even harder problem. Highly experienced people can solve situations to a certain extent based on their wealth of experience. But wouldn't it be better if optimal decisions across multiple business processes (which still can affect punctuality and passengers) were proposed to the person in the OpsControl Center with the support of an AI?
Lufthansa Group has addressed this problem and, together with Google Cloud, created a data platform for its operational data from core business processes. This data foundation is used as input for AI models to calculate future alternative scenarios from the airline's perspective. These are calculated using optimizers that Google contributes to the project. At runtime, in addition to the operational data, a set of airline-specific business rules together with a cost function, which is also the responsibility of the airline, are given to the so-called 'Solver'.
When a request is made, several scenarios are calculated in parallel. These differ in their respective configurations and their results are summarized and the best scenarios are displayed to the person in OpsControl as a proposal for evaluation via a specially created user interface. The person in OpsControl can then transfer the necessary changes back to the operational systems for implementation in the physical world. It is very important to note that today and for the foreseeable future a human being has the final say regarding the use of AI-generated proposals.
The application presented here optimizes across different business units simultaneously and avoids the common occurrence of local optimizations that contradict each other and may have to be resolved manually. The solution is in use at Swiss Intl. Airlines, a Lufthansa Group airline. After 18 months, the use of this technology resulted in CO2 emission savings of 7,400 tons per year through reduced fuel consumption, which is equivalent to approximately 18 Boeing 777 flights between Zurich and New York City. These savings will increase significantly when the application is rolled out to the other airlines in the Lufthansa Group.
In this presentation, Christian Most and Andreas Ribbrock will explain the use case. They will also show how the Lufthansa Group uses the cloud as a real-time data integration platform to prepare data from operational systems, each of which does exactly what it is supposed to do but is not designed to process data from other systems. The challenges posed by this approach will also be described. As well as the opportunities offered by 'serverless' technologies, since the project team does not have to worry about infrastructure.
Christian Most is a technology leader at Deutsche Lufthansa, focusing on innovation and the application of cutting-edge technologies in the airline industry. With a deep understanding of cloud computing, artificial intelligence, and data analytics, he drives Lufthansa's digital transformation initiatives.
Vortrag Teilen
Nicht noch ein Vortrag über die organisatorischen Herausforderungen von Data Mesh als dezentrale Daten-Architektur. In diesem Vortrag wird es konkret. Wir sprechen über einen möglichen Migrationspfad aus der klassischen DWH-Welt hin zu einer domänengetriebenen, dezentralen Data-Mesh-Architektur. Dabei wird es etwas technisch, aber insbesondere lösungsorientiert. Wir zeigen eine Best-Practice-Architektur mit Microsoft Fabric, mit der den o.g. Herausforderungen begegnet werden kann. Spoiler Alert: Komplett ohne zentrale Strukturen geht es nicht!
Zielpublikum: Geschäftsführer, BI-Analysten, IT-Verantwortliche
Voraussetzungen: Grundlegendes Know-how über Data Mesh und DWH-Architekturen
Schwierigkeitsgrad: Basic
Extended Abstract:
Wenn es um Architekturen zur analytischen Nutzung von Daten geht, ist Data Mesh in aller Munde. Data Mesh basiert dabei im Wesentlichen auf vier Grundprinzipien:
- Domain Ownership
Mehr Verantwortung in die Fachbereiche! Daten sollen dezentralisiert da verwaltet werden, wo mit ihnen gearbeitet wird. - Data as a Product
Daten müssen als Produkte verstanden und in den Fachabteilungen als solche angeboten werden. Die Nutzer der Daten werden als Kunden betrachtet. - Self Service Data Platform
Teams sollen möglichst einfach Daten teilen und nutzen zu können. - Federated Computational Governance
Datenprodukte sollen miteinander interagieren und sich ergänzen können, um eine ganzheitlichere Sicht zu ermöglichen.
Diese vier Grundprinzipien spielen bei der Transformation zu einer Data-Mesh-Architektur eine wichtige Rolle. Die Architektur muss am Ende den o.g. vier Grundprinzipien entsprechen, die technische Umsetzung wird sich daran messen lassen müssen. Die grundsätzlichen Vorteile von Data Mesh als dezentrale Lösung wurden bereits ausgiebig diskutiert, wie sieht es aber mit der konkreten technischen Umsetzung aus?
Nicht nur organisatorisch, sondern auch technisch muss ein Umdenken im Unternehmen im Umgang mit Daten stattfinden. Dies erfordert neben Zeit und Ausdauer eine ebenso sorgfältige Vorbereitung und Planung. Organisatorische Änderungen müssen mit technischen Änderungen oftmals einhergehen und vorangetrieben werden.
In diesem Vortrag zeigen wir eine mögliche technische Lösungsarchitektur sowie einen dazugehörigen Migrationspfad von einem klassischen DWH hin zu einer agilen Data-Mesh-Architektur. Wir zeigen am Beispiel von Microsoft Fabric, wie sich zentrale Verantwortlichkeiten für Software durch den Einsatz moderner Cloudservices reduzieren lassen und wie gleichermaßen eine einheitliche Plattform zum Austausch der Datenprodukte aufgebaut werden kann. Anhand eines Best-Practice-Beispiels zeigen wir, weshalb zentrale Strukturen unserer Überzeugung nach in bestimmten Bereichen essenziell sind und wie sich diese trotzdem schlank halten und einfach betreiben lassen. Die Lösungsarchitektur stützt sich dabei auf einen hybriden Ansatz, der übergangsweise den Parallelbetrieb des DWH und des Data Mesh vorsieht.
Matthias Jung verantwortet den Bereich Data Management bei der ORDIX AG mit ca. 80 Mitarbeitern und ist seit 25 Jahren als Berater tätig. Technologisch liegt sein Schwerpunkt dabei im Datenbankumfeld sowie in der Konzeption belastbarer und skalierbarer Daten-Architekturen.
Kwang-Il Son ist Senior Chief Consultant im Bereich BI & Reporting. Mit mehr als 15 Jahren branchenübergreifender Erfahrung als Consultant und Data Engineer verfügt er über ein tiefes Fachwissen im Umfeld Data Warehouse und BI. Er verantwortet zudem die ORDIX interne Weiterentwicklung von Data-Management-Themen im Cloud-Umfeld.
Wolfgang Kettler leitet das Team BI & Reporting bei der ORDIX AG. Er verfügt über 12 Jahre Erfahrung im Bereich der Architektur komplexer Daten-Plattformen und BI-Anwendungen. Als Senior Chief Consultant berät er Kunden in den oben genannten Themenfeldern. In den letzten Jahren lag sein Fokus insbesondere auf der Migration bestehender On-premise-Lösungen auf moderne, skalierbare Cloud-Lösungen auf Microsoft Azure.
Vortrag Teilen
Alle reden zwar über Datenprodukte. Aber wenn man genau hinschaut, gibt es keine einheitliche Definition. Ist ein Dashboard ein Datenprodukt? Ist ein Datensatz ein Datenprodukt? Gehört die Pipeline auch dazu? Ist ein Datenprodukt immer eine Tabelle? Oder doch eher ein Schema? Wir wollen versuchen, die eine Definition zu finden. Dabei betrachten wir Datenprodukt-Beispiele aus unterschiedlichen Perspektiven, bspw. Data Product Owner, Developer, Data Scientist, Business etc. Unsere Findings werden dich total überraschen.
Zielpublikum: Alle, die mit Datenprodukten zu tun haben
Voraussetzungen: keine
Schwierigkeitsgrad: Basic
Dr. Simon Harrer ist Senior Consultant bei INNOQ. Er ist Softwareentwickler im Herzen, der sich mittlerweile der dunklen Seite, nämlich der Welt der Daten, zugewandt hat. Er hat datamesh-architecture.com mit ins Leben gerufen und das Data-Mesh-Buch von Zhamak Dehghani ins Deutsche übersetzt. Aktuell entwickelt er ein für alle Data-Mesh-Initiativen hilfreiches Werkzeug, den Data Mesh Manager.
Vortrag Teilen
Gordon Witzel startete im Jahr 2007 bei der SAP als BW-Berater. Hier unterstütze er internationale Kunden bei der Architektur und Implementierungen von SAP BW und SAP BWA.
2015 wechselte er in das SAP Data Warehouse Produktmanagement der SAP SE und hat hier basierend auf Anforderungen der Kunden mit der Entwicklung neue Features definiert, priorisiert und zur Umsetzung gebracht. Bei diversen nationalen und internationalen Events präsentiert Gordon zu den Themen SAP BW und SAP Data Warehouse Cloud und stellt die SAP Data Warehouse Produkte in Hands-On Workshops vor.
Weiterhin unterstütze er bei Definition der SAP Data Warehouse Strategie und begleitete die erfolgreiche Einführung der SAP BW bridge als Teil der SAP Data Warehouse Cloud im Jahr 2021. Seit 2022 ist Gordon Principal Presales Expert für das Data Warehouse Portfolio der SAP.
Vera Schulz ist seit über 10 Jahren beratend im Bereich Business Intelligence & Data Analytics tätig. Mit ihrem Team verantwortet sie sowohl Analytics-Projekte als auch Themen rund um Cloud-Datenplattformen. Ihre Anerkennung als TDWI-Expertin dieses Jahr zeugt von ihrer tiefen Branchenkenntnis und ihrem Engagement für datengesteuerte Geschäftslösungen.
Dr. Joachim Philippi ist Ehren- und Gründungsmitglied des TDWI e.V..
Vortrag Teilen
Im Zuge der Entwicklung neuer digitaler Lösungen im Bankengeschäft werden jeden Tag große Datenmengen erzeugt. Die Analyse dieser Daten unterstützt maßgeblich dabei, die Prozessabläufe in Sparkassen effizienter zu gestalten und kundenindividuelle Bedürfnisse zu verstehen.
Dazu werden Daten von Kundenreisen durch die Implementierung standardisierter Messpunkte in Prozessen ausgewertet und den Sparkassen zur Verfügung gestellt, um einen Einblick in die Prozessabläufe zu gewinnen und eine Vergleichbarkeit der Prozesse zu ermöglichen.
Die präzise Analyse der Prozesse mittels Process Mining schafft Transparenz und ist die Grundlage für die kundenzentrierte Weiterentwicklung. Im Rahmen dieses Vortrags werden praxisnahe Einblicke in die datengetriebene Prozessanalyse der Sparkassen Finanzgruppe gegeben.
Agenda
- Überblick
- Prozessanalyse in Customer Journeys
- Detailanalysen im Process Mining
- Fazit
Zielpublikum: Datenanalyst:innen, Entscheidungsfinder:innen
Voraussetzungen: Grundkenntnisse
Schwierigkeitsgrad: Basic
Nach seiner Promotion in 2017 hat Dr. Florian Bergmann bei synvert saracus seine Tätigkeit aufgenommen. Er arbeitet dort als Senior Lead Consultant und war bereits für diverse Kunden tätig. Seit Ende 2023 ist er bei der Finanz Informatik Projektmanager und Arbeitspaketleiter in der Vertriebssteuerung im Bereich Data & Analytics. Dort sind seine Schwerpunkte die Teamleitung und Projektleitung von diversen Projekten zur Bereitstellung von KPIs im OSPlus Kontext.
Sophie-Theresa Kleinke ist Mathematikerin mit einem Fokus auf Data Science. Bei der Finanz Informatik (FI), dem zentralen IT-Dienstleister der Sparkassen, liegt ihr Schwerpunkt auf der Analyse und Optimierung von Geschäftsprozessen, im Speziellen im Bereich Process Mining, wo sie von der Datenaufbereitung im Backend mit SQL bis zur Visualisierung im Frontend mit einem gängigen BI-Tool tätig ist.
Vortrag Teilen
Welches sind die Schlüsselkomponenten erfolgreicher Analytics-Projekte? Sind Data Culture, Data Literacy, Data Mesh und Decision Intelligence echte Game-Changer? Erfolgreiche Analytics-Projekte setzen auf mehr als nur moderne Technologie und Hype-Themen - sie legen ihren Fokus auf:
- Potenziale bei der Datenstrategie
- Verbesserte Einbindung der Stakeholder
- Etablierung von Vorgehensmethoden
- Einführung einer Business-Analyse
- Umsetzung der Data Governance
Der Vortrag zeigt, wie diese Methoden zusammenwirken und auch Ihr Projekt voranbringen.
Zielpublikum: Projektleiter, Data Manager, Datenarchitekten
Voraussetzungen: Analytics-Projekterfahrung und -Methodenkenntnisse
Schwierigkeitsgrad: Advanced
Extended Abstract:
Willkommen zu einem Vortrag über die Schlüsselkomponenten erfolgreicher Analytics-Projekte. Wir erkunden, warum technisches Know-how und erstklassige Werkzeuge alleine nicht genug sind und wie Sie Ihr nächstes Analytics- & Business-Intelligence-Projekt mit entscheidenden Best Practices auf ein neues Niveau heben können.
Auch im Jahr 2024 sind Hype-Begriffe wie Data Culture, Data Literacy, Data Mesh und Decision Intelligence allgegenwärtig. Sind dies echte Game-Changer?
Erfolgreiche Analytics-Projekte setzen auf mehr als nur modernste Technologie, hervorragende Tools und aktuelle Hype-Themen, um einen Business-Mehrwert hervorzubringen.
Dieser Vortrag behandelt erfolgreiche Projektaspekte aus den letzten 24 Monaten. Folgende Best Practices werden detaillierter besprochen:
- Definition konkreter Potenziale in einer Datenstrategie:
Wie können wir mit einem Blick aufs große Ganze das Unternehmen mit Analytics-Initiativen am besten voranbringen und proaktiv zukünftige Geschäftsanforderungen adressieren? - Verbesserung der Einbindung von Fachbereichen und Stakeholdern:
Wie können wir den Dialog mit den Business-Experten und internen Kunden verbessern, von ihrem Wissen profitieren und ihren Vorstellungen weiter entgegenkommen? - Holistische Etablierung von Vorgehens- & Entwicklungsmethoden:
Wie können uns strukturierte Vorgehensmodelle dabei helfen, nicht nur klare Entwicklungsziele zu formulieren und Fehler zu minimieren, sondern auch eine agile Flexibilität zu bewahren, um auf sich ändernde Anforderungen zeitnah reagieren zu können? - Einführung einer übergreifenden, integrierten Business- und Anforderungsanalyse:
Wie können wir eine nachhaltige Lösung entwickeln, die sowohl den geschäftlichen Anforderungen als auch den individuellen Bedürfnissen der Stakeholder gerecht wird? - Frühe individualisierte Umsetzung von Data Governance und Change Management:
Wie können wir frühzeitig eine maßgeschneiderte Umsetzung von Data Governance und Change Management sicherstellen, um eine reibungslose Integration in die bestehenden Strukturen und Prozesse zu gewährleisten?
In diesem Vortrag erfahren Sie, wie die Methoden ineinandergreifen. Ganz gleich, ob Sie auf der Suche nach einem klaren Leitfaden für Ihr nächstes Projekt oder nach neuen Impulsen für laufende Initiativen sind - im Vortrag finden sich neue Anregungen.
Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Juli 2022 ist er Geschäftsführer bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/klaus-dieter-schulze/
Peer M. Carlson ist Principal Consultant bei b.telligent und seit vielen Jahren im Bereich Business Intelligence & Analytics tätig. Sein Interesse gilt insbesondere Datenarchitekturen, Datenmodellierung, Data Vault, Requirements Management und agilen Methoden. Er unterstützt sowohl die fachlichen Anwender als auch die technischen Entwickler beim übergreifenden Verständnis der Projektanforderungen. Peer M. Carlson ist Mitgründer der Deutschsprachigen Data Vault User Group (DDVUG).
Vortrag Teilen
In einer Case Study wird gezeigt, wie die Schweizer Biomed AG mit Yotilla, einer Lösung mit einem neuartigen DWH-Automatisierungsansatz, die DWH-Entwicklung trotz eingeschränkt verfügbarer Ressourcen ermöglicht und beschleunigt hat. Der neue Ansatz automatisiert basierend auf einem fachlich orientierten Conceptual Model die logische und physische Data-Vault-Datenmodellierung, sodass das DWH ohne Data-Vault-Know-how erstellt und genutzt werden kann. Im Vortrag werden die Herausforderungen und der Kundennutzen des neuen Ansatzes vorgestellt.
Zielpublikum: Verantwortliche Data & Analytics, BI- und DWH-Manager
Voraussetzungen: Data-Warehouse-Grundwissen
Schwierigkeitsgrad: Basic
Extended Abstract:
Die Entwicklung eines Data Warehouse ist aufwendig und zeitraubend. Der Fachkräftemangel und beschränkte Ressourcen sind eine große Herausforderung, besonders im Mittelstand.
Data-Warehouse-Automatisierungslösungen können die Entwicklung beschleunigen und setzen dabei meist auf Data-Vault-Modellierung. Während das physische Data-Vault-Modell vollständig automatisiert wird, ist das logische Data-Vault-Modell manuell zu erstellen oder auf Basis eines generierten Vorschlags zu überarbeiten. Somit ist weiterhin eine ausgeprägte technische Expertise und Data-Vault-Know-how erforderlich.
Die Schweizer Biomed AG hat mit Yotilla einen neuen Ansatz verfolgt und konnte so ausgehend von einem fachlich orientierten konzeptuellen Modell (Conceptual Model) sowohl die physische als auch die logische Datenmodellierung vollständig automatisieren. In der Folge ist weniger Data-Vault-Know-how erforderlich.
Durch diesen Ansatz entsteht eine Vielzahl weiterer Automatisierungsmöglichkeiten: So kann z. B. die Business-Logik als Teil des Conceptual Model definiert und deren Implementierung ebenfalls vollständig automatisiert werden.
Eine besondere Herausforderung bei der Biomed AG war, dass die Daten der Geschäftsobjekte aus vielen verschiedenen Quellen stammen, mit teilweise sich überschneidenden Daten.
Im Vortrag werden folgende Fragestellungen betrachtet:
- Welche Vorteile hat der Ansatz?
- Wie wird ein Source System Data Vault vermieden?
- Wie kann Business-Logik ohne Kenntnisse des Data-Vault-Modells implementiert werden?
- Welche Voraussetzungen müssen erfüllt sein?
- Wie sind die Erfahrungen mit dem Ansatz bei der Biomed AG?
- Welche Möglichkeiten bringt dieser Ansatz für die Zukunft?
Roland A. Vögeli hat über 26 Jahre Erfahrung in Core Development, Technologie- und Prozessberatung, Application Architecture, Enterprise Architecture und Data Warehousing. Als Experte und als verantwortlicher Manager macht er sich für den Ansatz Data Driven Organisation stark. Er hat über die Zeit auf verschiedenen Plattformen Data Warehouses aufgebaut. Als Enterprise Architect bei Biomed AG zeichnet er auch verantwortlich für das Enterprise Data Warehouse.
Reinhard Mense weist mehr als 20 Jahre Erfahrung im Bereich Business Intelligence und Data Warehousing auf. Als Mitbegründer und CTO baute er über mehr als 10 Jahre ein erfolgreiches BI-Beratungsunternehmen auf. Seine Leidenschaft gilt der DWH-Automatisierung, die in einer Ausgründung der Yotilla GmbH für die Entwicklung einer neuartigen DWH-Automatisierungslösung mündete. Als Product Owner verantwortet er heute die Entwicklung von Yotilla bei der Exasol AG.
Vortrag Teilen
Das 'Semantic Term and Model Repository' ist das zentrale Repository bei Bosch für Geschäftsglossare, Taxonomien und semantische Modelle. Das Repository ist gleichzeitig auch eine Plattform für die kollaborative Entwicklung von Glossaren und semantischen Modellen. Es basiert auf W3C-Standards wie RDF, RDFS, OWL und SHACL. Außerdem bietet es verschiedene Standardschnittstellen zur Integration anderer Tools und Anwendungen (z. B. SPARQL, GraphQL und REST).
Zielpublikum: Data Manager, Data Engineers, Data Analysts
Voraussetzungen: Grundlegende Erfahrung in Datenmodellierung und Data Management
Schwierigkeitsgrad: Advanced
Extended Abstract:
Im Rahmen eines Strategie-Projekts hat Bosch eine Methodik und einen Tool-Stack entwickelt, um mit semantischer Modellierung den Weg für ein industrialisiertes Datenmanagement zu bereiten. Das Bosch 'Semantic Term and Model Repository' ist das zentrale Repository bei Bosch für Geschäftsglossare, Taxonomien und semantische Modelle. Mit den Geschäftsglossaren und Taxonomien wird eine gemeinsame Sprache innerhalb der Bosch-Gruppe angestrebt, mit den semantischen Modellen werden konzeptionelle Datenmodelle auf Unternehmensebene als Bosch-weite Standards etablieren. Diese konzeptionellen Datenmodelle dienen als solide Ausgangsbasis für jede neue Datenanwendung, um die Datenintegration zu erleichtern und die Wiederverwendung bereits definierter Modelle zu fördern. Das Repository ist gleichzeitig auch eine Plattform für die kollaborative Entwicklung von Glossaren und semantischen Modellen. Es basiert auf W3C-Standards wie RDF, RDFS, OWL und SHACL. Außerdem bietet es verschiedene Standardschnittstellen zur Integration anderer Tools und Anwendungen (z. B. SPARQL, GraphQL und REST).
Andreas Peter ist als Data Architect bei Bosch im Bereich Datenmodellierung, Datenstrategie und Semantische Modellierung.
SAP hat eine Architekturmethode entwickelt, um effizient Mehrwerte aus Daten zu generieren. Durch ein strukturiertes Vorgehen werden auf Basis datenzentrischer Anwendungsfälle zielgerichtete Lösungsarchitekturen entwickelt. Wir geben einen Überblick über das Vorgehensmodell, wichtige Werkzeuge und Artefakte und zeigen die Anwendung der Methode an einem konkreten Kundenbeispiel.
Zielpublikum: Enterprise/Data Architects, Projektleiter/Berater/Entscheider im Umfeld von Data Management & Analytics
Voraussetzungen: Interesse an Data & Analytics-Themen, Grundverständnis von Architekturmethoden hilfreich, aber nicht zwingend notwendig
Schwierigkeitsgrad: Advanced
Extended Abstract:
Datengetriebene Geschäftsprozesse, Produkte, Dienstleistungen und Geschäftsmodelle werden immer dominanter in allen Branchen. Allerdings sind viele Unternehmen noch nicht richtig aufgestellt, um aus Daten Mehrwert zu generieren. Die Definition einer Datenstrategie ist eine wichtige Grundlage, doch deren konkrete Umsetzung benötigt ein effizientes, nachvollziehbares und standardisiertes Vorgehen, um kontinuierlich Mehrwert aus Daten zu generieren.
SAP hat eine flexibel einsetzbare Methode entwickelt, um die passende Lösungsarchitektur für konkrete daten-getriebene Unternehmensziele ('Business Outcomes') zu entwickeln. Durch die Analyse von Anpassungsbedarfen in der Organisation wird die Implementierung ganzheitlich über einer Roadmap geplant.
Wir geben einen Überblick über das Vorgehensmodell, wichtige Werkzeuge und Artefakte und zeigen die Anwendung der Methode an einem konkreten Kundenbeispiel.
Alexander Bange ist ein Prinicipal Enterprise Architect von SAP. Er ist Teil der SAP-Beratungsorganisation Business Transformation Services (SAP BTS), die Kunden gesamtheitlich bei der strategischen Planung und operativen Durchführung von digitalen Geschäftstransformationen unterstützt.
Alexander arbeitet seit 24 Jahren in unterschiedlichen Rollen (IT-Projektmanager, IT-Manager, SAP Integration Consultant und Enterprise Architect) bei internationalen Konzernen der Branchen High Tech, Pharma, Retail and Consulting.
In seiner aktuellen Rolle ist er als strategischer Berater für strategische SAP-Schlüsselkunden tätig. Er hilft diesen Unternehmen, die passende IT-Architektur zu definieren und die Umsetzungsplanung im Kontext strategischer Rahmenbedingungen zu entwickeln.
Alexander tritt als Präsentator auf verschiedenen SAP und DSAG Events auf.
Vortrag Teilen
Um Nachhaltigkeit in Unternehmensentscheidungen zu berücksichtigen und gesetzlichen Verpflichtungen der Nachhaltigkeitsberichterstattung (CSRD) nachzukommen, müssen BI- und Data-Management neue Informationsbedarfe und funktionale Anforderungen bedienen. In dieser Session diskutieren wir ESG Reporting & Performance Management aus IT- und Data-Management-Sicht:
- ESG Funktionale Anforderungen und Datenmodelle
- ESG Lösungsarchitekturen: Datengenerierung, Datenplattform, Frontend
- ESG Softwareauswahl
- Einsatzmöglichkeiten von AI
Zielpublikum: CIO, Head of BI & Analytics, BI Engineers, Data Engineers, ESG Reporting Specialists, Controller, Accountants
Voraussetzungen: Grundkenntnisse über ESG-Daten (Environmental, Social, Governance)
Schwierigkeitsgrad: Basic
Thomas Johanndeiter arbeitet als Principal bei Horváth und hat über 11 Jahre Consulting-Erfahrung im Bereich Contolling & Finance, BI & Data-Management. Er berät Unternehmen zu BI & Data Strategy und leitet Projekte für die Einführung von BI-, Planungs- und Data-Warehousing-Lösungen. Thomas unterstützt zudem Unternehmen beim Aufbau von Datenplattformen für ESG-Reporting und Performance-Management.
Thomas ist Wirtschaftsinformatiker (M. Sc.) der Universität Duisburg-Essen.
Carsten Breithaupt is leading a team of excellent Enterprise Architects within the Lufthansa Group. They are shaping the IT Landscape based on the Business Capabilities. The best and stable IT at the lowest budget is targeted by continuous harmonizing and optimizing on all architecture layers.
Enrique Snachez ist SAP Enterprise Architect mit Erfahrung auf beiden Seiten des Zauns, von einem Logistik-Systemplaner bei Audi und der Entwicklung und Implementierung von globalen SCM-Lösungen in der DLH-Gruppe. Jetzt ist er in einer Rolle als Enterprise Architect im Enterprise Architecture Team der Gruppe, in Zusammenarbeit mit einem großartigen Team von Experten aus allen Positionen, die die Transformation der SAP-Landschaft der DLH-Gruppe gestalten.
Vortrag Teilen
Within this session colleagues from Siemens Financial Services and b.telligent present how they are building jointly an intelligence data integration framework based on Azure Services leveraging the unique advantages of concepts such as generic loading, automated schema evolution to magnify flexibility and how they fine-tune workloads, to ensure a smooth performance and to cost-efficient workload management at the same time.
Target Audience: Technical Experts in Data Warehousing, Data & Cloud Engineering.
Prerequisites: Advanced Knowledge in ETL/ELT Processes, Azure Cloud, Data Integration a/o Data Warehousing
Level: Advanced
Michael Bruckner has over 10 years of experience working in various roles and industries in the field of business intelligence, data analytics, data engineering, and data warehousing. At Siemens Financial Services, he currently leads the Data Management department within the IT department and is driving the development of an enterprise-wide, cloud-based data platform as an IT Program Manager.
Daniel works as a Cloud Data Warehouse Architect at Siemens Financial Services GmbH in Munich. He has many years of experience in data-intensive BI and analytics projects. As the lead data architect, he is responsible for the development and expansion of a new cloud data platform. His focus is on cloud architecture, data integration, data modeling, and automation.
Tim Spannagel has over 6 years experience working in the analytics industry and specializes on Data Platforms on Microsoft Azure.
He works as a principal consultant at b.telligent supporting customers across various industries. He is responsible for the development of the metaFactory Framework.
Niklas Sander works as a data engineer at Siemens Financial Services GmbH in Munich. Together with colleagues, he is driving the development and expansion of a new cloud data platform. His focus is on topics such as data ingestion, enabling citizen developers, and cost-performance tuning in the Azure Synapse area.
Vortrag Teilen
In this session Marcel will talk about how organizations are realizing a data shopping process with the correct technology, organization and business processes. The session will unveil the role of each technology component from data catalogs and data marketplaces to data virtualization and data pipelining. Furthermore, the role of data governance and organizational change management will be explored and customer reference architectures will be provided to illustrate an exemplary end to end data shopping process.
Target Audience: CTO, CIO, Head of BI, Data Engineer, Data Scientist, Data Steward
Prerequisites: Basic understanding of Data Mesh (optional)
Schwierigkeitsgrad: Advanced
In my current position as the Head of Data Intelligence at Camelot, I serve as a Managing Consultant and Architect, guiding clients in the selection of optimal data management tools for their modern data architectures. My focus extends to realizing the principles of data mesh across organizational, process, and technological dimensions. I am committed to delivering comprehensive solutions and ensuring that organizations harness the full potential of their data assets. I have cultivated expertise in data integration platforms, including SAP Datasphere, Informatica Intelligent Data Management Cloud (IDMC), and Denodo.
Georg Frey is a Consultant at Camelot ITLab, specializing in Data Science, Software Development, and Cloud technologies. With a proven track record in developing and implementing data architectures, Mr. Frey excels in designing robust data governance frameworks and comprehensive data strategies. His proficiency in leveraging cutting-edge technologies and his keen understanding of industry best practices ensure efficient and effective solutions tailored to meet clients' needs. Mr. Frey fosters a data-driven culture, enabling informed decision-making and innovation within organizations.
Vortrag Teilen