Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Thema: Data Platform
- Dienstag
11.06. - Mittwoch
12.06. - Donnerstag
13.06.
Real-world experience navigating a modern data architecture landscape. Thomas Mager will reflect on the initial motivations that sparked this journey, the structure of his contemporary data architecture, the value he could generate, and the obstacles he faced along the way. Additionally, he will offer valuable insights into his current and future endeavors, incl. leveraging SaaS, advancing AI initiatives, and rapidly developing new regulatory reports, all facilitated by the robust framework of modern data architecture based on data virtualization.
Target Audience: Data Architect, Data Engineer, Project Leader, Decision Makers,...
Prerequisites: Basic knowledge
Level: Advanced
Extended Abstract:
In this presentation, Thomas Mager will share his real-world experience navigating a modern data architecture landscape over the past five years. He will reflect on the initial motivations that sparked this journey, the structure of his contemporary data architecture, the value he could generate, and the obstacles he faced along the way. Additionally, Thomas will offer valuable insights into his current and future endeavors, including leveraging SaaS, advancing AI initiatives, and rapidly developing new regulatory reports, all facilitated by the robust framework of modern data architecture with data virtualization.
The main focus areas of this presentation will be:
- Integrating diverse data management techniques, such as data virtualization and ELT, into a unified platform.
- Developing a core business logic layer tailored for data-heavy, IT-centric applications.
- Empowering and skilling 'Data Citizens' to effectively utilize this data architecture.
- Facilitating both current and prospective use cases through this architecture.
Thomas Mager is Head of Data and Analytics Platforms at Partner Reinsurance, a global multi-line reinsurance company. He joined PartnerRe in 2008 after having worked in data management functions at Credit Suisse and UBS. With his team, he builds the worldwide data platform supporting all key business areas. Building an agile truly cloud-native environment is a key driver for him and his team.
This session looks at how adoption of open table formats by data warehouse database management vendors and advances in SQL are making it possible to merge siloed analytical systems into a new federated data architecture supporting multiple analytical workloads.
Target Audience: Data architect, enterprise architect, CDO, data engineer
Prerequisites: Basic understanding of data architecture & databases
Level: Advanced
Extended Abstract:
In the last 12-18 months we have seen many different architectures emerge from many different vendors who claim to be offering 'the modern data architecture solution' for the data-driven enterprise. These range from streaming data platforms to data lakes, to cloud data warehouses supporting structured, semi-structured and unstructured data, cloud data warehouses supporting external tables and federated query processing, lakehouses, data fabric, and federated query platforms offering virtual views of data and virtual data products on data in data lakes and lakehouses. In addition, all of these vendor architectures are claiming to support the building of data products in a data mesh. It's not surprising therefore, that customers are confused as to which option to choose.
However, in 2023, key changes have emerged including much broader support for open table formats such as Apache Iceberg, Apache Hudi and Delta Lake in many other vendor data platforms. In addition, we have seen significant new milestones in extending the ISO SQL Standard to support new kinds of analytics in general purpose SQL. Also, AI has also advanced to work across any type of data.
The key question is what does this all mean for data management? What is the impact of this on analytical data platforms and what does it mean for customers? What opportunities does this evolution open up for tools vendors whose data foundation is reliant on other vendor database management systems and data platforms? This session looks at this evolution and helps vendors realise the potential of what's now possible and how they can exploit it for competitive advantage.
- The demand for data and AI
- The need for a data foundation to underpin data and AI initiatives
- The emergence of data mesh and data products
- The challenge of a distributed data estate
- Data fabric and how can they help build data products
- Data architecture options for building data products
- The impact of open table formats and query language extensions on architecture modernisation
- Is the convergence of analytical workloads possible?
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
GenAI ist in aller Munde, und Use Cases schießen aus dem Boden. Die Herausforderung: Compliance, Betriebsreife oder Testen sind alles andere als egal und dabei häufig komplex. AI Platforms to the rescue!
Klassisches Platform Engineering hilft dabei: AI-Plattformen verbergen die technische Komplexität und ermöglichen so den Use-Case-Experten, sich auf die Umsetzung der fachlichen Innovationen zu konzentrieren, anstatt sich mit den zugrunde liegenden technischen Details auseinandersetzen zu müssen. Wir beleuchten, wie eine Plattform für Generative AI aussehen kann und welche Building Blocks sie benötigt.
Zielpublikum: Data Engineer, Decision Maker, AI Engineer
Voraussetzungen: None
Schwierigkeitsgrad: Basic
Extended Abstract:
Wir berichten aus der Praxis von Beispielen für Plattformen in Enterprise-Umfeldern, die wir entwickelt haben.
Dabei diskutieren wir, wie eine Plattformstrategie nicht nur die technische Umsetzung vereinfacht, sondern auch ein Ökosystem für Innovation schafft, das Zusammenarbeit fördert, Wiederverwendbarkeit erhöht und letztendlich die Zeit bis zur Markteinführung drastisch verkürzt.
Wir gehen neben technischen Bestandteilen insbesondere darauf ein, welche fachlichen Bausteine für die Umsetzung von Use Cases essenziell sind:
- Ein Testframework, in dem Anwender einfach Testfälle schreiben können, um die fachliche Qualität der generierten Antworten zu überwachen und sicherzustellen
- Bausteine für einfache Datenintegration und -verknüpfung
Mario-Leander Reimer is a passionate software developer and architect, proud father, and#CloudNativeNerd. Leander is the CTO at QAware. He’s continuously looking for innovations in software engineering and ways to combine and apply state-of-the-art technology in real-world projects. As a speaker at national and international conferences he shares his tech experiences and he teaches cloud computing and software quality assurance as a part-time lecturer.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/mario-leander-reimer/
Vortrag Teilen
Auch für die weltweit tätige Helm AG gewinnt der moderne Umgang mit Daten zunehmend an Bedeutung. Der Vortrag beschreibt, wie das Unternehmen Daten als wesentliche Informationsquelle und als Basis für Entscheidungen etabliert und sichergestellt wird, dass alle Nutzenden die notwendigen Informationen zur richtigen Zeit erhalten. Die Herausforderungen bestehen dabei vielmehr darin, moderne Arbeitsweisen in Bezug auf Daten einzuführen. Technisch wurde bei der Umsetzung auf moderne, automatisierte und skalierende Komponenten gesetzt.
Zielpublikum: ArchitektInnen, Geschäftsführung, C-Level, Abteilungs-/Bereichsleitung, Product Owner, BICC-Leitung
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced
Extended Abstract:
Es begann mit der Vorstellung vier unterschiedlicher BI-Tools. Die HELM AG, ein traditionsreiches Hamburger Familienunternehmen mit über 120-jähriger Geschichte, gehört heute zu den weltweit größten Chemie-Marketingunternehmen und sichert mit mehr als 100 Niederlassungen, Verkaufsbüros und Beteiligungen in über 30 Ländern durch spezifische regionale Kenntnis den Zugang zu den wichtigsten Märkten. Kein Wunder also, dass ein zeitgemäßer Umgang mit den Daten des Unternehmens eine Voraussetzung für den Erfolg der HELM AG darstellt. Dieser war jedoch mit den aktuellen Werkzeugen nur noch schwer in Einklang zu bringen. Zuerst wurde das Problem bei der aktuellen BI-Lösung gesucht., aber während der Vorstellung der möglichen Kandidaten identifizierte die Helm AG zusammen mit dem Data Strategy & Analytics-Experten areto die tatsächlichen Probleme, und es wurde allen Beteiligten schnell klar, dass die Herausforderungen nur zu bewältigen waren, wenn die Helm AG das Thema Analytics ganzheitlich betrachten und umsetzen würde Im Folgenden hielt areto eine maßgeschneiderte Workshopserie mit unterschiedlichen Beteiligungen seitens der Helm AG ab.
Mittels Data Strategy Workshops wurde die Vision und die Erwartungen des Unternehmens an einen modernen, analytischen Umgang mit Daten geklärt und ein grundsätzlicher Fahrplan für die Zukunft festgelegt. Die Umsetzung sollte Use Case-bezogen erfolgen, und so wurde mit dem Bereich “Chemicals” in weiteren Workshops über die relevanten Use Cases gesprochen, die dann als Backlog dokumentiert wurden. Gleichzeitig entwickelte areto auf Basis der identifizierten Anforderungen eine Architekturempfehlung, die dann intensiv diskutiert und letztendlich so umgesetzt wurde. Auf in die Zukunft mit dem Projekt “Flux”! Mit “Flux” schafft die Helm AG die Basis für die zentrale Daten- und Analytics-Plattform, die nun sukzessiv auf alle Bereiche des Unternehmens ausgeweitet wird. Das allseits präsente Thema “Data Mesh” wird in diesem Kontext zwar diskutiert, aber in einer für die Helm AG angepassten Variante eingesetzt. Die Umsetzung des Projektes “Flux” erfolgt in einzelnen Abschnitten (“Waves”), die jeweils separat geschätzt wurden. Die technische Umsetzung erfolgte agil an Scrum angelehnt. SAP und Salesforce sind und waren die wichtigsten Datenquellen. SAP befand sich auf dem kritischen Pfad des Projektes, da wegen des parallelen Rollouts von SAP auf andere Regionen wenig internes Personal unterstützen konnte. Mit Microsoft Azure und Snowflake wurden leistungsfähige und skalierende Komponenten gewählt. Die Automatisierung der Datenbewirtschaftung erfolgt über die Azure Data Factory (inkl. der SAP-Anbindung) und den Datavault Builder. Analysen und Dashboards werden über PowerBI implementiert.
Hallo liebe Community,
Ich denke und handle durch und durch Business Intelligence. Ich brenne für neue BI und Datenlösungen, die es einfach jeder und jedem ermöglicht, ihre und seine Arbeit Tag für Tag besser zu machen. Das lernte ich während meiner Beratungstätigkeit kennen und baute es danach weiter aus, sodass ich federführend an dem Aufbau der Datenplattform und der datengetriebenen Kultur bei hagebau Connect beteiligt war. Beim Global Player HELM AG startete ich mit dem Auftrag eine komplett neue globale Datenlandschaft aufzubauen, die für jedmögliche BI- und AI-Initiative der Zukunft gewappnet sein soll. Als Product Owner vereine ich die Anforderungen vom Business und entwickle zusammen mit dem Corporate BI Team die technische Plattform und vor allem auch die datengetriebene Kultur.
Data-Driven Self-Service sollte die Gegenwart sein und ist unabdingbar in der Zukunft.
Think BI(g)
Till Sander weist eine über 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/till-sander/
Babymarkt.de wollte sich noch stärker als bisher auf den Kunden fokussieren und brauchte dafür eine entsprechende Datengrundlage. Ein Audit zeigte die Schwächen der historisch gewachsenen existierenden Dateninfrastruktur auf. Ausgehend von den erfolgversprechendsten Use Cases wurde daher eine neue Best-of-Breed-Datenplattform in der Cloud konzipiert und implementiert. In diesem Vortrag stellen wir die gemachten Erfahrungen vor und geben Tipps für Unternehmen, die sich in einer ähnlichen Situation befinden.
Zielpublikum: Manager im Datenbereich, Datenarchitekten, Datenstrategen
Voraussetzungen: Grundkenntnisse in Datenmanagement und -organisation
Schwierigkeitsgrad: Basic
Jan Friedemeyer begleitet babymarkt.de bereits seit vielen Jahren und verantwortet aktuell die Bereiche Projektmanagement, Pricing, ERP und BI. In dieser Funktion deckt er ein breites Spektrum an relevanten Themen ab und treibt unter anderem die Modernisierung der Dateninfrastruktur aktiv voran.
Mike Kamysz wird durch die Kombination aus technischer Expertise und seiner Erfahrung im Management Consulting zum idealen Sparringspartner für den Aufbau einer datengetriebenen Organisation.
Zuletzt leitete er das Analytics Engineering & BI Team bei DEPT, mit welchem er branchenübergreifend die Implementierung moderner Datenplattformen betreute. Diese Arbeit setzt er nun bei The Data Institute fort.
Die Scherdel GmbH setzt international Maßstäbe bei der Verarbeitung von metallischem Draht und Band. Das bestehende DWH auf Basis MSSQL, welches über 15 Jahre von verschiedenen Entwicklern aufgebaut wurde, wird Schritt für Schritt modernisiert und in der Azure Cloud aufgesetzt. Im ersten Schritt wurden die Grundlagen geschaffen und ein erster Cube umgesetzt. Als Lösung setzen wir auf MS Fabric, obwohl es erst mit Projektbeginn allgemein verfügbar war. Wir stellen das Projekt vor und berichten über unsere Erfahrungen mit Microsoft Fabric.
Zielpublikum: Data Engineers, Architekten, Projektverantwortliche
Voraussetzungen: Basiswissen Analytics
Schwierigkeitsgrad: Basic
Extended Abstract:
Die Scherdel GmbH setzt seit über 130 Jahren als mittelständisch geprägtes, inhabergeführtes Familienunternehmen international Maßstäbe bei der Verarbeitung von metallischem Draht und Band. Das bestehende DWH auf Basis MSSQL, welches über 15 Jahre hinweg von verschiedenen Entwicklern aufgebaut wurde, soll Schritt für Schritt modernisiert und in der Azure Cloud aufgesetzt werden. In einem ersten Schritt wurden die Grundlagen der neuen DIP (Dateninformationsplattform) geschaffen und ein erster Cube umgesetzt. Bei der Lösung setzen wir auf Microsoft Fabric, obwohl es erst nach Projektbeginn allgemein verfügbar war. Im Vortrag berichten wir über unsere ersten Erfahrungen und Herausforderungen in der Verwendung von Microsoft Fabric.
Benjamin Schenk ist seit nun 2 Jahren Teamlead Operating Enterprise Applications bei der SCHERDEL GmbH. Neben seinen Spezialkenntnissen für Datenbanken (MSSQL & Oracle) kümmert er sich um den Betrieb von Enterprise-IT-Services, egal ob OnPrem oder in der Cloud. Die Umsetzung eines Standards für den Betrieb von IT-Services und Automatisierung sind nur einige Teilgebiete seines Teams.
Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet im Bereich Corporate Development der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.
Viele Organisationen kennen das Problem: SAP-Daten sind für viele Use-Cases interessant, aber der Zugriff ist kompliziert oder sehr teuer. Unsere Lösung: Eine Spark Data Source für SAP, die ohne zusätzliche Software oder Module direkt von Databricks auf SAP-Systeme zugreift und damit native Weiterverarbeitung in der Spark-Welt erlaubt. Am Beispiel des Data-Stacks der GEMA zeigen wir, wie die SAP-Integration unsere Data-Mesh-Plattform im Self-Service beflügelt und welche Use-Cases wir damit umsetzen konnten.
Zielpublikum: Data Engineers und alle Daten-Rollen in Organisationen mit SAP-Quellsystemen
Voraussetzungen: Grundkenntnisse in PySpark
Schwierigkeitsgrad: Basic
Martin Zürn treibt als Head of Data Engineering die Weiterentwicklung des Data-Stacks der GEMA voran. Seit 2 Jahren arbeitet die Verwertungsgesellschaft mit einer Self-Service-Datenplattform mit dezentraler Verantwortlichkeit. Aus vielfältigen Datenquellen entsteht so ein Lakehouse, das uns in eine digitale, datengetriebene Organisation transformiert.
Dr. Julius von Ketelhodt gestaltet und entwickelt seit vielen Jahren Data & Analytics-Projekte für namhafte Kunden aus verschiedenen Branchen. Sein Fokus liegt auf der Integration relevanter Daten aus verschiedenen SAP-Quellsystemen in führende Cloud-Datenplattformen. Als Product Lead leitet er ein Team, um die SAP-Integration weiterzuentwickeln und stetig zu vereinfachen. Sein Hintergrund liegt in der Physik mit Promotion im Bereich Seismologie.
Begonnen hat alles mit einem Cube. Inzwischen hat sich die analytische Landschaft von Agaplesion drastisch erweitert, die Begleitung des 'Patienten-Journey' ohne Daten unvorstellbar. Datengetriebene Entscheidungen beeinflussen alle Aspekte des KKH-Alltags. Ohne leistungsfähige Architektur dahinter undenkbar: Mit seiner Data Fabric nutzt Agaplesion verteilte Datenquellen, Wissen über Daten inkl. umfassender Datenschutzregeln und erlaubt so, mit intelligenten ML-Prozesse die KKH-Prozesse optimal, nachvollziehbar und sicher zu unterstützen.
Zielpublikum: Analytics/Solution Architects, Decision Makers, Controller, Project Leader. More technical than Business
Voraussetzungen: Basic Knowledge of Data Management Strategies and Architectures (Data Warehouse, Data Fabric)
Schwierigkeitsgrad: Advanced
Extended Abstract:
Der Fokus der analytischen Landschaft von Agaplesion hat sich dramatisch gewandelt: Während früher ausschließlich Planung und Reporting im Vordergrund standen und durch kombinierte Einzellösungen repräsentiert wurden, wird heute der Bedarf und Nutzen von Analysen sehr viel höher eingeschätzt. Der umfassende Datenschatz im Unternehmen kann vielfach zur Optimierung oder Steuerung der Prozesse genutzt werden, zum Vorteil für Patienten, medizinisches Personal, aber auch in kommerzieller Hinsicht. In Zeiten von Pandemien, Fachkräftemangel und im Hinblick auf die kommende Alterspyramide kann sich unsere Gesellschaft kein leeres Bett oder unnötige Doppeluntersuchungen leisten!
Der Bedarf an Umgang mit den vorhandenen oder neuen Daten kann nicht nur durch Experten gedeckt werden - Fachanwender, Analysten und Data Scientists sind gefragt! Damit der Umstieg, die Übernahme analytischer Tätigkeit effizient gelingt, sind neue Methoden und damit Technologien gefragt: Self-Service BI, Data Science benötigt gut dokumentierte Daten, damit Bedeutung und Hintergründe nicht nur den Datenexperten transparent sind. Gleichzeitig muss mit definierten, automatisierbaren Zugriffsregeln der Datenschutz sichergestellt werden. Und nicht zuletzt geht mit der zunehmenden Nutzung von Data Science und AI die Verantwortung nach Nachvollziehbarkeit und Überwachung der AI einher.
Agaplesion hat sich daher in einer technischen Neubewertung entschlossen, eine analytische Plattform einzuführen, die sowohl die Aspekte Data Governance, Datenzugriff und Potenzial für umfassende Data Science/AI-Prozesse abdeckt, als auch die bisherigen Einzellösungen integriert.
In diesem Vortrag werden der fachliche Hintergrund und die resultierende Daten-Strategie besprochen, die bisherige Umsetzung mit Erfolgen und Hindernissen gezeigt und die weiteren Ziele von Agaplesion mit dieser Plattform.
Jan Geesen, geboren 1986, beschäftigt sich seit 2012 mit dem Gesundheitswesen und Analytik. Erst als Controller mit Schwerpunkt BI in der Zentrale der AGAPLESION gAG, wo er zuständig war für alle Leistungsbereiche (Somatik, Psychiatrie, Wohnen & Pflegen, Hospiz, Reha, Med. Versorgungszentren). 2018 wechselte er für 2 Jahre in Leitungsfunktion ins Controlling an einen Konzernstandort mit 5 Gesellschaften und kehrte anschließend als Leitung Business Analytics zurück in die Zentrale. Dort treibt er seitdem die Datennutzung, -konsistenz und eine zentrale Datenstrategie voran.
Marc Bastien, Jahrgang 1967, arbeitet seit 1993 kontinuierlich in Analytics-Projekten. Nach einigen Jahren beim Endkunden, wechselte Marc Bastien schon bald zum Hersteller, um dort in zahlreichen Projekten in unterschiedlichen Branchen und Rollen mitzuarbeiten. Nach ca. 20 Jahren und zuletzt im Presales entschied er sich, wieder Lösungen von Anfang bis Ende zu begleiten. In seiner Eigenschaft als Analytics Architekt umfassen die Tätigkeiten von der Architekturberatung, über Umsetzung von analytischen Projekten bis zur Betriebsunterstützung großer Data Management Plattformen.
Vortrag Teilen