Konferenzprogramm

Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

 

Thema: Data Architecture

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    11.06.
  • Mittwoch
    12.06.
  • Donnerstag
    13.06.
, (Dienstag, 11.Juni 2024)
10:40 - 11:25
Di 5.1
Mehr Demokratie wagen – und als Architekt die Flöhe hüten?
Mehr Demokratie wagen – und als Architekt die Flöhe hüten?

Stellen Sie sich vor, Sie haben in einem Großunternehmen als Daten-Architekt einer BI-Initiative mit ca. 160 Daten-Enthusiasten aus zentraler IT, Business Units und Zentralabteilungen die Aufgabe, die Architektur zu gestalten. Ist das wie einen Sack Flöhe zu hüten? Wie prägt ein 'people first'-Ansatz die Architekturarbeit? Und welchen Beitrag leisten aktuelle technische und organisatorische Ansätze wie Cloud, Data Marketplaces oder Data Mesh dabei?

Zielpublikum: Data Engineer, Project Leader, Decision Makers, Architects
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Edgar Kaemper ist Architecture Guide bei Bosch im Bereich xBI (Cross Business Intelligence). Er hat in Groß- und mittelständischen Unternehmen Big-Data-Architekturen und Data-Warehouse-Services (SaaS) aufgebaut und betrieben.
Edgar Kaemper ist Sprecher auf Anwendertreffen und Konferenzen.
Nebenberuflich ist er Vorsitzender einer Stiftung und unterstützt als Perspektivenentwickler einen Jugendverband mit > 50.000 Ehrenamtlichen in Change-Prozessen.

Edgar Kaemper
K3
11:35 - 12:20
Di 5.2
Evolution of Modern Data Architecture: A Practical Journey
Evolution of Modern Data Architecture: A Practical Journey

Real-world experience navigating a modern data architecture landscape. Thomas Mager will reflect on the initial motivations that sparked this journey, the structure of his contemporary data architecture, the value he could generate, and the obstacles he faced along the way. Additionally, he will offer valuable insights into his current and future endeavors, incl. leveraging SaaS, advancing AI initiatives, and rapidly developing new regulatory reports, all facilitated by the robust framework of modern data architecture based on data virtualization.

Target Audience: Data Architect, Data Engineer, Project Leader, Decision Makers,...
Prerequisites: Basic knowledge
Level: Advanced

Extended Abstract:
In this presentation, Thomas Mager will share his real-world experience navigating a modern data architecture landscape over the past five years. He will reflect on the initial motivations that sparked this journey, the structure of his contemporary data architecture, the value he could generate, and the obstacles he faced along the way. Additionally, Thomas will offer valuable insights into his current and future endeavors, including leveraging SaaS, advancing AI initiatives, and rapidly developing new regulatory reports, all facilitated by the robust framework of modern data architecture with data virtualization.

The main focus areas of this presentation will be:

  • Integrating diverse data management techniques, such as data virtualization and ELT, into a unified platform.
  • Developing a core business logic layer tailored for data-heavy, IT-centric applications.
  • Empowering and skilling 'Data Citizens' to effectively utilize this data architecture.
  • Facilitating both current and prospective use cases through this architecture.

Thomas Mager is Head of Data and Analytics Platforms at Partner Reinsurance, a global multi-line reinsurance company. He joined PartnerRe in 2008 after having worked in data management functions at Credit Suisse and UBS. With his team, he builds the worldwide data platform supporting all key business areas. Building an agile truly cloud-native environment is a key driver for him and his team.

Thomas Mager
K3
14:30 - 15:30
Di 3.3
Erfahrungen aus zwei Jahren Data Mesh Architekturanwendung
Erfahrungen aus zwei Jahren Data Mesh Architekturanwendung

Die ANDREAS STIHL AG & Co. KG befindet sich im Prozess der Digitalisierung. Als ein Kernelement wurde die Data Analytics Platform als Basis für die Umsetzung zahlreicher unterschiedlicher Anwendungsfälle verschiedener Fachbereiche vor mehr als zwei Jahren entworfen und realisiert. Die Plattform ist nach dem Prinzip der Data Mesh Architektur konzipiert. In unserem Vortrag möchten wir wichtige Erfahrungen teilen und auch einen Ausblick auf eine mögliche zukünftige Weiterentwicklung geben.

Zielpublikum: Data Architects, Data Strategists, Data Engineers
Voraussetzungen: Basic knowledge of Data Platforms
Schwierigkeitsgrad: Advanced

Extended Abstract:
Im Zuge der Digitalisierung sind bei ANDREAS STIHL AG & Co. KG zahlreiche Ideen für die zukünftige Nutzung von Daten entstanden. Nach einer Evaluation aktueller und abzusehender zukünftiger Anforderungen und damals bestehender technischer Lösungen sowie möglicher Alternativen vor mehr als zwei Jahren wurde die Entscheidung für den Aufbau einer neuen Plattform für analytische Zwecke gefällt. Die Wahl fiel auf eine Data Mesh Architektur. Im Verlauf der letzten beiden Jahre sind mehrere Instanzen entstanden, die die unterschiedlichen Datenhaushalte und Anwendungsfälle der verschiedenen Fachbereiche beheimaten. Ebenso entwickeln sich die möglichen technischen Lösungsoptionen weiter, die im Zuge einer kontinuierlichen Bewertung einen Einfluss auf die zukünftige Ausgestaltung haben. In unserem Vortrag möchten wir einen technischen und organisatorischen Überblick geben und wichtige Erfahrungen teilen.

Dr. Dierk Jugel ist Teamleiter des Big Data Analytics Hub bei STIHL, einem zentralen Kompetenzzentrum für Data Analytics & KI. In seiner aktuellen Rolle verantwortet er die Data Analytics Platform als Basis für Use-Case-Implementierungen zusammen mit Fachbereichen und treibt die Datenstrategie für STIHL voran.

Fabian Schmid ist Data Engineer und Solution Architect im Big Data Analytics Hub bei STIHL.
In dieser Funktion ist er neben der kontinuierlichen Weiterentwicklung der Data Analytics Platform auch für die gemeinsame Umsetzung von Use Cases mit verschiedenen Fachbereichen zuständig.

Peter Schulz ist ein Technologie-Enthusiast mit dem professionellen Schwerpunkt auf Datenplattformen. Seit mehr als 20 Jahren unterstützt er Unternehmen aus den unterschiedlichsten Branchen bei der erfolgreichen Generierung von Werten aus Daten mit der zielgerichteten Hilfe von Technologien. Dabei hat er breite und tiefe Erfahrung mit unterschiedlichen Anwendungsfällen, Regularien und Technologien erworben. Peter ist Head of Data Architecture bei der Alexander Thamm GmbH.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/peter.schulz

Dierk Jugel, Fabian Schmid, Peter Schulz
E119
Dierk Jugel, Fabian Schmid, Peter Schulz
E119

Vortrag Teilen

14:30 - 15:30
Di 5.3
Data Architecture Evolution and the Impact on Analytics
Data Architecture Evolution and the Impact on Analytics

This session looks at how adoption of open table formats by data warehouse database management vendors and advances in SQL are making it possible to merge siloed analytical systems into a new federated data architecture supporting multiple analytical workloads.

Target Audience: Data architect, enterprise architect, CDO, data engineer
Prerequisites: Basic understanding of data architecture & databases
Level: Advanced

Extended Abstract:
In the last 12-18 months we have seen many different architectures emerge from many different vendors who claim to be offering 'the modern data architecture solution' for the data-driven enterprise. These range from streaming data platforms to data lakes, to cloud data warehouses supporting structured, semi-structured and unstructured data, cloud data warehouses supporting external tables and federated query processing, lakehouses, data fabric, and federated query platforms offering virtual views of data and virtual data products on data in data lakes and lakehouses. In addition, all of these vendor architectures are claiming to support the building of data products in a data mesh. It's not surprising therefore, that customers are confused as to which option to choose.  

However, in 2023, key changes have emerged including much broader support for open table formats such as Apache Iceberg, Apache Hudi and Delta Lake in many other vendor data platforms. In addition, we have seen significant new milestones in extending the ISO SQL Standard to support new kinds of analytics in general purpose SQL. Also, AI has also advanced to work across any type of data. 

The key question is what does this all mean for data management? What is the impact of this on analytical data platforms and what does it mean for customers? What opportunities does this evolution open up for tools vendors whose data foundation is reliant on other vendor database management systems and data platforms? This session looks at this evolution and helps vendors realise the potential of what's now possible and how they can exploit it for competitive advantage.

  • The demand for data and AI
  • The need for a data foundation to underpin data and AI initiatives
  • The emergence of data mesh and data products
  • The challenge of a distributed data estate
  • Data fabric and how can they help build data products
  • Data architecture options for building data products
  • The impact of open table formats and query language extensions on architecture modernisation
  • Is the convergence of analytical workloads possible?

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

16:00 - 16:45
Di 1.4
Swiss Life: Weg zur modernen Data & Analytics Organisation
Swiss Life: Weg zur modernen Data & Analytics Organisation

Bei Unternehmen, wie Swiss Life, die nicht aus einem datenbasierten Geschäftsmodell entstanden sind, hat die Auswertungsmöglichkeit von Daten zugenommen. Im Swiss Life EKV-Bereich hat dies zu vielen einzelnen Lösungen in der Datenlandschaft geführt. Um den Umgang mit Daten zu harmonisieren, wurden Zielbilder für eine moderne Datenorganisation und -architektur entwickelt, die nun implementiert werden. In diesem Vortrag erfahren Sie mehr über die Datenstrategie sowie die Erfolge und Herausforderungen, die mit deren Implementierung verbunden sind.

Zielpublikum: Entscheidungsträger (die eine moderne data & analytics Organisation aufbauen wollen)
Voraussetzungen: Grundverständnis von Datenorganisationen, Data Governance und Datenplattformen
Schwierigkeitsgrad: Basic

Extended Abstract:
In 2023 wurde für das EKV-Geschäft der Swiss Life in Zusammenarbeit mit der Alexander Thamm GmbH eine neue Datenstrategie entwickelt, welche den Rahmen für den zukünftigen Umgang mit Daten setzt. Sie soll im Zielbild die historisch gewachsene, fragmentierte und intransparente Datenlandschaft durch eine moderne, cloud-native Datenarchitektur als 'single source of interpretation' ersetzen und gleichzeitig hohe Mehrfachaufwände in der Datenbeschaffung und -aufbereitung durch eine effiziente 'Hub & Spoke'-Organisation reduzieren. So sollen in Zukunft datengetriebene Geschäftsprozesse und Entscheidungsfindungen gefördert und innovative Lösungen ermöglicht werden. In diesem Vortrag möchten wir über die Entwicklung der Datenstrategie und getroffene Design-Entscheidungen berichten, auf das erste halbe Jahr der Umsetzung der Strategie zurückblicken und über die technischen und organisatorischen Erfolge und Herausforderungen, die hiermit verbunden sind, reflektieren.

Livia Kaiser-Auernheimer ist Beraterin für Datenstrategie und Data Science bei der Alexander Thamm GmbH und unterstützte Swiss Life bei der Entwicklung ihrer Datenstrategie. Sie begeistert sich für datengetriebene Lösungen und Entscheidungsfindungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/livia.kaiserauernheimer

Arne Steinkraus ist Leiter des Data & Analytics Hubs bei Swiss Life (EKV) Deutschland. Zudem hat er einen Lehrauftrag für statistisches Lernen an der TU Braunschweig. Er ist sowohl Data-Science- als auch Ökonometrie-begeistert.

Livia Kaiser-Auernheimer, Arne Steinkraus
F111
Livia Kaiser-Auernheimer, Arne Steinkraus
F111

Vortrag Teilen

16:00 - 16:45
Di 3.4
Moderne Datenorchestration im Kontext der Automobilindustrie
Moderne Datenorchestration im Kontext der Automobilindustrie

Im Vortrag wird die praktische Umsetzung einer Architektur auf Basis des modern Technology Stack (Einsatz von: DBT, Databricks, Dagster) im Kontext der Automobilindustrie gezeigt. Hierbei wird besonderer Fokus auf ein modernes Orchestrationswerkzeug gelegt, welches am Markt noch nicht so bekannt ist. Es wird auch übergreifend auf den Gesamtkontext eines Enterprise-Unternehmens hinsichtlich Data Governance, Data Security und Data Mesh sowie die Nutzung mehrerer Cloud-Hyperscaler eingegangen.

Zielpublikum: Data Engineers, BI Specialists, Data Managers, BI Solution Architects, Cloud Engineers
Voraussetzungen: Basiswissen über modernes Datenmanagement, Data Warehousing und BI
Schwierigkeitsgrad: Advanced

Tim Grützner arbeitet in seiner aktuellen Rolle als Produktmanager für Data Platforms and Products übergreifend für die Realisierung einer Datenplattform auf Basis des modern Technology Stack und verantwortet eine Großzahl von BI- und Dateninitiativen für die Marke Volkswagen Nutzfahrzeuge und in der Volkswagen AG. Er ist seit ca. 10 Jahren für Volkswagen tätig und hatte verschiedene Rollen im Kontext Data Management wie z.B. Head of BI für VW Nutzfahrzeuge in der Vergangenheit inne.

Tim Grützner, Maximilian Vollmer, Sascha Kellner
E119
Tim Grützner, Maximilian Vollmer, Sascha Kellner
E119

Vortrag Teilen

16:00 - 16:45
Di 5.4
Consumer-Driven Contract Testing for Data Products
Consumer-Driven Contract Testing for Data Products

Data Mesh is a decentralized approach to enterprise data management. A Data Mesh consists of Data Products, which can be composed to form higher-order Data Products. In order for a Data Mesh to scale, this composition needs to be safe and efficient, which calls for automated testing. In the Microservices architecture, scalably testing the interaction between services is sometimes achieved by an approach called Consumer-Driven Contract Testing. This session explores how this approach can be applied to the automated testing of Data Products.

Target Audience: Data Engineers, Data Scientists
Prerequisites: Basic knowledge of key concepts of Data Mesh, such as Data Products, as well as basic knowledge of Microservices architectural practices
Level: Advanced

Arif Wider is a professor of software engineering at HTW Berlin and a fellow technology consultant with Thoughtworks Germany, where he served as Head of Data & AI before moving back to academia. As a vital part of research, teaching, and consulting, he is passionate about distilling and distributing great ideas and concepts that emerge in the software engineering community. He is a frequent speaker at conferences, book author, and industry expert on topics around Data Mesh.

Arif Wider
K3
Arif Wider
K3

Vortrag Teilen

17:15 - 18:00
Di 1.5
ESG als Digitalisierungstreiber? Nachhaltigkeit auch bei ESG
ESG als Digitalisierungstreiber? Nachhaltigkeit auch bei ESG

Das ESG-Reporting adressiert in wesentlichen Teilen das Risikomanagement der Geschäftstätigkeit und die Nachhaltigkeit im Sinne einer dauerhaften und schonenden Nutzung der eingesetzten Ressourcen. Dabei zeigt sich jedoch in aktuellen Projekten, dass diese Schwerpunkte beim Aufsetzen eines ESG-Berichtswesens selbst zum Teil nicht berücksichtigt werden, sodass Individuallösungen oder Insellösungen entstehen, um schnell den gesetzlichen Anforderungen gerecht zu werden. ONTRAS zeigt, dass Nachhaltigkeit bei Digitalisierung anders aussehen kann.

Zielpublikum: Zielgruppe sind Personen, die sich zum einen fachlich mit dem Thema ESG oder den Initiativen darum beschäftigen, und zum anderen Personen, die analytische Architekturen in Organisationen betreuen.
Voraussetzungen: Grundverständnis für Analytics
Schwierigkeitsgrad: Basic

Extended Abstract:
Das Environment, Social, Governance-(ESG)-Reporting adressiert in wesentlichen Teilen das Risikomanagement der Geschäftstätigkeit und die Nachhaltigkeit im Sinne einer dauerhaften und schonenden Nutzung der eingesetzten Ressourcen. Dabei zeigt sich jedoch in aktuellen Projekten, dass diese Schwerpunkte beim Aufsetzen eines ESG-Berichtswesens selbst zum Teil nicht berücksichtigt werden, sodass Individuallösungen oder Insellösungen entstehen, um irgendwie schnell den gesetzlichen Anforderungen gerecht zu werden.

Nun haben viele Unternehmen bereits seit Jahren in Business-Intelligence-Architekturen investiert und hier großes Know-how aufgebaut, sodass die Themen der Wiederverwendbarkeit geschaffener Strukturen und damit einhergehend eine Risikominimierung beim Aufsetzen und Betreiben einer Reporting-Lösung genauso im Mittelpunkt stehen sollten, um weiteren Nutzen aus den Digitalisierungsbemühungen im Berichtswesen ziehen zu können. Im Folgenden zeigt ein konkretes Projektbeispiel auf, dass ESG idealerweise als Bestandteil existierender analytischer Architekturen aufgefasst wird und auch, dass die Herausforderungen im Berichtswesen nicht erst seit ESG auch in der Datenbeschaffung liegen.

ONTRAS startete 2019 in das Projekt: 'Berichtswesen Energie- und Umweltmanagement', das nun auch Teil des ESG-Berichtswesens wird. Ausgehend von einer Vielzahl manueller Prozesse und qualitätsseitig zunächst nur begrenzt tragfähiger Daten wurde im Projektverlauf innerhalb der existierenden analytischen Architektur bei ONTRAS eine effiziente, qualitätsgesicherte und für Fachanwender nachvollziehbare Berichtlösung geschaffen. Diese bietet eine vor allem für vielseitige Anforderungen wie Berichte für ESG oder auch Zertifizierungen nutzbare Oberfläche, um den Verantwortlichen alle relevanten Informationen direkt nutzbar zur Verfügung zu stellen. Hervorzuheben ist dabei die Sicherstellung der Datenqualität über eine idealerweise direkte Quellenanbindung, aber auch notwendigerweise Optimierung manueller Datenlieferungen, Validierungs- und Freigabeprozesse zur Verbesserung einer jeden Möglichkeit des Dateninputs und eine weitestgehend hochgradige automatisierte Verarbeitung. Dieser Beitrag zeigt den Ausgangspunkt des Projektes, Herausforderungen und deren Lösungen im Prozess, sodass nachvollziehbar ist, wie die entstandenen Ergebnisse in nun transparenten Informationsflüssen den Anwendern Sicherheit bei der Nutzung der berichteten Werte geben.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/sonja_wiedemann

Philipp Seidel ist als Teamleiter im Bereich Oberflächen sowie erfahrener Projektleiter für Business Intelligence und Analytics bei der Marmeladenbaum GmbH. Er betreut Projekte von der Anforderungsanalyse und Konzeption bis zur Umsetzung von Oberflächen und beherrscht mehrere Werkzeuge alternativer Hersteller wie beispielsweise Microsoft, MicroStrategy oder auch Pentaho. Branchenseitig hat er umfassende Erfahrungen in den Branchen Logistik, Energie sowie Banken und Versicherungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/philipp_seidel

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt. 

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/claudia_koschtial

Sonja Wiedemann, Philipp Seidel, Claudia Koschtial
F111
Sonja Wiedemann, Philipp Seidel, Claudia Koschtial
F111

Vortrag Teilen

, (Mittwoch, 12.Juni 2024)
09:00 - 10:00
Mi 1.1
Creating Data Transparency with the Support of LLMs and AI
Creating Data Transparency with the Support of LLMs and AI

Data Transparency is a basic need of every data worker. It is crucial to find the right data in a limited amount of time to keep the time-to-market of data and analytical products short. However, documenting and classifying data manually can be cumbersome due to the vast amount of data. In this session, we present the approach MediaMarktSaturn has taken to use LLMs and other AI models in combination with a data catalog to establish a high level of data transparency in a semi-automated way.

Target Audience: Chief Data Officers, Data Governance Managers, Data Strategists, Data Engineers, Data Scientists, Subject Matter Experts
Prerequisites: Basic knowledge of Data Catalogs and LLMs
Level: Basic

Extended Abstract:
Data Transparency is a basic need of every data worker. It is crucial to find the right data in a limited amount of time to keep the time-to-market of data and analytical products short. But with the ever-growing amount of data, it gets more and more difficult to keep up a suitable level of data transparency. In this session, we present the approach MediaMarktSaturn has taken to use LLMs and Open Source Data Catalogs to establish a high level of data transparency in a semi-automated way. With this approach, it is possible to keep the manual work at a suitable level and manage data transparency in an efficient way. Moreover, we will outline how this approach is integrated into the overall Data Governance and Data Architecture.

Dieter Berwald is Competency Lead and Product Owner at MediaMarktSaturn Technology, where he focuses on advanced analytics and data catalog applications. He currently leads projects aimed at entity recognition in large cloud data lakes, managing data access, and leveraging metadata for enhanced data utilization.

Dr. Christian Fürber ist promovierter Datenqualitätsexperte und Geschäftsführer der Information Quality Institute GmbH (iqinstitute.de), einem spezialisierten Beratungsunternehmen für Data Excellence und Data Management Lösungen. Vor der Gründung von IQI im Jahr 2012 war er in verschiedenen Positionen im Datenmanagement tätig. Unter anderem etablierter er für die Bundeswehr eine der ersten Data Governance Organisationen und führte dort ein standardisiertes Datenqualitätsmanagement ein. Christian und sein Team haben unzählige Datenprojekte und -strategien für bekannte Unternehmen verschiedener Branchen erfolgreich umgesetzt und ihnen dabei geholfen, erheblichen Mehrwert aus ihren Daten zu ziehen. Neben seiner Tätigkeit bei IQI ist Christian auch Autor und Redner auf Konferenzen (u.a. am MIT) und organisiert den TDWI Themenzirkel "Data Strategy & Data Governance".

Nitin embarked on his IT career in 2014 as a consultant, quickly gaining a reputation for his expertise and adaptability. Throughout his career, he has worked with a diverse range of clients across industries including telecommunications, petroleum, and disaster recovery. Nitin holds a Master's degree from the prestigious Technical University of Munich (TUM), which further solidified his foundation in data architecture and engineering. 
Following his studies, Nitin excelled as a Lead Data Architect/Data Engineer at several renowned companies. His innovative cloud solution architecture, particularly for real-time racetrack analytics, has been instrumental in securing multi-million dollar deals. Currently, Nitin serves as the Data Governance Lead at MediaMarktSaturn, where he continues to drive data excellence and governance initiatives.
 

Dieter Berwald, Christian Fürber, Nitin Vashisth
E119
Dieter Berwald, Christian Fürber, Nitin Vashisth
E119

Vortrag Teilen

09:00 - 12:10
Mi 3.1
Data Architecture to Support Analytics & Data Science
Data Architecture to Support Analytics & Data Science

Supporting analytics and data science in an enterprise involves more than installing open source or using cloud services. Too often the focus is on technology when it should be on data. The goal is to build multi-purpose infrastructure that can support both past uses and new requirements. This session discusses architecture principles, design assumptions, and the data architecture and data governance needed to build good infrastructure.

Target Audience: BI and analytics leaders and managers; data architects; architects, designers, and implementers; anyone with data management responsibilities who is challenged by recent changes in the data landscape
Prerequisites: A basic understanding of how data is used in organizations, applications and platforms in the data ecosystem, data management concepts
Level: Advanced

Extended Abstract:
The focus in our market has been on acquiring technology, and that ignores the more important part: the landscape within which this technology exists and the data architecture that lies at its core. If one expects longevity from a platform then it should be a designed rather than accidental architecture. 

Architecture is more than just software. It starts with uses, and includes the data, technology, methods of building and maintaining, governance, and organization of people. What are design principles that lead to good design and data architecture? What assumptions limit older approaches? How can one modernize an existing data environment? How will this affect data management? This session will help you answer these questions.

Outline - Topics covered:    

  • A brief history of data infrastructure and past design assumptions
  • Categories of data and data use in organizations
  • Differences between BI, analysis, and data science workloads
  • Data architecture
  • Data management and governance processes
  • Tradeoffs and antipatterns

Mark Madsen works on the use of data and analytics for decision-making and organizational systems. Mark worked for the past 25 years in the field of analytics and decision support, starting with AI at the University of Pittsburgh and robotics at Carnegie Mellon University.

Mark Madsen
F111
Mark Madsen
F111

Vortrag Teilen

11:25 - 12:10
Mi 5.3
Data Architecture in the Cloud – Challenges and Opportunities
Data Architecture in the Cloud – Challenges and Opportunities

About 15 years ago, the finance sector pioneered data and analytics with developments like central Data Warehousing solutions and the establishment of BICC organizations. Recently, innovation has shifted towards public cloud and industries like automotive, significantly transforming the landscape. The finance sector, encountering similar challenges, is actively navigating the transition to the cloud. This presentation aims to highlight industry shifts in data management, addressing challenges and opportunities for the finance sector.

Target Audience: Everyone, who is interesting about the further development of data architecture for finance sector
Prerequisites: No prerequistes
Level: Basic

Dr. Xuanpu Sun currently serves as the Lead IT Architect for Data & Analytics at Landesbank Baden-Württemberg (LBBW). He possesses extensive research experience in the fields of Business Intelligence, Big Data, and Data Analysis. Throughout his career, he has worked in various industries, including manufacturing, banking, and automotive. His previous positions include the Lead Data Architect role at Mercedes-Benz AMG and the Bausparkasse Schwäbisch Hall.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Xuanpu_Sun

Xuanpu Sun
K4
Xuanpu Sun
K4

Vortrag Teilen

15:20 - 16:20
Mi 3.4
Die Helm AG macht sich fit für die Daten-Zukunft
Die Helm AG macht sich fit für die Daten-Zukunft

Auch für die weltweit tätige Helm AG gewinnt der moderne Umgang mit Daten zunehmend an Bedeutung. Der Vortrag beschreibt, wie das Unternehmen Daten als wesentliche Informationsquelle und als Basis für Entscheidungen etabliert und sichergestellt wird, dass alle Nutzenden die notwendigen Informationen zur richtigen Zeit erhalten. Die Herausforderungen bestehen dabei vielmehr darin, moderne Arbeitsweisen in Bezug auf Daten einzuführen. Technisch wurde bei der Umsetzung auf moderne, automatisierte und skalierende Komponenten gesetzt.

Zielpublikum: ArchitektInnen, Geschäftsführung, C-Level, Abteilungs-/Bereichsleitung, Product Owner, BICC-Leitung
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced

Extended Abstract:
Es begann mit der Vorstellung vier unterschiedlicher BI-Tools. Die HELM AG, ein traditionsreiches Hamburger Familienunternehmen mit über 120-jähriger Geschichte, gehört heute zu den weltweit größten Chemie-Marketingunternehmen und sichert mit mehr als 100 Niederlassungen, Verkaufsbüros und Beteiligungen in über 30 Ländern durch spezifische regionale Kenntnis den Zugang zu den wichtigsten Märkten. Kein Wunder also, dass ein zeitgemäßer Umgang mit den Daten des Unternehmens eine Voraussetzung für den Erfolg der HELM AG darstellt. Dieser war jedoch mit den aktuellen Werkzeugen nur noch schwer in Einklang zu bringen. Zuerst wurde das Problem bei der aktuellen BI-Lösung gesucht., aber während der Vorstellung der möglichen Kandidaten identifizierte die Helm AG zusammen mit dem Data Strategy & Analytics-Experten areto die tatsächlichen Probleme, und es wurde allen Beteiligten schnell klar, dass die Herausforderungen nur zu bewältigen waren, wenn die Helm AG das Thema Analytics ganzheitlich betrachten und umsetzen würde Im Folgenden hielt areto eine maßgeschneiderte Workshopserie mit unterschiedlichen Beteiligungen seitens der Helm AG ab.

Mittels Data Strategy Workshops wurde die Vision und die Erwartungen des Unternehmens an einen modernen, analytischen Umgang mit Daten geklärt und ein grundsätzlicher Fahrplan für die Zukunft festgelegt. Die Umsetzung sollte Use Case-bezogen erfolgen, und so wurde mit dem Bereich “Chemicals” in weiteren Workshops über die relevanten Use Cases gesprochen, die dann als Backlog dokumentiert wurden. Gleichzeitig entwickelte areto auf Basis der identifizierten Anforderungen eine Architekturempfehlung, die dann intensiv diskutiert und letztendlich so umgesetzt wurde. Auf in die Zukunft mit dem Projekt “Flux”! Mit “Flux” schafft die Helm AG die Basis für die zentrale Daten- und Analytics-Plattform, die nun sukzessiv auf alle Bereiche des Unternehmens ausgeweitet wird. Das allseits präsente Thema “Data Mesh” wird in diesem Kontext zwar diskutiert, aber in einer für die Helm AG angepassten Variante eingesetzt. Die Umsetzung des Projektes “Flux” erfolgt in einzelnen Abschnitten (“Waves”), die jeweils separat geschätzt wurden. Die technische Umsetzung erfolgte agil an Scrum angelehnt. SAP und Salesforce sind und waren die wichtigsten Datenquellen. SAP befand sich auf dem kritischen Pfad des Projektes, da wegen des parallelen Rollouts von SAP auf andere Regionen wenig internes Personal unterstützen konnte. Mit Microsoft Azure und Snowflake wurden leistungsfähige und skalierende Komponenten gewählt. Die Automatisierung der Datenbewirtschaftung erfolgt über die Azure Data Factory (inkl. der SAP-Anbindung) und den Datavault Builder. Analysen und Dashboards werden über PowerBI implementiert.

Hallo liebe Community,

Ich denke und handle durch und durch Business Intelligence. Ich brenne für neue BI und Datenlösungen, die es einfach jeder und jedem ermöglicht, ihre und seine Arbeit Tag für Tag besser zu machen. Das lernte ich während meiner Beratungstätigkeit kennen und baute es danach weiter aus, sodass ich federführend an dem Aufbau der Datenplattform und der datengetriebenen Kultur bei hagebau Connect beteiligt war. Beim Global Player HELM AG startete ich mit dem Auftrag eine komplett neue globale Datenlandschaft aufzubauen, die für jedmögliche BI- und AI-Initiative der Zukunft gewappnet sein soll. Als Product Owner vereine ich die Anforderungen vom Business und entwickle zusammen mit dem Corporate BI Team die technische Plattform und vor allem auch die datengetriebene Kultur.

Data-Driven Self-Service sollte die Gegenwart sein und ist unabdingbar in der Zukunft. 
Think BI(g)

Till Sander weist eine über 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/till.sander

Simon Eller, Till Sander
F111
Simon Eller, Till Sander
F111

Vortrag Teilen

16:50 - 17:35
Mi 3.5
Von der Standortbestimmung zur Best-of-Breed-Datenplattform
Von der Standortbestimmung zur Best-of-Breed-Datenplattform

Babymarkt.de wollte sich noch stärker als bisher auf den Kunden fokussieren und brauchte dafür eine entsprechende Datengrundlage. Ein Audit zeigte die Schwächen der historisch gewachsenen existierenden Dateninfrastruktur auf. Ausgehend von den erfolgversprechendsten Use Cases wurde daher eine neue Best-of-Breed-Datenplattform in der Cloud konzipiert und implementiert. In diesem Vortrag stellen wir die gemachten Erfahrungen vor und geben Tipps für Unternehmen, die sich in einer ähnlichen Situation befinden.

Zielpublikum: Manager im Datenbereich, Datenarchitekten, Datenstrategen
Voraussetzungen: Grundkenntnisse in Datenmanagement und -organisation
Schwierigkeitsgrad: Basic

Jan Friedemeyer begleitet babymarkt.de bereits seit vielen Jahren und verantwortet aktuell die Bereiche Projektmanagement, Pricing, ERP und BI. In dieser Funktion deckt er ein breites Spektrum an relevanten Themen ab und treibt unter anderem die Modernisierung der Dateninfrastruktur aktiv voran.

Mike Kamysz wird durch die Kombination aus technischer Expertise und seiner Erfahrung im Management Consulting zum idealen Sparringspartner für den Aufbau einer datengetriebenen Organisation.
Zuletzt leitete er das Analytics Engineering & BI Team bei DEPT, mit welchem er branchenübergreifend die Implementierung moderner Datenplattformen betreute. Diese Arbeit setzt er nun bei The Data Institute fort.

Jan Friedemeyer, Mike Kamysz
F111
Jan Friedemeyer, Mike Kamysz
F111

Vortrag Teilen

17:45 - 18:30
Mi 1.6
Resilienz im Data Warehousing – Lehren aus der Pandemie
Resilienz im Data Warehousing – Lehren aus der Pandemie

Über zwei Jahre hat die Corona-Pandemie die Kassenärztliche Vereinigung Westfalen-Lippe (KVWL) vor gewaltige Herausforderungen gestellt. Quasi über Nacht mussten Impfzentren für Millionen von Impfungen aufgebaut und betrieben werden. Auch das DWH-Team war von Anfang an involviert und musste täglich auf neue Anforderungen reagieren. Über Monate war das Impf-Geschehen im Mittelpunkt der Öffentlichkeit. Dieser Vortrag zeigt, welche Maßnahmen geholfen haben, um dem immensen und sich immer wieder verändernden Bedarf gerecht zu werden.

Zielpublikum: BI-Entwickler:innen, DB-Entwickler:innen, Projektleiter:innen, alle Interessierten
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Im Rahmen der Corona-Krise musste die Kassenärztliche Vereinigung Westfalen-Lippe (KVWL) zahlreiche neue Aufgaben erfüllen. Quasi über Nacht mussten Test- und Impfzentren aufgebaut und betrieben werden. Auch das DWH-Team der KVWL war von Anfang an involviert und musste täglich auf neue Anforderungen zur Verarbeitung und zum Reporting der Impfdaten in der Region Westfalen-Lippe reagieren. 

Die KVWL betreibt seit 2014 ein klassisches Data Warehouse, das von einem cross-funktionalen Team von der Administration über den Betrieb bis zur BI-Entwicklung in enger Abstimmung mit den Fachbereichen betreut wird. Die bestehenden technischen und organisatorischen Strukturen haben während der Pandemie dazu beigetragen, auf die anstehenden neuen Herausforderungen zu reagieren. Durch das hohe Interesse der Öffentlichkeit und der Politik an den Daten war neben der schnellen Umsetzung der Reporting-Anforderungen die Datenqualität ein wichtiger Faktor.

Der Vortrag geht auf die folgenden Fragen ein: Welche Kriterien lassen sich heranziehen, um die Resilienz eines DWH oder eines Teams zu beurteilen? Welche Faktoren tragen dazu bei, auf ständig wechselnde Anforderungen zu reagieren? Welchen Einfluss haben die gewonnenen Erkenntnisse aus dem Projekt zur Bekämpfung der Corona-Pandemie auf zukünftige Projekte?

Alessandro Hüttermann ist studierter Statistiker, der bei der KVWL die Abteilung Strategische Datenanalyse leitet. In seiner zweiten Rolle als fachlicher Leiter des Data Warehouse widmet er sich der Optimierung von Datenprozessen und treibt die datenbasierte Entscheidungsfindung voran. Während der Corona-Pandemie war er fachlich für die Prozesse, die Analyse und das Reporting der von den Impfzentren und mobilen Teams bereitgestellten Daten verantwortlich.

Anne Schlebusch ist seit 30 Jahren als Entwicklerin, Team- und Projektleiterin im Geschäftsbereich 'IT & Digital Health' der KVWL tätig. Seit 2012 ist sie als technische Projektleiterin des Data Warehouse dafür zuständig, die Weiterentwicklung und den Ausbau des DWH voranzutreiben. Während der Corona-Pandemie war sie technisch verantwortlich für die Prozesse, die Auswertung und das Reporting der Daten, die von den Impfzentren und mobilen Teams zur Verfügung gestellt wurden.

Alessandro Hüttermann, Anne Schlebusch
E119
Alessandro Hüttermann, Anne Schlebusch
E119

Vortrag Teilen

17:45 - 18:30
Mi 3.6
Automatisierte Data-Vault-Modellierung macht den Unterschied
Automatisierte Data-Vault-Modellierung macht den Unterschied

In einer Case Study wird gezeigt, wie die Schweizer Biomed AG mit Yotilla, einer Lösung mit einem neuartigen DWH-Automatisierungsansatz, die DWH-Entwicklung trotz eingeschränkt verfügbarer Ressourcen ermöglicht und beschleunigt hat. Der neue Ansatz automatisiert basierend auf einem fachlich orientierten Conceptual Model die logische und physische Data-Vault-Datenmodellierung, sodass das DWH ohne Data-Vault-Know-how erstellt und genutzt werden kann. Im Vortrag werden die Herausforderungen und der Kundennutzen des neuen Ansatzes vorgestellt.

Zielpublikum: Verantwortliche Data & Analytics, BI- und DWH-Manager
Voraussetzungen: Data-Warehouse-Grundwissen
Schwierigkeitsgrad: Basic

Extended Abstract:
Die Entwicklung eines Data Warehouse ist aufwendig und zeitraubend. Der Fachkräftemangel und beschränkte Ressourcen sind eine große Herausforderung, besonders im Mittelstand.

Data-Warehouse-Automatisierungslösungen können die Entwicklung beschleunigen und setzen dabei meist auf Data-Vault-Modellierung. Während das physische Data-Vault-Modell vollständig automatisiert wird, ist das logische Data-Vault-Modell manuell zu erstellen oder auf Basis eines generierten Vorschlags zu überarbeiten. Somit ist weiterhin eine ausgeprägte technische Expertise und Data-Vault-Know-how erforderlich.

Die Schweizer Biomed AG hat mit Yotilla einen neuen Ansatz verfolgt und konnte so ausgehend von einem fachlich orientierten konzeptuellen Modell (Conceptual Model) sowohl die physische als auch die logische Datenmodellierung vollständig automatisieren. In der Folge ist weniger Data-Vault-Know-how erforderlich.

Durch diesen Ansatz entsteht eine Vielzahl weiterer Automatisierungsmöglichkeiten: So kann z. B. die Business-Logik als Teil des Conceptual Model definiert und deren Implementierung ebenfalls vollständig automatisiert werden.

Eine besondere Herausforderung bei der Biomed AG war, dass die Daten der Geschäftsobjekte aus vielen verschiedenen Quellen stammen, mit teilweise sich überschneidenden Daten.

Im Vortrag werden folgende Fragestellungen betrachtet:

  • Welche Vorteile hat der Ansatz?
  • Wie wird ein Source System Data Vault vermieden?
  • Wie kann Business-Logik ohne Kenntnisse des Data-Vault-Modells implementiert werden?
  • Welche Voraussetzungen müssen erfüllt sein?
  • Wie sind die Erfahrungen mit dem Ansatz bei der Biomed AG?
  • Welche Möglichkeiten bringt dieser Ansatz für die Zukunft?

Roland A. Vögeli hat über 26 Jahre Erfahrung in Core Development, Technologie- und Prozessberatung, Application Architecture, Enterprise Architecture und Data Warehousing. Als Experte und als verantwortlicher Manager macht er sich für den Ansatz Data Driven Organisation stark. Er hat über die Zeit auf verschiedenen Plattformen Data Warehouses aufgebaut. Als Enterprise Architect bei Biomed AG zeichnet er auch verantwortlich für das Enterprise Data Warehouse.

Reinhard Mense weist mehr als 20 Jahre Erfahrung im Bereich Business Intelligence und Data Warehousing auf. Als Mitbegründer und CTO baute er über mehr als 10 Jahre ein erfolgreiches BI-Beratungsunternehmen auf. Seine Leidenschaft gilt der DWH-Automatisierung, die in einer Ausgründung der Yotilla GmbH für die Entwicklung einer neuartigen DWH-Automatisierungslösung mündete. Als Product Owner verantwortet er heute die Entwicklung von Yotilla bei der Exasol AG.

Roland A. Vögeli, Reinhard Mense
F111
Roland A. Vögeli, Reinhard Mense
F111

Vortrag Teilen

, (Donnerstag, 13.Juni 2024)
09:00 - 09:45
Do 3.1
Data Audit – Wegbereiter zur modernen Dateninfrastruktur
Data Audit – Wegbereiter zur modernen Dateninfrastruktur

Die HAAS Mediengruppe reagiert mit einer Diversifizierung in digitale Dienstleistungen auf die zunehmende Relevanz des Digitalmarktes. Da der Umgang und die Interpretation von Daten in Zukunft immer bedeutsamer wird, passt sich HAAS den Gegebenheiten an und optimiert ihre Datenlandschaft mit Hilfe von The Data Institute. 
Dieser Vortrag zeigt, wie die Aufnahme des Status quo in Sachen Datenlandschaft hilft, den Weg für die Modernisierung der eigenen Dateninfrastruktur in einer komplexen Stakeholderlandschaft zu ebnen.

Zielpublikum: Manager im Datenbereich, Datenstrategen, Data Architects
Voraussetzungen: Grundkenntnisse in Datenmanagement und -organisation
Schwierigkeitsgrad: Basic

Daniel Noll ist ein ausgewiesener Spezialist für das Thema Daten sowie Vertrieb und Marketing im Verlagsumfeld. Nach Stationen bei der Frankfurter Allgemeinen Zeitung und Republic ist er nun bei der HAAS Mediengruppe für die CRM- und BI-Abteilung verantwortlich, wo er die Modernisierung und Digitalisierung aktiv vorantreibt.

Mike Kamysz wird durch die Kombination aus technischer Expertise und seiner Erfahrung im Management Consulting zum idealen Sparringspartner für den Aufbau einer datengetriebenen Organisation.
Zuletzt leitete er das Analytics Engineering & BI Team bei DEPT, mit welchem er branchenübergreifend die Implementierung moderner Datenplattformen betreute. Diese Arbeit setzt er nun bei The Data Institute fort.

Daniel Noll, Mike Kamysz
E124
Daniel Noll, Mike Kamysz
E124

Vortrag Teilen

09:00 - 09:45
Do 4.1
Mehrwert aus Daten: ein methodischer Architekturansatz
Mehrwert aus Daten: ein methodischer Architekturansatz

SAP hat eine Architekturmethode entwickelt, um effizient Mehrwerte aus Daten zu generieren. Durch ein strukturiertes Vorgehen werden auf Basis datenzentrischer Anwendungsfälle zielgerichtete Lösungsarchitekturen entwickelt. Wir geben einen Überblick über das Vorgehensmodell, wichtige Werkzeuge und Artefakte und zeigen die Anwendung der Methode an einem konkreten Kundenbeispiel.

Zielpublikum: Enterprise/Data Architects, Projektleiter/Berater/Entscheider im Umfeld von Data Management & Analytics
Voraussetzungen: Interesse an Data & Analytics-Themen, Grundverständnis von Architekturmethoden hilfreich, aber nicht zwingend notwendig
Schwierigkeitsgrad: Advanced

Extended Abstract:
Datengetriebene Geschäftsprozesse, Produkte, Dienstleistungen und Geschäftsmodelle werden immer dominanter in allen Branchen. Allerdings sind viele Unternehmen noch nicht richtig aufgestellt, um aus Daten Mehrwert zu generieren. Die Definition einer Datenstrategie ist eine wichtige Grundlage, doch deren konkrete Umsetzung benötigt ein effizientes, nachvollziehbares und standardisiertes Vorgehen, um kontinuierlich Mehrwert aus Daten zu generieren. 

SAP hat eine flexibel einsetzbare Methode entwickelt, um die passende Lösungsarchitektur für konkrete daten-getriebene Unternehmensziele ('Business Outcomes') zu entwickeln. Durch die Analyse von Anpassungsbedarfen in der Organisation wird die Implementierung ganzheitlich über einer Roadmap geplant. 

Wir geben einen Überblick über das Vorgehensmodell, wichtige Werkzeuge und Artefakte und zeigen die Anwendung der Methode an einem konkreten Kundenbeispiel.

Alexander Bange ist ein Prinicipal Enterprise Architect von SAP. Er ist Teil der SAP-Beratungsorganisation Business Transformation Services (SAP BTS), die Kunden gesamtheitlich bei der strategischen Planung und operativen Durchführung von digitalen Geschäftstransformationen unterstützt. 
Alexander arbeitet seit 24 Jahren in unterschiedlichen Rollen (IT-Projektmanager, IT-Manager, SAP Integration Consultant und Enterprise Architect) bei internationalen Konzernen der Branchen High Tech, Pharma, Retail and Consulting. 
In seiner aktuellen Rolle ist er als strategischer Berater für strategische SAP-Schlüsselkunden tätig. Er hilft diesen Unternehmen, die passende IT-Architektur zu definieren und die Umsetzungsplanung im Kontext strategischer Rahmenbedingungen zu entwickeln. 
Alexander tritt als Präsentator auf verschiedenen SAP und DSAG Events auf. 

Alexander Bange
E119
Alexander Bange
E119

Vortrag Teilen

09:00 - 09:45
Do 5.1
Cloud-driven Innovation: in 100 Tagen zur BI-Plattform
Cloud-driven Innovation: in 100 Tagen zur BI-Plattform

VR-NetWorld's 'Business Intelligence Platform'-Projekt setzte auf die Microsoft Azure Cloud, um entscheidende betriebliche Herausforderungen zu meistern. Die Einführung eines fortschrittlichen Data Warehouses und Power-BI-Tools transformierte die Datenanalyse und -verwaltung. Unter 100 Tagen implementiert, führte die Lösung zu erheblichen Effizienzsteigerungen und Kosteneinsparungen, unterstützt durch die Anpassungsfähigkeit von Azure. Dieses Vorhaben unterstreicht den Mehrwert der Cloud-Technologie für die Förderung des Unternehmenserfolges.

Zielpublikum: Daten-Architekten, Datenanalysten und Business-Intelligence-Experten, Projektmanager und Entscheidungsträger im IT-/Daten-Bereich, Unternehmen, die sich für die digitale Transformation interessieren, Cloud-Technologie-Begeisterte
Voraussetzungen: Grundverständnis von Cloud-Computing, Grundkenntnisse in Microsoft Azure, Grundverständnis in Datenverwaltung & -analyse
Schwierigkeitsgrad: Advanced

Extended Abstract:
Das Projekt 'Business Intelligence Platform', initiiert von der VR-NetWorld GmbH und begleitet von der CINTELLIC Consulting GmbH, konzentriert sich auf die Lösung von vier zentralen Herausforderungen: Zuerst die hohe Wartungsintensität des bestehenden Altsystems; zweitens die inhaltlichen Einschränkungen, die sich aus der komplexen Handhabung und den aufwendigen Änderungen ergeben; drittens, die Belastung durch komplexe Datenstrukturen aufgrund der Vielzahl von Cloud- und On-Premises-Systemen; und viertens, die Hemmnisse in der technologischen Entwicklung, die durch veraltete Technologien verursacht werden. Vor diesem Hintergrund plante die VR-NetWorld die Implementierung eines Data-Warehouse-Systems und ein darauf aufbauendes Reporting-Tool, welches die Basis für visualisierte Reports für die Stakeholder schaffen soll. Dieser Schritt wird eine umfassende Datenbasis für eine ganzheitliche Reporting-Landschaft etablieren und Blaupausen für verschiedene Fachbereiche und Anwendungsfälle zur Verfügung stellen. Das Projekt zielt darauf ab, skalierbar und kosteneffizient zu sein und gleichzeitig eine einfache Wartbarkeit zu bieten, um den dynamischen Anforderungen der VR-NetWorld gerecht zu werden. Die Anforderungen waren zum einen die Nutzung von Microsoft Azure Cloud Services, da bereits eine Cloud-Middleware in Azure aufgebaut wurde und eine Modernisierung der Systemlandschaft basierend auf Cloud-Produkten von Microsoft angestoßen wurde, sowie die vollständige Historisierung des Datenbestandes und die Implementierung des Reporting-Tools Power BI.

Das Projekt startete mit der Anforderung, Microsoft Azure Cloud als technologische Basis zu nutzen. Diese Vorgabe bildete das Fundament für alle weiteren Entwicklungen und garantierte eine zuverlässige und flexible Plattform. Im nächsten Schritt des Projekts widmete sich das Team der Integration und Verarbeitung von Daten, wobei ein besonderer Fokus auf der Implementierung eines Data Warehouses in Azure lag. Dieser Schritt war entscheidend, um verschiedene Datenquellen effizient in das System einzubinden und zu verarbeiten. Das Ziel war es, einen nahtlosen Datenfluss und eine optimierte Nutzung der Daten zu gewährleisten. Durch das Data Warehouse in Azure wurde eine zentrale, konsolidierte Datenbasis geschaffen. Ein zentraler Bestandteil des Projekts war die Gewährleistung von Sicherheit und Zuverlässigkeit. Es wurden Maßnahmen implementiert, um sensible Informationen sicher zu speichern und regelmäßige Datenbackups zu gewährleisten. Zudem wurde ein besonderer Fokus auf die transparente und nachvollziehbare Speicherung der Datenhistorie gelegt, um die Integrität der Daten zu sichern.

Die Entscheidung für die Azure Cloud spiegelt das Bestreben wider, eine kosteneffiziente Lösung zu schaffen, die besonders für mittelständische Unternehmen attraktiv ist. Im Vergleich zu anderen vorgefertigten Lösungen bietet diese maßgeschneiderte Plattform eine flexible, skalierbare und kostengünstige Alternative. Durch die Nutzung von Azure-Cloud-Diensten sowie Cloud Middleware und automatisierten Prozessen können Unternehmen signifikante Kosteneinsparungen erzielen. Sie zahlen nur für die Ressourcen, die sie tatsächlich nutzen, und minimieren den administrativen Aufwand. Dies bietet einen erheblichen finanziellen Vorteil im Vergleich zu On-Premises-Lösungen, die oft hohe Vorabinvestitionen und laufende Wartungskosten erfordern. Das Projekt wurde in weniger als 100 Tagen umgesetzt und demonstrierte eindrucksvoll, wie moderne Technologie genutzt werden kann, um betriebliche Effizienz zu steigern und gleichzeitig Kosten zu senken.

Microsoft Azure Cloud wurde aufgrund seiner Skalierbarkeit, Flexibilität und des umfangreichen Funktionsumfangs als Hauptplattform gewählt. Eine spezielle Cloud-Middleware wurde entwickelt, um externe Datenquellen nahtlos zu integrieren. Für On-Premise-Datenquellen wurde eine Self-Hosted Integration Runtime eingerichtet, um eine sichere Datenübertragung in die Cloud zu ermöglichen. Azure Data Factory wurde als primäres Tool für die Datenverarbeitung genutzt, um Datenpipelines zu erstellen, die Daten integrieren, transformieren und für Analysen vorbereiten. Azure Key Vault wurde zur sicheren Speicherung von Schlüsseln und sensiblen Informationen verwendet, während Azure Functions für die Datenintegrität und automatisierte Backups eingesetzt wurden. Microsoft Azure SQL, insbesondere mit System Versioned Tables, wurde für die Speicherung und Historisierung von Daten genutzt, um Änderungen auf Zeilenebene zu verfolgen und eine klare Trennung zwischen aktuellen und historischen Daten zu ermöglichen.

Das Projekt 'Business Intelligence Platform', umgesetzt mit einer Azure-Cloud-basierten Lösung, stellt einen Meilenstein in der Steigerung betrieblicher Effizienz und der Kostensenkung dar. Es demonstriert eindrucksvoll, wie durch die erfolgreiche Integration, Sicherung und Optimierung von Daten signifikante Verbesserungen in kürzester Zeit erreicht werden können.

Alexander Faber ist Bereichsleiter Portfolio und Portfolio Manager Cloud, Data & Reporting bei CINTELLIC. Mit langjähriger Erfahrung als Berater in den Branchen Banken & Versicherungen, Handel & Industrie, v.a. im Bereich Kundendatenmanagement, Data Governance & Reporting.

Niklas Scheiwe ist als Senior Consultant mit Fokus auf Data- und Cloud-Engineering für die CINTELLIC tätig. Während seiner jahrelangen Laufbahn hat er diverse Implementierungsprojekte von cloudbasierten Systemen verantwortet. Darüber hinaus ist er nebenberuflich als Hochschuldozent tätig.

Alexander Faber, Niklas Scheiwe
K4
Alexander Faber, Niklas Scheiwe
K4
Vortrag: Do 5.1

Vortrag Teilen

09:55 - 10:40
Do 3.2
Frisch aus der Fabric – Analytics bei Scherdel
Frisch aus der Fabric – Analytics bei Scherdel

Die Scherdel GmbH setzt international Maßstäbe bei der Verarbeitung von metallischem Draht und Band. Das bestehende DWH auf Basis MSSQL, welches über 15 Jahre von verschiedenen Entwicklern aufgebaut wurde, wird Schritt für Schritt modernisiert und in der Azure Cloud aufgesetzt. Im ersten Schritt wurden die Grundlagen geschaffen und ein erster Cube umgesetzt. Als Lösung setzen wir auf MS Fabric, obwohl es erst mit Projektbeginn allgemein verfügbar war. Wir stellen das Projekt vor und berichten über unsere Erfahrungen mit Microsoft Fabric.

Zielpublikum: Data Engineers, Architekten, Projektverantwortliche
Voraussetzungen: Basiswissen Analytics
Schwierigkeitsgrad: Basic

Extended Abstract:
Die Scherdel GmbH setzt seit über 130 Jahren als mittelständisch geprägtes, inhabergeführtes Familienunternehmen international Maßstäbe bei der Verarbeitung von metallischem Draht und Band. Das bestehende DWH auf Basis MSSQL, welches über 15 Jahre hinweg von verschiedenen Entwicklern aufgebaut wurde, soll Schritt für Schritt modernisiert und in der Azure Cloud aufgesetzt werden. In einem ersten Schritt wurden die Grundlagen der neuen DIP (Dateninformationsplattform) geschaffen und ein erster Cube umgesetzt. Bei der Lösung setzen wir auf Microsoft Fabric, obwohl es erst nach Projektbeginn allgemein verfügbar war. Im Vortrag berichten wir über unsere ersten Erfahrungen und Herausforderungen in der Verwendung von Microsoft Fabric.

Benjamin Schenk ist seit nun 2 Jahren Teamlead Operating Enterprise Applications bei der SCHERDEL GmbH. Neben seinen Spezialkenntnissen für Datenbanken (MSSQL & Oracle) kümmert er sich um den Betrieb von Enterprise-IT-Services, egal ob OnPrem oder in der Cloud. Die Umsetzung eines Standards für den Betrieb von IT-Services und Automatisierung sind nur einige Teilgebiete seines Teams.

Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet im Bereich Corporate Development der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.

Benjamin Schenk, Jens Bleiholder
E124
Benjamin Schenk, Jens Bleiholder
E124

Vortrag Teilen

09:55 - 10:40
Do 4.2
Data Management & BI Architekturen für ESG & CSRD Reporting
Data Management & BI Architekturen für ESG & CSRD Reporting

Um Nachhaltigkeit in Unternehmensentscheidungen zu berücksichtigen und gesetzlichen Verpflichtungen der Nachhaltigkeitsberichterstattung (CSRD) nachzukommen, müssen BI- und Data-Management neue Informationsbedarfe und funktionale Anforderungen bedienen. In dieser Session diskutieren wir ESG Reporting & Performance Management aus IT- und Data-Management-Sicht:

  1. ESG Funktionale Anforderungen und Datenmodelle
  2. ESG Lösungsarchitekturen: Datengenerierung, Datenplattform, Frontend
  3. ESG Softwareauswahl
  4. Einsatzmöglichkeiten von AI

Zielpublikum: CIO, Head of BI & Analytics, BI Engineers, Data Engineers, ESG Reporting Specialists, Controller, Accountants
Voraussetzungen: Grundkenntnisse  über ESG-Daten (Environmental, Social, Governance)
Schwierigkeitsgrad: Basic

Thomas Johanndeiter arbeitet als Principal bei Horváth und hat über 11 Jahre Consulting-Erfahrung im Bereich Contolling & Finance, BI & Data-Management. Er berät Unternehmen zu BI & Data Strategy und leitet Projekte für die Einführung von BI-, Planungs- und Data-Warehousing-Lösungen. Thomas unterstützt zudem Unternehmen beim Aufbau von Datenplattformen für ESG-Reporting und Performance-Management. 
Thomas ist Wirtschaftsinformatiker (M. Sc.) der Universität Duisburg-Essen.

Carsten Breithaupt is leading a team of excellent Enterprise Architects within the Lufthansa Group. They are shaping the IT Landscape based on the Business Capabilities. The best and stable IT at the lowest budget is targeted by continuous harmonizing and optimizing on all architecture layers.

Enrique Snachez ist SAP Enterprise Architect mit Erfahrung auf beiden Seiten des Zauns, von einem Logistik-Systemplaner bei Audi und der Entwicklung und Implementierung von globalen SCM-Lösungen in der DLH-Gruppe. Jetzt ist er in einer Rolle als Enterprise Architect im Enterprise Architecture Team der Gruppe, in Zusammenarbeit mit einem großartigen Team von Experten aus allen Positionen, die die Transformation der SAP-Landschaft der DLH-Gruppe gestalten.

Thomas Johanndeiter, Carsten Breithaupt, Enrique Sanchez
E119
Thomas Johanndeiter, Carsten Breithaupt, Enrique Sanchez
E119

Vortrag Teilen

09:55 - 10:40
Do 5.2
Open Source im Gesundheitsbereich? Ja, Open Source!
Open Source im Gesundheitsbereich? Ja, Open Source!

Zusammen mit der GWQ ServicePlus AG zeigen wir, wie durch eine All-In-One-Open-Source-Lösung auf Basis von Kubernetes datenschutzkonforme und sichere Anwendungen nach neusten Standards entwickelt werden können.

Zielpublikum: Data Engineers, Architects, Decision Makers
Voraussetzungen: Erfahrung in Data Engineering, Cloud Native
Schwierigkeitsgrad: Advanced

Extended Abstract:
Viele Unternehmen stehen vor der Frage: Make (offene Lösung auf Open-Source-Basis) or Buy (anpassbare Insellösung)? Gerade im Gesundheitsbereich spielen Daten-Sicherheitsaspekte eine große Rolle, daher wird in diesem Vortrag aufgezeigt, wie diese Sicherheit mit Open Source gewährleistet werden kann. Die GWQ ServicePlus AG als Tochter gesetzlicher Krankenkassen hat dazu eine hochsichere Open-Source-Kubernetes-Plattform eingerichtet - mit dem Ziel: Public Cloud.

Zusammen mit der GWQ ServicePlus AG zeigen wir, wie durch eine All-In-One-Open-Source-Lösung auf Basis von Kubernetes datenschutzkonforme und sichere Anwendungen nach neusten Standards entwickelt werden können.

Das Ziel ist die Bereitstellung einer hochsicheren Produktiv-Umgebung, damit Anwendungen und Apps für die über 20 Mio. Versicherten der mittelständischen Kranken- und Innungskassen in der Public Cloud zur Verfügung gestellt werden können.

Kernelemente sind SUSE Rancher, mit dem Cluster übersichtlich gemanagt werden können, sowie SUSE NeuVector, mit dem die Umsetzung eines Sicherheitskonzeptes nach DSGVO möglich ist.

Der wesentliche Baustein ist jedoch das neu eingeführte DevSecOps (Development, Security & Operations)-Konzept, mit dem klar definiert wird, wo welche Verantwortlichkeiten und Aufgaben liegen. Auf diese Weise wurde ein Strukturwandel angestoßen, der unter anderem kleinere Inkremente für Anwendungen ermöglicht, das heißt, ein Update einer Anwendung ist in kürzester Zeit umsetzbar - mögliche Sicherheitslücken können sofort geschlossen werden.

Die Bereitstellung dieser komplett neuen hochsicheren Entwicklungsumgebung mit entsprechenden Entwicklungssystemen und Security- und Observability-Tools On-Premise erfolgte innerhalb von drei Monaten. Dabei wurde die komplette Installation portabel gestaltet, sodass sich mit dieser Installation eine Portierung in die Public Cloud ermöglichen lässt.

Marie Padberg hat an der Universität Duisburg-Essen Angewandte Informatik (B. Sc.) und die Fächer Physik und Musik (in Kooperation mit der Folkwang Universität der Künste) mit Lehramtsoption (M. Ed.) studiert.
Während des Studiums hat sie sich auf den Bereich der Künstlichen Intelligenz, vor allem Natural Language Processing und Bildverarbeitung, fokussiert.
Bei der infologistix konzentriert sie sich seit 2022 auf die Realisierung von cloud-nativen Plattformen auf Basis von Kubernetes.

Wolfgang Perzl hat Informatik mit Nebenfach Wirtschaftswissenschaften an der Technischen Universität München studiert. Der Dipl.-Informatiker startete seine berufliche Laufbahn beim Datenbankhersteller Informix Software und kam über mehrere technische und internationale Managementpositionen unter anderem bei der späteren Ascential Software zur IBM Deutschland. 
Nach weiteren Stationen gründete Wolfgang Perzl 2013 schließlich die infologistix GmbH als unabhängige IT-Consulting-Firma mit den Schwerpunkten Data Warehousing und BI. Als Geschäftsführer führt er gemeinsam mit René Schiebeck das operative Geschäft der infologistix und verantwortet die Bereiche Personal, Marketing und Business Development/Big Data.

Sascha Wiskandt, Marie Padberg, Wolfgang Perzl
K4
Sascha Wiskandt, Marie Padberg, Wolfgang Perzl
K4
Vortrag: Do 5.2

Vortrag Teilen

11:10 - 12:10
Do 2.3
Agile AI Architectures: Azure MLOps for Dynamic Usecases
Agile AI Architectures: Azure MLOps for Dynamic Usecases

Explore the future of MLOps as we delve into building Azure ML pipelines using OOP. Discover how a generic and reusable MLOps pipeline streamlines new use case initiation. We utilize MLflow for managing the ML lifecycle and model deployments. We leverage OOP and dependency injection to build an MLOps framework, eliminating all the boilerplate and making it easy for our customers to start new use cases. Developers can reuse, inject, or utilize AutoML for training modules. This solution is an accelerator and saves significant development time.

Target Audience: Data Scientists, Engineers, DevOps and all Data Enthusiasts
Prerequisites: Basic knowledge of Data Science, Data Engineering and DevOps
Level: Advanced

Extended Abstract:
In our solution, we integrate Azure AutoML, enabling individuals without expertise in data science to effortlessly deploy state-of-the-art machine learning models onto their datasets. This facilitates the extraction of optimal models, which can subsequently be refined and customized to align with their specific requirements.

Saurabh Nawalgaria is an Experienced Cloud and Data Engineer at Synvert Data Insights specializing in Azure, Kubernetes, Spark, and SQL. Proficient in designing and implementing ETL pipelines. Expert in leading and delivering pivotal Cloud Data Platform Projects. Versatile skills extend to MLOps, AzureML, and MLFlow. Proven ability to contribute significantly to diverse cloud and data engineering initiatives, demonstrating a robust technical acumen.

Mustafa is a seasoned Data Engineer and Architect Consultant at synvert Data Insights. Specializing in Spark, Azure, Databricks, He brings extensive experience in Data and Cloud technologies to his role. With a focus on data engineering and platform projects, he leads the Azure competence cluster. His expertise extends to designing and implementing robust data pipelines, optimizing data workflows, and architecting scalable solutions in Azure environments.

Saurabh Nawalgaria, Mustafa Tok
E101/102
Saurabh Nawalgaria, Mustafa Tok
E101/102
Vortrag: Do 2.3

Vortrag Teilen

11:10 - 12:10
Do 3.3
SAP als First-Class-Citizen einer Cloud-Datenplattform
SAP als First-Class-Citizen einer Cloud-Datenplattform

Viele Organisationen kennen das Problem: SAP-Daten sind für viele Use-Cases interessant, aber der Zugriff ist kompliziert oder sehr teuer. Unsere Lösung: Eine Spark Data Source für SAP, die ohne zusätzliche Software oder Module direkt von Databricks auf SAP-Systeme zugreift und damit native Weiterverarbeitung in der Spark-Welt erlaubt. Am Beispiel des Data-Stacks der GEMA zeigen wir, wie die SAP-Integration unsere Data-Mesh-Plattform im Self-Service beflügelt und welche Use-Cases wir damit umsetzen konnten.

Zielpublikum: Data Engineers und alle Daten-Rollen in Organisationen mit SAP-Quellsystemen
Voraussetzungen: Grundkenntnisse in PySpark
Schwierigkeitsgrad: Basic

Martin Zürn treibt als Head of Data Engineering die Weiterentwicklung des Data-Stacks der GEMA voran. Seit 2 Jahren arbeitet die Verwertungsgesellschaft mit einer Self-Service-Datenplattform mit dezentraler Verantwortlichkeit. Aus vielfältigen Datenquellen entsteht so ein Lakehouse, das uns in eine digitale, datengetriebene Organisation transformiert.

Dr. Julius von Ketelhodt gestaltet und entwickelt seit vielen Jahren Data & Analytics-Projekte für namhafte Kunden aus verschiedenen Branchen. Sein Fokus liegt auf der Integration relevanter Daten aus verschiedenen SAP-Quellsystemen in führende Cloud-Datenplattformen. Als Product Lead leitet er ein Team, um die SAP-Integration weiterzuentwickeln und stetig zu vereinfachen. Sein Hintergrund liegt in der Physik mit Promotion im Bereich Seismologie.

Martin Zürn, Julius von Ketelhodt
E124
Martin Zürn, Julius von Ketelhodt
E124

Vortrag Teilen

11:10 - 12:10
Do 5.3
Technical Debts – der langsame Tod für jedes Data Warehouse
Technical Debts – der langsame Tod für jedes Data Warehouse

Bei der Entwicklung von IT-Systemen, so auch Data Warehouses und analytische Applikationen, kommt es zu unerwünschten Nebeneffekten. Neben Fehlernwerden Abweichungen von Architektur-Vorgaben oder Design Patterns als technische Schuld (Technical debt) bezeichnet. Im Gegensatz zu Fehlern läuft das System zwar korrekt, jedoch hat es Auswirkungen auf die Weiterentwicklung und den Betrieb (Kosten, Zeit, Incidents etc.).

Typische Gruppen von technical Debts werden kurz erklärt, was deren Auswirkungen sind und wie Sie diese vermeiden.

Zielpublikum: Architects, Project Leader, Decision Makers, Developers
Voraussetzungen: Grundlagen in Data Warehousing oder analytischen Infrastrukturen
Schwierigkeitsgrad: Basic

Herbert Stauffer, TDWI Fellow, hat über 30 Jahre Erfahrung in Business Intelligence und Analytics, als Projektleiter, Hochschuldozent und Berater. Seine Schwerpunkte sind Strategie und Architektur sowie Governance und Methodik. Er ist Hauptautor des Buches 'Testen von Data-Warehouse- und Business-Intelligence-Systemen' und Autor des Buches 'Security für DWH- und BI-Systeme'. Er ist Leiter des TDWI-Roundtables in Zürich seit 2009.

Herbert Stauffer
K4
Herbert Stauffer
K4
Vortrag: Do 5.3

Vortrag Teilen

15:10 - 15:55
Do 5.4
Das bisschen Data macht sich von allein – sagt mein Analyst
Das bisschen Data macht sich von allein – sagt mein Analyst

Im Zeitalter von Big Data hat sich Data-Engineering zu einem Schlüsselbereich entwickelt, um das Potenzial umfangreicher Datenschätze zu nutzen. Doch was braucht es, um Datenverarbeitung, -transformation und -bereitstellung zu optimieren? Dieser Vortrag beleuchtet anhand einer beispielhaften Architektur die Bedeutung von Software-Engineering-Kenntnissen für Data-Engineers, und diskutiert spezifische Herausforderungen wie Datenintegrität, Prüfung von Data-Pipelines und die Balance zwischen Stabilität und Flexibilität der Datenplattform.

Zielpublikum: Data-Engineers, IT-Entwickler und IT-Manager
Voraussetzungen: Grundlagenwissen Softwareentwicklung
Schwierigkeitsgrad: Advanced

Extended Abstract:
Data-Engineering hat sich im Zeitalter von Big Data und Analytics zu einem entscheidenden Bereich entwickelt, der es Unternehmen überhaupt erst ermöglicht, das Potenzial riesiger Informationsmengen zu nutzen. Während der Schwerpunkt des Data-Engineerings auf der Verarbeitung, Transformation und Bereitstellung von Daten liegt, hängt sein Erfolg stark von den Prinzipien und Praktiken ab, die dem traditionellen Software-Engineering entlehnt sind.

In unserem Vortrag berichten wir aus dem Data Lake für eines der größten Inhouse-Projekte Europas, welcher die Daten einer großen Online-Vertriebsplattform verarbeitet. Millionen von Events und Hunderte Gigabytes am Tag müssen irgendwie gezähmt und verwertbar gemacht werden. Wir skizzieren die Architektur und sprechen über Herausforderungen und maßgeschneiderte Lösungen. Dabei möchten wir auch darauf eingehen, warum Data-Engineers allem voran ein fundiertes Verständnis und Fachwissen von Software-Engineering brauchen.

Im Fokus stehen dabei insbesondere drei Herausforderungen:

  • Wie gewährleistet man in Big-Data-Architekturen Datenintegrität und Datenschutz?
  • Wie lassen sich Data-Pipelines ganzheitlich prüfen?
  • Wie gewährleistet man einerseits Stabilität einer Daten-Plattform, die andererseits modular austauschbar und erweiterbar bleibt?

Dabei diskutieren wir auch, wann Standardlösungen nicht mehr ausreichen und was gutes Software-Engineering in diesem Kontext für uns bedeutet.

Dr. Masud Afschar ist Senior AI & Data Engineer bei iteratec. Als erfahrener Experte für Big-Data-Architekturen hilft er Unternehmen bei Design und Implementierung von datenintensiven Systemen, dem Aufbau von KI- und ML-Systemen sowie auch individuellen Software-Lösungen.

Masud Afschar
K4
Masud Afschar
K4
Vortrag: Do 5.4

Vortrag Teilen

Zurück