Konferenzprogramm

Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

 

Track: Data Management

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    11.06.
  • Mittwoch
    12.06.
  • Donnerstag
    13.06.
, (Dienstag, 11.Juni 2024)
10:40 - 11:25
Di 4.1
Regulierung von KI durch den Gesetzgeber
Regulierung von KI durch den Gesetzgeber

Es muss gewährleistet sein, dass die auf dem Unionsmarkt in Verkehr gebrachten und verwendeten KI-Systeme sicher sind und die bestehenden Grundrechte und die Werte der Union wahren. Zur Förderung von Investitionen in KI und innovativen KI muss Rechtssicherheit gewährleistet sein. Governance und die wirksame Durchsetzung des geltenden Rechts sowie die Sicherheitsanforderungen an KI müssen gestärkt werden. Die Entwicklung eines Binnenmarkts für rechtskonforme, sichere und vertrauenswürdige KI-Anwendungen wird gesetzgeberisch reguliert.

Zielpublikum: Anwender von KI bzw. daran Interessierte
Voraussetzungen: Grundsätzliche Sensibilisierung für Compliance
Schwierigkeitsgrad: Basic

Seit 2015 ist Nils Bruckhuisen Rechtsanwalt in Köln. Zuvor arbeitete er freiberuflich in der Wirtschaftsprüfung. Nach Studium der Rechtswissenschaften an der Humboldt-Universität zu Berlin leistete er den juristischen Vorbereitungsdienst am Landgericht Koblenz ab. Von dort brach er zu einem (zu) kurzen Gastspiel in der deutschen Auslandshandelskammer in Nairobi/Kenia auf. Gemeinsam mit Lars von Lipinski von der FINCON verfasste er das TDWI E-Book 'Die neue EU-Datenschutzgrundverordnung - Auswirkungen auf Geschäftsprozesse und Analytische Informationssysteme'. Des Weiteren zeichnet er für das Kapitel zu Recht und Datenschutz in dem Buch 'Business Intelligence und Analytics in der Cloud', herausgegeben von Dr. Ralf Finger, verantwortlich. Seine Praxis ist wirtschaftsrechtlich ausgelegt, wobei das Datenschutzrecht insbesondere mit der im Mai 2018 in Kraft getretenen Datenschutzgrundverordnung (DSGVO) zunehmend an Bedeutung gewonnen hat.

Zur DSGVO beriet und berät er Unternehmen und Agenturen verschiedener Branchen (Bau, Handel, Werbung, IT-Security, Tourismus) sowie Vereine/gemeinnützige Organisationen. Für diese erstellte und kontrollierte er u.a. Verfahrensverzeichnisse und Verträge über Auftragsdatenverarbeitungen (AVV). Über das Tagesgeschäft hinaus widmet er sich dem Rechtsstaatsdialog, insbesondere mit Juristen in Kenia und auf dem Balkan.

Nils Bruckhuisen
E124
Nils Bruckhuisen
E124
Vortrag: Di 4.1
Themen: AI

Vortrag Teilen

11:35 - 12:20
Di 4.2
End-to-End Use-Case | auf Basis eines Modern Data Stacks
End-to-End Use-Case | auf Basis eines Modern Data Stacks

Dies ist die Fortsetzung zu unserer Reise im Bereich Daten mit Fokus auf einen End-to-End Use-Case. SENEC ist ein Anbieter intelligenter Lösungen für Energiespeicherung und Photovoltaik mit Fokus auf erneuerbaren Energien. Im letzten Jahr haben wir im Vortrag zum Modern Data Stack unsere neu eingeführte Datenplattform vorgestellt. Dieses Mal zeigen wir euch einen Business-Use-Case und ihr begleitet uns virtuell durch 2 Sprints, wie dieser von der Anforderung, über Datenintegration und Data Governance bis hin zum Dashboard zügig Mehrwert bringt.

Zielpublikum: Data Engineers, Analyst:innen, Entscheider:innen, Projektmanager:innen, Architekt:innen
Voraussetzungen: Erfahrung in der Arbeit mit DWHs, Erfahrung in der Datenanalyse sowie Power BI oder einem anderen BI-Tool
Schwierigkeitsgrad: Advanced

Lisa-Marie Krause ist studierte Mathematikerin und hat in der Vergangenheit im Bankensektor wertvolle Beratungserfahrung gesammelt. Im Herbst 2021 wechselte sie zur SENEC, wo sie als Data Engineer ihre Karriere fortsetzt. Seit ihrem Eintritt spielt sie eine zentrale Rolle in der Entwicklung und kontinuierlichen Verbesserung der Data and Analytics-Plattform (DAP). Seit dem 1. Januar 2024 übernimmt sie die Rolle des Data Architect, mit dem Fokus auf fortlaufende architektonische Entwicklung der Datenplattform.

Lisa-Marie Krause
E124
Lisa-Marie Krause
E124
Vortrag: Di 4.2

Vortrag Teilen

14:30 - 15:30
Di 4.3
Einsatz von Machine Learning zur Effizienzsteigerung und Validierung in der Pharmaindustrie
Einsatz von Machine Learning zur Effizienzsteigerung und Validierung in der Pharmaindustrie

In diesem gemeinsamen Präsentationsblock stehen zwei komplementäre Ansätze im Mittelpunkt, die den Einsatz von Machine Learning (ML) in der Pharmaindustrie zur Optimierung von Prozessen und Einhaltung regulatorischer Anforderungen thematisieren.

Alisa Walda und Dr. Julian Mußhoff eröffnen die Präsentation mit einem Einblick in die innovativen digitalen Strategien der Bayer AG. Sie zeigen auf, wie durch die Integration und Analyse von hochqualitativen Daten aus verschiedenen Produktionssystemen in der Cloud, mithilfe von ML-Methoden, die Produktionsausbeuten gesteigert werden können, ohne dabei die Qualität zu kompromittieren. Die Präsentation beleuchtet die Herausforderungen bei der GxP-konformen Validierung von ML-Modellen und die Implementierung von robusten Datenpipelines und Teststrategien.

Im Anschluss daran baut Dr. Philipp Kazzer von Syncwork AG auf den zuvor präsentierten Konzepten auf und geht spezifisch auf die Bedeutung der Trainingsdaten ein. Seine Studie zur Entitätenerkennung in der Pharmakovigilanz nutzt ML und NLP, um die Korrelation zwischen der Anzahl und Qualität der Trainingsdaten und der Modellgenauigkeit zu untersuchen. Durch die detaillierte Charakterisierung des verwendeten Datensatzes und den Einsatz fraktioneller k-fold Kreuzvalidierung am Beispiel eines T5-Sprachmodells werden wertvolle Erkenntnisse für die Optimierung von ML-Modellen in der Pharmakovigilanz gewonnen.

Diese Präsentationen betonen die Bedeutung einer soliden Datenbasis und die Notwendigkeit einer engen Zusammenarbeit zwischen IT-, Produktions- und medizinischen Experten, um die Potenziale von ML voll auszuschöpfen und nachhaltige Verbesserungen in der pharmazeutischen Industrie zu erzielen.

Zielpublikum: Pharma decision makers, Data Engineer, Data Scientist
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
In der Pharmaindustrie werden alle Schritte der Produktion im Detail dokumentiert. Dies führt zu einer großen Menge an hochqualitativen Daten in Systemen wie einem Manufacturing Execution System, Enterprise Resource Planning und Prozessleitsystem.

Hieraus ergibt sich allerdings auch die Herausforderung, diese verschiedenen Daten in der Cloud zusammenzubringen und auszuwerten. Insbesondere geht es darum, moderne Datenpipelines und Machine-Learning-Methoden robust abzusichern und in bestehende regulierte Prozesse zu integrieren. Der Vortrag wird auf Teststrategien, Versionskontrolle und Änderungsmanagement von Datenpipelines und Machine Learning eingehen.

Dafür kombinieren wir proprietäre Systeme und Open-Source-Software. Trotz der Ansprüche an die Qualität müssen Nutzer in die Lage versetzt werden, die Produktion signifikant zu verbessern. Es gilt daher, sich von Anfang an mit den Produktionskollegen auf das Ziel zu fokussieren und entsprechende wertsteigernde (Machine Learning) Use-Cases zu identifizieren.

Dr. Julian Mußhoff ist ein Data Scientist in der pharmazeutischen Produktion am Standort Elberfeld. Als studierter Physiker stellt er sich täglich den Herausforderungen eines Produktionsstandorts wie Prozessoptimierung, Root-cause Analysen und der Entwicklung digitaler Tools.

Alisa Walda ist IT-Beraterin bei der Syncwork AG mit Schwerpunkt Data Engineering und Reporting.

  • 01/24 - heute: Consultant bei der Syncwork AG im Bereich System Development
  • 07/22 - 01/24: Junior Consultant bei der Syncwork AG im Bereich Business Intelligence
  • 07/18 - 07/22: Werkstudentin bei der Syncwork AG im Bereich System Development
  • 10/17 - 03/22: Bachelorstudium Informatik an der TU Berlin
  • 12/22 - heute: Management Consultant bei der Syncwork AG im Bereich Business Intelligence
  • 12/18 - 11/22: Senior Consultant bei der Syncwork AG im Bereich System Development
  • 10/15 - 11/18: Consultant bei der Syncwork AG im Bereich System Development
  • 10/10 - 12/14: Wissenschaftlicher Mitarbeiter im Excellenz Cluster Languages of Emotion der Freien Universität Berlin/Charité Tätigkeitsschwerpunkt: Experimentelles-Design, Datenanalyse, Publikation
  • 10/05 - 10/14: Studium der Bioinformatik/Abschluss: Promotion
Julian Musshoff, Alisa Walda, Philipp Kazzer
E124
Julian Musshoff, Alisa Walda, Philipp Kazzer
E124
Vortrag: Di 4.3
Themen: AI

Vortrag Teilen

, (Mittwoch, 12.Juni 2024)
09:00 - 10:00
Mi 4.1
Rocking the World of Airline Operations using Data, AI & OR
Rocking the World of Airline Operations using Data, AI & OR

Learn how Lufthansa Group is leveraging AI in the sky - and how you could apply the same concepts to your business. Lufthansa Group and Google Cloud developed a cloud native application that pulls data from operational systems to the cloud for analysis by artificial intelligence and operations research for optimizing flight operations. It balances crew availability, passenger demand, aircraft maintenance status etc. Recommendations are given to Operations Control for final checks and implementation.

Target Audience: People with interest in how to apply data driven optimization of their businesses. Data Engineers, Project Leads, and Decision Makers
Prerequisites: Interest in optimizing operational processes using data. A basic understanding of managing data coming from a diverse set of operational applications
Level: Advanced

Extended Abstract:
Imagine you are an airline OpsController responsible for running the operations of an airline and you just learned that an aircraft that was supposed to leave for Frankfurt in 30 minutes has to stay on the ground longer due to a minor repair. What do you do now? Passengers have booked connecting flights from Frankfurt, otherwise hotel accommodations might become necessary. Wait for the repair and possibly delay connecting flights as well? Is such a delay okay for the crews or will some exceed their permitted working hours? Is a replacement aircraft available? If so, is there a crew for it? And what about...  

Such a small issue can trigger a cascade of thighs to consider and this can quickly exceed human capabilities in their complexity. There are more potential matches of chess possible than protons in the universe. And airline operations is an even harder problem. Highly experienced people can solve situations to a certain extent based on their wealth of experience. But wouldn't it be better if optimal decisions across multiple business processes (which still can affect punctuality and passengers) were proposed to the person in the OpsControl Center with the support of an AI?

Lufthansa Group has addressed this problem and, together with Google Cloud, created a data platform for its operational data from core business processes. This data foundation is used as input for AI models to calculate future alternative scenarios from the airline's perspective. These are calculated using optimizers that Google contributes to the project. At runtime, in addition to the operational data, a set of airline-specific business rules together with a cost function, which is also the responsibility of the airline, are given to the so-called 'Solver'.

When a request is made, several scenarios are calculated in parallel. These differ in their respective configurations and their results are summarized and the best scenarios are displayed to the person in OpsControl as a proposal for evaluation via a specially created user interface. The person in OpsControl can then transfer the necessary changes back to the operational systems for implementation in the physical world. It is very important to note that today and for the foreseeable future a human being has the final say regarding the use of AI-generated proposals.

The application presented here optimizes across different business units simultaneously and avoids the common occurrence of local optimizations that contradict each other and may have to be resolved manually. The solution is in use at Swiss Intl. Airlines, a Lufthansa Group airline. After 18 months, the use of this technology resulted in CO2 emission savings of 7,400 tons per year through reduced fuel consumption, which is equivalent to approximately 18 Boeing 777 flights between Zurich and New York City. These savings will increase significantly when the application is rolled out to the other airlines in the Lufthansa Group.

In this presentation, Christian Most and Andreas Ribbrock will explain the use case. They will also show how the Lufthansa Group uses the cloud as a real-time data integration platform to prepare data from operational systems, each of which does exactly what it is supposed to do but is not designed to process data from other systems. The challenges posed by this approach will also be described. As well as the opportunities offered by 'serverless' technologies, since the project team does not have to worry about infrastructure.

Christian Most is a technology leader at Deutsche Lufthansa, focusing on innovation and the application of cutting-edge technologies in the airline industry. With a deep understanding of cloud computing, artificial intelligence, and data analytics, he drives Lufthansa's digital transformation initiatives.

Christian Most, Andreas Ribbrock
E101/102
Christian Most, Andreas Ribbrock
E101/102
Vortrag: Mi 4.1

Vortrag Teilen

10:30 - 11:15
Mi 4.2
Mesh Dich nicht ein! Vom klassischen DWH zum agilen Data Mesh
Mesh Dich nicht ein! Vom klassischen DWH zum agilen Data Mesh

Nicht noch ein Vortrag über die organisatorischen Herausforderungen von Data Mesh als dezentrale Daten-Architektur. In diesem Vortrag wird es konkret. Wir sprechen über einen möglichen Migrationspfad aus der klassischen DWH-Welt hin zu einer domänengetriebenen, dezentralen Data-Mesh-Architektur. Dabei wird es etwas technisch, aber insbesondere lösungsorientiert. Wir zeigen eine Best-Practice-Architektur mit Microsoft Fabric, mit der den o.g. Herausforderungen begegnet werden kann. Spoiler Alert: Komplett ohne zentrale Strukturen geht es nicht!

Zielpublikum: Geschäftsführer, BI-Analysten, IT-Verantwortliche
Voraussetzungen: Grundlegendes Know-how über Data Mesh und DWH-Architekturen
Schwierigkeitsgrad: Basic

Extended Abstract:
Wenn es um Architekturen zur analytischen Nutzung von Daten geht, ist Data Mesh in aller Munde. Data Mesh basiert dabei im Wesentlichen auf vier Grundprinzipien:

  1. Domain Ownership
    Mehr Verantwortung in die Fachbereiche! Daten sollen dezentralisiert da verwaltet werden, wo mit ihnen gearbeitet wird. 
  2. Data as a Product
    Daten müssen als Produkte verstanden und in den Fachabteilungen als solche angeboten werden. Die Nutzer der Daten werden als Kunden betrachtet.
  3. Self Service Data Platform
    Teams sollen möglichst einfach Daten teilen und nutzen zu können.
  4. Federated Computational Governance
    Datenprodukte sollen miteinander interagieren und sich ergänzen können, um eine ganzheitlichere Sicht zu ermöglichen.

Diese vier Grundprinzipien spielen bei der Transformation zu einer Data-Mesh-Architektur eine wichtige Rolle. Die Architektur muss am Ende den o.g. vier Grundprinzipien entsprechen, die technische Umsetzung wird sich daran messen lassen müssen. Die grundsätzlichen Vorteile von Data Mesh als dezentrale Lösung wurden bereits ausgiebig diskutiert, wie sieht es aber mit der konkreten technischen Umsetzung aus?

Nicht nur organisatorisch, sondern auch technisch muss ein Umdenken im Unternehmen im Umgang mit Daten stattfinden. Dies erfordert neben Zeit und Ausdauer eine ebenso sorgfältige Vorbereitung und Planung. Organisatorische Änderungen müssen mit technischen Änderungen oftmals einhergehen und vorangetrieben werden. 

In diesem Vortrag zeigen wir eine mögliche technische Lösungsarchitektur sowie einen dazugehörigen Migrationspfad von einem klassischen DWH hin zu einer agilen Data-Mesh-Architektur. Wir zeigen am Beispiel von Microsoft Fabric, wie sich zentrale Verantwortlichkeiten für Software durch den Einsatz moderner Cloudservices reduzieren lassen und wie gleichermaßen eine einheitliche Plattform zum Austausch der Datenprodukte aufgebaut werden kann. Anhand eines Best-Practice-Beispiels zeigen wir, weshalb zentrale Strukturen unserer Überzeugung nach in bestimmten Bereichen essenziell sind und wie sich diese trotzdem schlank halten und einfach betreiben lassen. Die Lösungsarchitektur stützt sich dabei auf einen hybriden Ansatz, der übergangsweise den Parallelbetrieb des DWH und des Data Mesh vorsieht.

Matthias Jung verantwortet den Bereich Data Management bei der ORDIX AG mit ca. 80 Mitarbeitern und ist seit 25 Jahren als Berater tätig. Technologisch liegt sein Schwerpunkt dabei im Datenbankumfeld sowie in der Konzeption belastbarer und skalierbarer Daten-Architekturen.

Kwang-Il Son ist Senior Chief Consultant im Bereich BI & Reporting. Mit mehr als 15 Jahren branchenübergreifender Erfahrung als Consultant und Data Engineer verfügt er über ein tiefes Fachwissen im Umfeld Data Warehouse und BI. Er verantwortet zudem die ORDIX interne Weiterentwicklung von Data-Management-Themen im Cloud-Umfeld.

Wolfgang Kettler leitet das Team BI & Reporting bei der ORDIX AG. Er verfügt über 12 Jahre Erfahrung im Bereich der Architektur komplexer Daten-Plattformen und BI-Anwendungen. Als Senior Chief Consultant berät er Kunden in den oben genannten Themenfeldern. In den letzten Jahren lag sein Fokus insbesondere auf der Migration bestehender On-premise-Lösungen auf moderne, skalierbare Cloud-Lösungen auf Microsoft Azure.

Matthias Jung, Kwang-Il Son, Wolfgang Kettler
E101/102
Matthias Jung, Kwang-Il Son, Wolfgang Kettler
E101/102
Vortrag: Mi 4.2

Vortrag Teilen

11:25 - 12:10
Mi 4.3
Was ist ein Datenprodukt wirklich?
Was ist ein Datenprodukt wirklich?

Alle reden zwar über Datenprodukte. Aber wenn man genau hinschaut, gibt es keine einheitliche Definition. Ist ein Dashboard ein Datenprodukt? Ist ein Datensatz ein Datenprodukt? Gehört die Pipeline auch dazu? Ist ein Datenprodukt immer eine Tabelle? Oder doch eher ein Schema? Wir wollen versuchen, die eine Definition zu finden. Dabei betrachten wir Datenprodukt-Beispiele aus unterschiedlichen Perspektiven, bspw. Data Product Owner, Developer, Data Scientist, Business etc. Unsere Findings werden dich total überraschen.

Zielpublikum: Alle, die mit Datenprodukten zu tun haben
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Dr. Simon Harrer ist Senior Consultant bei INNOQ. Er ist Softwareentwickler im Herzen, der sich mittlerweile der dunklen Seite, nämlich der Welt der Daten, zugewandt hat. Er hat datamesh-architecture.com mit ins Leben gerufen und das Data-Mesh-Buch von Zhamak Dehghani ins Deutsche übersetzt. Aktuell entwickelt er ein für alle Data-Mesh-Initiativen hilfreiches Werkzeug, den Data Mesh Manager.

Simon Harrer, Andreas Engel
E101/102
Simon Harrer, Andreas Engel
E101/102
Vortrag: Mi 4.3

Vortrag Teilen

15:20 - 16:20
Mi 4.4
World Café Data Management
World Café Data Management

Gordon Witzel startete im Jahr 2007 bei der SAP als BW-Berater. Hier unterstütze er internationale Kunden bei der Architektur und Implementierungen von SAP BW und SAP BWA.
2015 wechselte er in das SAP Data Warehouse Produktmanagement der SAP SE und hat hier basierend auf Anforderungen der Kunden mit der Entwicklung neue Features definiert, priorisiert und zur Umsetzung gebracht. Bei diversen nationalen und internationalen Events präsentiert Gordon zu den Themen SAP BW und SAP Data Warehouse Cloud und stellt die SAP Data Warehouse Produkte in Hands-On Workshops vor.
Weiterhin unterstütze er bei Definition der SAP Data Warehouse Strategie und begleitete die erfolgreiche Einführung der SAP BW bridge als Teil der SAP Data Warehouse Cloud im Jahr 2021. Seit 2022 ist Gordon Principal Presales Expert für das Data Warehouse Portfolio der SAP.

Vera Schulz ist seit über 10 Jahren beratend im Bereich Business Intelligence & Data Analytics tätig. Mit ihrem Team verantwortet sie sowohl Analytics-Projekte als auch Themen rund um Cloud-Datenplattformen. Ihre Anerkennung als TDWI-Expertin dieses Jahr zeugt von ihrer tiefen Branchenkenntnis und ihrem Engagement für datengesteuerte Geschäftslösungen.

Dr. Joachim Philippi ist Ehren- und Gründungsmitglied des TDWI e.V.. 

Gordon Witzel, Vera Schulz, Joachim Philippi
E101/102
Gordon Witzel, Vera Schulz, Joachim Philippi
E101/102
Vortrag: Mi 4.4

Vortrag Teilen

16:50 - 17:35
Mi 4.5
Erfolgreiche Projekte: die entscheidenden Best Practices
Erfolgreiche Projekte: die entscheidenden Best Practices

Welches sind die Schlüsselkomponenten erfolgreicher Analytics-Projekte? Sind Data Culture, Data Literacy, Data Mesh und Decision Intelligence echte Game-Changer? Erfolgreiche Analytics-Projekte setzen auf mehr als nur moderne Technologie und Hype-Themen - sie legen ihren Fokus auf:

  • Potenziale bei der Datenstrategie
  • Verbesserte Einbindung der Stakeholder
  • Etablierung von Vorgehensmethoden
  • Einführung einer Business-Analyse
  • Umsetzung der Data Governance

Der Vortrag zeigt, wie diese Methoden zusammenwirken und auch Ihr Projekt voranbringen.

Zielpublikum: Projektleiter, Data Manager, Datenarchitekten
Voraussetzungen: Analytics-Projekterfahrung und -Methodenkenntnisse
Schwierigkeitsgrad: Advanced

Extended Abstract:
Willkommen zu einem Vortrag über die Schlüsselkomponenten erfolgreicher Analytics-Projekte. Wir erkunden, warum technisches Know-how und erstklassige Werkzeuge alleine nicht genug sind und wie Sie Ihr nächstes Analytics- & Business-Intelligence-Projekt mit entscheidenden Best Practices auf ein neues Niveau heben können.

Auch im Jahr 2024 sind Hype-Begriffe wie Data Culture, Data Literacy, Data Mesh und Decision Intelligence allgegenwärtig. Sind dies echte Game-Changer?

Erfolgreiche Analytics-Projekte setzen auf mehr als nur modernste Technologie, hervorragende Tools und aktuelle Hype-Themen, um einen Business-Mehrwert hervorzubringen.

Dieser Vortrag behandelt erfolgreiche Projektaspekte aus den letzten 24 Monaten. Folgende Best Practices werden detaillierter besprochen:

  • Definition konkreter Potenziale in einer Datenstrategie:
    Wie können wir mit einem Blick aufs große Ganze das Unternehmen mit Analytics-Initiativen am besten voranbringen und proaktiv zukünftige Geschäftsanforderungen adressieren?
  • Verbesserung der Einbindung von Fachbereichen und Stakeholdern:
    Wie können wir den Dialog mit den Business-Experten und internen Kunden verbessern, von ihrem Wissen profitieren und ihren Vorstellungen weiter entgegenkommen?
  • Holistische Etablierung von Vorgehens- & Entwicklungsmethoden:
    Wie können uns strukturierte Vorgehensmodelle dabei helfen, nicht nur klare Entwicklungsziele zu formulieren und Fehler zu minimieren, sondern auch eine agile Flexibilität zu bewahren, um auf sich ändernde Anforderungen zeitnah reagieren zu können?
  • Einführung einer übergreifenden, integrierten Business- und Anforderungsanalyse:
    Wie können wir eine nachhaltige Lösung entwickeln, die sowohl den geschäftlichen Anforderungen als auch den individuellen Bedürfnissen der Stakeholder gerecht wird?
  • Frühe individualisierte Umsetzung von Data Governance und Change Management:
    Wie können wir frühzeitig eine maßgeschneiderte Umsetzung von Data Governance und Change Management sicherstellen, um eine reibungslose Integration in die bestehenden Strukturen und Prozesse zu gewährleisten?

In diesem Vortrag erfahren Sie, wie die Methoden ineinandergreifen. Ganz gleich, ob Sie auf der Suche nach einem klaren Leitfaden für Ihr nächstes Projekt oder nach neuen Impulsen für laufende Initiativen sind - im Vortrag finden sich neue Anregungen.

Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Juli 2022 ist er Geschäftsführer bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/klausdieter.schulze

Peer M. Carlson ist Principal Consultant bei b.telligent und seit vielen Jahren im Bereich Business Intelligence & Analytics tätig. Sein Interesse gilt insbesondere Datenarchitekturen, Datenmodellierung, Data Vault, Requirements Management und agilen Methoden. Er unterstützt sowohl die fachlichen Anwender als auch die technischen Entwickler beim übergreifenden Verständnis der Projektanforderungen. Peer M. Carlson ist Mitgründer der Deutschsprachigen Data Vault User Group (DDVUG).

Klaus-Dieter Schulze, Peer M. Carlson
E101/102
Klaus-Dieter Schulze, Peer M. Carlson
E101/102

Vortrag Teilen

17:45 - 18:30
Mi 4.6
Semantische Modellierung als Schlüssel
Semantische Modellierung als Schlüssel

Das 'Semantic Term and Model Repository' ist das zentrale Repository bei Bosch für Geschäftsglossare, Taxonomien und semantische Modelle. Das Repository ist gleichzeitig auch eine Plattform für die kollaborative Entwicklung von Glossaren und semantischen Modellen. Es basiert auf W3C-Standards wie RDF, RDFS, OWL und SHACL. Außerdem bietet es verschiedene Standardschnittstellen zur Integration anderer Tools und Anwendungen (z. B. SPARQL, GraphQL und REST).

Zielpublikum: Data Manager, Data Engineers, Data Analysts
Voraussetzungen: Grundlegende Erfahrung in Datenmodellierung und Data Management
Schwierigkeitsgrad: Advanced

Extended Abstract:
Im Rahmen eines Strategie-Projekts hat Bosch eine Methodik und einen Tool-Stack entwickelt, um mit semantischer Modellierung den Weg für ein industrialisiertes Datenmanagement zu bereiten. Das Bosch 'Semantic Term and Model Repository' ist das zentrale Repository bei Bosch für Geschäftsglossare, Taxonomien und semantische Modelle. Mit den Geschäftsglossaren und Taxonomien wird eine gemeinsame Sprache innerhalb der Bosch-Gruppe angestrebt, mit den semantischen Modellen werden konzeptionelle Datenmodelle auf Unternehmensebene als Bosch-weite Standards etablieren. Diese konzeptionellen Datenmodelle dienen als solide Ausgangsbasis für jede neue Datenanwendung, um die Datenintegration zu erleichtern und die Wiederverwendung bereits definierter Modelle zu fördern. Das Repository ist gleichzeitig auch eine Plattform für die kollaborative Entwicklung von Glossaren und semantischen Modellen. Es basiert auf W3C-Standards wie RDF, RDFS, OWL und SHACL. Außerdem bietet es verschiedene Standardschnittstellen zur Integration anderer Tools und Anwendungen (z. B. SPARQL, GraphQL und REST).

Andreas Peter ist als Data Architect bei Bosch im Bereich Datenmodellierung, Datenstrategie und Semantische Modellierung.

Andreas Peter
E101/102
Andreas Peter
E101/102
Vortrag: Mi 4.6

Vortrag Teilen

, (Donnerstag, 13.Juni 2024)
09:00 - 09:45
Do 4.1
Mehrwert aus Daten: ein methodischer Architekturansatz
Mehrwert aus Daten: ein methodischer Architekturansatz

SAP hat eine Architekturmethode entwickelt, um effizient Mehrwerte aus Daten zu generieren. Durch ein strukturiertes Vorgehen werden auf Basis datenzentrischer Anwendungsfälle zielgerichtete Lösungsarchitekturen entwickelt. Wir geben einen Überblick über das Vorgehensmodell, wichtige Werkzeuge und Artefakte und zeigen die Anwendung der Methode an einem konkreten Kundenbeispiel.

Zielpublikum: Enterprise/Data Architects, Projektleiter/Berater/Entscheider im Umfeld von Data Management & Analytics
Voraussetzungen: Interesse an Data & Analytics-Themen, Grundverständnis von Architekturmethoden hilfreich, aber nicht zwingend notwendig
Schwierigkeitsgrad: Advanced

Extended Abstract:
Datengetriebene Geschäftsprozesse, Produkte, Dienstleistungen und Geschäftsmodelle werden immer dominanter in allen Branchen. Allerdings sind viele Unternehmen noch nicht richtig aufgestellt, um aus Daten Mehrwert zu generieren. Die Definition einer Datenstrategie ist eine wichtige Grundlage, doch deren konkrete Umsetzung benötigt ein effizientes, nachvollziehbares und standardisiertes Vorgehen, um kontinuierlich Mehrwert aus Daten zu generieren. 

SAP hat eine flexibel einsetzbare Methode entwickelt, um die passende Lösungsarchitektur für konkrete daten-getriebene Unternehmensziele ('Business Outcomes') zu entwickeln. Durch die Analyse von Anpassungsbedarfen in der Organisation wird die Implementierung ganzheitlich über einer Roadmap geplant. 

Wir geben einen Überblick über das Vorgehensmodell, wichtige Werkzeuge und Artefakte und zeigen die Anwendung der Methode an einem konkreten Kundenbeispiel.

Alexander Bange ist ein Prinicipal Enterprise Architect von SAP. Er ist Teil der SAP-Beratungsorganisation Business Transformation Services (SAP BTS), die Kunden gesamtheitlich bei der strategischen Planung und operativen Durchführung von digitalen Geschäftstransformationen unterstützt. 
Alexander arbeitet seit 24 Jahren in unterschiedlichen Rollen (IT-Projektmanager, IT-Manager, SAP Integration Consultant und Enterprise Architect) bei internationalen Konzernen der Branchen High Tech, Pharma, Retail and Consulting. 
In seiner aktuellen Rolle ist er als strategischer Berater für strategische SAP-Schlüsselkunden tätig. Er hilft diesen Unternehmen, die passende IT-Architektur zu definieren und die Umsetzungsplanung im Kontext strategischer Rahmenbedingungen zu entwickeln. 
Alexander tritt als Präsentator auf verschiedenen SAP und DSAG Events auf. 

Alexander Bange
E119
Alexander Bange
E119

Vortrag Teilen

09:55 - 10:40
Do 4.2
Data Management & BI Architekturen für ESG & CSRD Reporting
Data Management & BI Architekturen für ESG & CSRD Reporting

Um Nachhaltigkeit in Unternehmensentscheidungen zu berücksichtigen und gesetzlichen Verpflichtungen der Nachhaltigkeitsberichterstattung (CSRD) nachzukommen, müssen BI- und Data-Management neue Informationsbedarfe und funktionale Anforderungen bedienen. In dieser Session diskutieren wir ESG Reporting & Performance Management aus IT- und Data-Management-Sicht:

  1. ESG Funktionale Anforderungen und Datenmodelle
  2. ESG Lösungsarchitekturen: Datengenerierung, Datenplattform, Frontend
  3. ESG Softwareauswahl
  4. Einsatzmöglichkeiten von AI

Zielpublikum: CIO, Head of BI & Analytics, BI Engineers, Data Engineers, ESG Reporting Specialists, Controller, Accountants
Voraussetzungen: Grundkenntnisse  über ESG-Daten (Environmental, Social, Governance)
Schwierigkeitsgrad: Basic

Thomas Johanndeiter arbeitet als Principal bei Horváth und hat über 11 Jahre Consulting-Erfahrung im Bereich Contolling & Finance, BI & Data-Management. Er berät Unternehmen zu BI & Data Strategy und leitet Projekte für die Einführung von BI-, Planungs- und Data-Warehousing-Lösungen. Thomas unterstützt zudem Unternehmen beim Aufbau von Datenplattformen für ESG-Reporting und Performance-Management. 
Thomas ist Wirtschaftsinformatiker (M. Sc.) der Universität Duisburg-Essen.

Carsten Breithaupt is leading a team of excellent Enterprise Architects within the Lufthansa Group. They are shaping the IT Landscape based on the Business Capabilities. The best and stable IT at the lowest budget is targeted by continuous harmonizing and optimizing on all architecture layers.

Enrique Snachez ist SAP Enterprise Architect mit Erfahrung auf beiden Seiten des Zauns, von einem Logistik-Systemplaner bei Audi und der Entwicklung und Implementierung von globalen SCM-Lösungen in der DLH-Gruppe. Jetzt ist er in einer Rolle als Enterprise Architect im Enterprise Architecture Team der Gruppe, in Zusammenarbeit mit einem großartigen Team von Experten aus allen Positionen, die die Transformation der SAP-Landschaft der DLH-Gruppe gestalten.

Thomas Johanndeiter, Carsten Breithaupt, Enrique Sanchez
E119
Thomas Johanndeiter, Carsten Breithaupt, Enrique Sanchez
E119

Vortrag Teilen

11:10 - 12:10
Do 4.3
Intelligent Data Engineering & Integration: A Show Case
Intelligent Data Engineering & Integration: A Show Case

Within this session colleagues from Siemens Financial Services and b.telligent present how they are building jointly an intelligence data integration framework based on Azure Services leveraging the unique advantages of concepts such as generic loading, automated schema evolution to magnify flexibility and how they fine-tune workloads, to ensure a smooth performance and to cost-efficient workload management at the same time.

Target Audience: Technical Experts in Data Warehousing, Data & Cloud Engineering.
Prerequisites: Advanced Knowledge in ETL/ELT Processes, Azure Cloud, Data Integration a/o Data Warehousing
Level: Advanced

Michael Bruckner has over 10 years of experience working in various roles and industries in the field of business intelligence, data analytics, data engineering, and data warehousing. At Siemens Financial Services, he currently leads the Data Management department within the IT department and is driving the development of an enterprise-wide, cloud-based data platform as an IT Program Manager.

Daniel works as a Cloud Data Warehouse Architect at Siemens Financial Services GmbH in Munich. He has many years of experience in data-intensive BI and analytics projects. As the lead data architect, he is responsible for the development and expansion of a new cloud data platform. His focus is on cloud architecture, data integration, data modeling, and automation.

Tim Spannagel has over 6 years experience working in the analytics industry and specializes on Data Platforms on Microsoft Azure. 
He works as a principal consultant at b.telligent supporting customers across various industries. He is responsible for the development of the metaFactory Framework.

Niklas Sander works as a data engineer at Siemens Financial Services GmbH in Munich. Together with colleagues, he is driving the development and expansion of a new cloud data platform. His focus is on topics such as data ingestion, enabling citizen developers, and cost-performance tuning in the Azure Synapse area.

Michael Bruckner, Daniel Bialas, Tim Spannagel, Niklas Sander
E119
Michael Bruckner, Daniel Bialas, Tim Spannagel, Niklas Sander
E119
Vortrag: Do 4.3

Vortrag Teilen

15:10 - 15:55
Do 4.4
Strategies for a Seamless Data Shopping Experience
Strategies for a Seamless Data Shopping Experience

In this session Marcel will talk about how organizations are realizing a data shopping process with the correct technology, organization and business processes. The session will unveil the role of each technology component from data catalogs and data marketplaces to data virtualization and data pipelining. Furthermore, the role of data governance and organizational change management will be explored and customer reference architectures will be provided to illustrate an exemplary end to end data shopping process.

Target Audience: CTO, CIO, Head of BI, Data Engineer, Data Scientist, Data Steward
Prerequisites: Basic understanding of Data Mesh (optional)
Schwierigkeitsgrad: Advanced

In my current position as the Head of Data Intelligence at Camelot, I serve as a Managing Consultant and Architect, guiding clients in the selection of optimal data management tools for their modern data architectures. My focus extends to realizing the principles of data mesh across organizational, process, and technological dimensions. I am committed to delivering comprehensive solutions and ensuring that organizations harness the full potential of their data assets. I have cultivated expertise in data integration platforms, including SAP Datasphere, Informatica Intelligent Data Management Cloud (IDMC), and Denodo.

Georg Frey is a Consultant at Camelot ITLab, specializing in Data Science, Software Development, and Cloud technologies. With a proven track record in developing and implementing data architectures, Mr. Frey excels in designing robust data governance frameworks and comprehensive data strategies. His proficiency in leveraging cutting-edge technologies and his keen understanding of industry best practices ensure efficient and effective solutions tailored to meet clients' needs. Mr. Frey fosters a data-driven culture, enabling informed decision-making and innovation within organizations.

Marcel Oenning, Georg Frey
E119
Marcel Oenning, Georg Frey
E119
Vortrag: Do 4.4

Vortrag Teilen

Zurück