
Please note:
On this site, there is only displayed the English speaking sessions of the TDWI München digital. You can find all conference sessions, including the German speaking ones, here.
The times given in the conference program of TDWI München digital correspond to Central European Time (CET).
By clicking on "EVENT MERKEN" within the lecture descriptions you can arrange your own schedule. You can view your schedule at any time using the icon in the upper right corner.
Thema: Data Vault
- Montag
20.06. - Dienstag
21.06.
Der hohe Grad der Standardisierung, die einfache und einheitliche Importlogik und die klare Trennung der Schichten ermöglicht eine weitgehend automatische Erzeugung der Importlogik für ein Data Vault-Modell.
Dabei muss nicht unbedingt ein Generator gekauft werden. Man kann auch das bereits im Projekt verwendete ETL-Werkzeug, wie den Oracle Data Integrator (ODI), erweitern, um die Logik zur Beladung zu erzeugen.
Wir zeigen die Vorteile dieser Lösung für die DWH-Projekte der Norma Lebensmittelfilialbetrieb Stiftung & Co. KG.
Zielpublikum: Data Engineers, BI Project Managers, an Data Vault Interessierte
Voraussetzungen: Grundkenntnisse in Datenmodellierung und Data Warehousing sind vorteilhaft
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Nach einer kurzen Einführung in die Data Vault-Grundstrukturen (Hubs, Links, Satellites, Point-In-Time Tables, Bridges) konzentriert sich der Vortrag auf die automatisierte Generierung der Beladungslogik für die elementaren DV-Strukturen (Hubs, Links, Satellites).
Code-Generierung lohnt sich nicht nur, sie ist bei Data Vault notwendig. Die hohe Anzahl der Datenstrukturen und der damit verbundenen Ladeprozesse sind mit manueller Modellierung nur schwer zu bewältigen.
Code-Generierung dient primär der Entlastung der Entwickler von repetitiven Tätigkeiten und schafft die Voraussetzung für schnelle und agile Projekte. Darüber hinaus ist generierter Code standardisiert und hat eine einheitliche Qualität.
Am Beispiel des Oracle Data Integrators (ODI) wird gezeigt, dass mit einem eigenen Generator nicht nur SQL-Statements erzeugt werden, sondern direkt Mappings im ETL-Werkzeug, so dass kein 'Medienbruch' zur manuellen Modellierung entsteht.
Die hohe Flexibilität dieses Ansatzes ermöglicht es, dass der Generator projekt- und kundenspezifische Anforderungen realisieren kann. So wurde bei Norma ein neues Data Warehouse für den Online-Handel (Norma 24) mit einer reinen Data Vault 2.0-Ladelogik aufgebaut. Gleichzeitig wurde das bestehende dimensionale Data Warehouse für den stationären Handel um eine Data Vault-Schicht ergänzt, die sowohl Data Vault 1.0- als auch 2.0-Schlüssel generiert, um eine fließende Migration ohne Downtimes zu ermöglichen.
Markus Schneider arbeitet als Managing Consultant für das IT-Dienstleistungsunternehmen PRODATO Integration Technology GmbH. Er ist seit mehr als 15 Jahren als Berater, Software-Entwickler, Projekt-Manager und Data Warehouse Architect im Oracle-Umfeld tätig. Seine Spezialgebiete sind Datenmodellierung und ETL-Entwicklung.
Andreas Krake arbeitet als Projekt-Manager für ERP-Systeme und BI-Anwendungen bei der Firma Norma Lebensmittelfilialbetrieb seit 5,5 Jahren. Auf Grund der fast 14-jährigen Betriebszugehörigkeit mit vorangegangenen Tätigkeiten als Bereichsleiter Verkauf und im Inhouse Consulting bildet er das Bindeglied zwischen den fachlich-organisatorischen Anforderungen und der technischen Umsetzung.
Vortrag Teilen
Die HUK-COBURG agiert seit über 8 Jahren nach einer BI-Strategie. Die BI-Strategie und die zugrunde liegenden Datenarchitekturen wurden und werden fortlaufend angepasst. In diesem Track werden Weiterentwicklungen und Trends der Datenarchitekturen bei der HUK-COBURG vorgestellt.
Zielpublikum: Data Architects, Data Engineer, Data Scientist, Project Leader
Voraussetzungen: Grundkenntnisse Business Intelligence und Datenarchitekturen
Schwierigkeitsgrad: Einsteiger
Michael Fischer-Dederra beschäftigt sich seit seiner Diplomarbeit Anfang des Jahrtausends mit BI und ist, von seinen nunmehr 15 Jahren bei der HUK-COBURG, die letzten 6 Jahre als BI Lead Architect für den Ausbau des erweiterten Daten-Ökosystems und dessen Interaktion mit der Unternehmensumwelt zuständig.
Michael Kolb ist seit 14 Jahren im Business Intelligence-Umfeld tätig - davon seit über 8 Jahren als BI-Projektleiter und BI-Architekt im BICC der HUK-COBURG. Seit zwei Jahren begleitet er die Themen Data Cataloging und Data Governance im Kontext des erweiterten Daten-Ökosystems der HUK-COBURG.
Im Zuge einer Neuausrichtung der Analytics-Infrastruktur plant die GVV die Einführung eines neuen DWHs, das eine Gesamtsicht für Reporting und Analyse ermöglicht. Ziel des Projektes war die Anwendung innovativer Methoden, welche das Data Analytics-Zielbild zukunftsfähig macht, die Anforderungen in hohem Maße flexibel umsetzt und von geringer Fehleranfälligkeit gekennzeichnet ist. Diese Ziele werden durch den Einsatz einer Cloud-DB unter Nutzung einer Generierungs-SW für DataVault-Modellierung und moderner BI-Tools in hohem Maße erfüllt.
Zielpublikum: BI-Manager, Data-Analysten, Cloud-Architekten
Voraussetzungen: Versicherungs- und BI-Architektur-Grundverständnis
Schwierigkeitsgrad: Fortgeschritten
Lasse Wiedemann berät seit mehr als 4 Jahren Kunden aus der Finanzdienstleistungsbranche erfolgreich zu ETL- und BI-Fragestellungen. Dabei hat er sich auf das Thema Data Management konzentriert und ist bei PPI für diesen Bereich verantwortlich.
Vortrag Teilen
Vortrag Teilen
Einen exzellenten Umgang mit Daten zu kultivieren und damit nachhaltige Datenkompetenz im Unternehmen zu verankern, sind entscheidende Enabler, um den digitalen Wandel zum modernen Fintech-Unternehmen zu meistern. Mit der Ausbildungsoffensive „Informations- und Datenmanagement” hat die RLB OÖ 2019 einen Trainings-Piloten gestartet, der sich zu einem etablierten Schulungsprogramm für die gesamte Organisation entwickelt hat. Wie man ein solches Programm samt praxisnahem Lehrplan aufbaut, erzählt die Data Governance Spezialistin Iris Thallinger.
Zielpublikum: Project Manager, Data Governance Manager, Data Passionist, CDO, CIO
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Einsteiger
Iris Thallinger absolvierte ein Studium der Wirtschafts- und Rechtswissenschaften an der JKU/Linz und hat mehr als 15 Jahre Erfahrung im Bereich Projekt- und Prozessmanagement im Bankensektor. Anfang 2017 bis Ende 2020 hat sie den Aufbau von Data Governance in der RLB OÖ verantwortet und wurde für diese Leistung 2020 mit dem Austrian Data Hero Award ausgezeichnet. Seit Januar 2021 ist sie im Datenschutz der RLB OÖ tätig.
Auch für die SIGNA, einen der weltweit größten Immobilienentwickler, ist datengetriebene Unternehmenssteuerung ein entscheidender Erfolgsfaktor. Zur Implementierung des DWH wurde ein fachlicher Ansatz gewählt: Geschäftsfunktionen und -objekte werden im Fachdatenmodell abgebildet und direkt als Data Vault-Modell realisiert. So kann die Time-to-market deutlich reduziert, sowie Wartbarkeit und Transparenz markant gesteigert werden. Vor allem: Die Datennutzer verstehen die Daten und können deren fachliche und technische Lineage nachvollziehen.
Zielpublikum: Data Governance-Verantwortliche, Data Scientists, CDO
Voraussetzungen: Experience, Senior Level
Schwierigkeitsgrad: Fortgeschritten
Daniela Graussam leitet in der SIGNA das gruppenweite IT Application Management, das geschäftskritische Applikationen für Finanz, Bauwesen, Asset Management, sowie interner Organisation zur Verfügung stellt. Sie und ihr Team agieren als Sparring-Partner der Fachabteilungen bei der Gestaltung und Digitalisierung komplexer Geschäftsprozesse und ermöglichen deren Umsetzung. Daniela hat nach einem Wirtschaftsstudium erfolgreich ein MBA Studium in Kalifornien abgeschlossen.
Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Vortrag Teilen
Vortrag Teilen
Beim Aufbau moderner DWHs kann man sich dem Thema 'Cloud' nur noch schwer entziehen. Echte Cloud-Datenbank wie z.B. Snowflake weisen den Weg konsequent in Richtung einer skalierbaren Datenplattform. Aufseiten der ETL-Werkzeuge kristallisiert sich mit Matillion ein herausragendes Werkzeug für Cloud DWH heraus. Mithilfe eines intelligenten Frameworks und einer agilen Vorgehensweise zeigt dieser Vortrag, wie Unternehmen die Data Vault-Modellierung mit der Skalierbarkeit der Cloud verbinden können.
Zielpublikum: DWH & BI-Experten, BI-Manager, Data Engineer
Voraussetzungen: DWH Grundwissen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Moderne DWHs basieren in der Regel auf einer Data Vault-Modellierung. Data Vault zeichnet sich durch eine extreme Flexibilität und Erweiterbarkeit aus, die aber u.a. durch eine Vielzahl an Datenbankobjekten mit entsprechend vielen Referenzen erkauft wird. Eine manuelle Erstellung eines Data Vault-Modells inkl. der Ladroutinen verbietet sich schon vor dem Hintergrund des zu erwartenden Arbeitsaufwandes. Vielmehr noch schreit ein Data Vault-Modell aufgrund der hohen Standardisierung geradezu nach einer Automatisierung oder zumindest automatisierten Generierung.
Matillion bietet auf den ersten Blick keine Möglichkeit, komplexe Datenmodelle zu erzeugen oder gar ELT-Prozesse zu automatisieren. Matillion bietet aber sehr wohl das technische Grundgerüst, um eine Automatisierung zu entwerfen und auszuführen. Dieser Herausforderung hat sich areto angenommen und einen DV-Generator-Framework entwickelt, das den Aufbau eines Data Vault-basierten DWHs automatisiert und sowohl die Datenmodellierung als auch die Datenbewirtschaftung anhand weniger Metadaten realisiert.
Der areto DV-Generator basiert auf Matillion Standardoperator und der Fähigkeit Matillions, alle Operatoren mittels Variablen zu dynamisieren. Der Anwender muss lediglich ein paar Metadaten pflegen und die Fragen beantworten, die im Zuge jeder Data Vault-Modellierung gestellt werden. Auf Basis dieser Daten wird dann ein komplettes Data Vault 2.0-Modell generiert und beladen. Dem Entwickler steht somit eine Ergänzung zu Matillion zur Verfügung, die es ermöglicht, innerhalb sehr kurzer Zeit ein komplett standardisiertes und auf Best Practices basierendes DWH zu generieren und sukzessive zu erweitern.
André Dörr, BI Consultant und Data Engineer bei areto consulting. Als zertifizierter Data Vault 2.0 Practitioner (CDVP2) verfügt er über mehr als 12 Jahre Erfahrung in BI-Projekten in verschiedenen Industriesektoren. Er ist derzeit ein führender Data-Warehouse-Architekt bei areto, Sprecher auf Konferenzen und Autor des auf Sportwetten fokussierten Data Science Blogs https://beatthebookie.blog. André hat eine Leidenschaft dafür, Daten zum Leben zu erwecken und interessante Geschichten zu erzählen, die den digitalen Wandel in Unternehmen vorantreiben.