Data Lakehouse mit Data Vault 2.0: eine zukunftsweisende Architektur für Ihr Unternehmen
Traditionelle Datawarehouses stoßen an ihre Grenzen. Data Lakehouses bieten Skalierbarkeit und Flexibilität für die Herausforderungen moderner Datenlandschaften. Doch wie integriert man bewährte Modellierungsansätze wie Data Vault 2.0 in diese neue Architektur? Der Vortrag beleuchtet die Vorteile und Herausforderungen dieser Kombination und zeigt konkrete Lösungen auf. Erfahren Sie, wie Hashing, Speicher und die Medaillon-Architektur im Data-Lakehouse-Kontext betrachtet werden und welche Referenzarchitekturen sich bewähren können.
Zielpublikum: Datenarchitekten, Data Engineers, Data Scientists, BI-Spezialisten, IT-Entscheidungsträger, die sich für moderne Datenarchitekturen interessieren
Voraussetzungen:Grundlegendes Verständnis von DWH-Konzepten und relationale Datenbanken, idealerweise erste Berührungspunkte mit Data Vault und Data Lakes
Schwierigkeitsgrad:Advanced
Extended Abstract:
Datawarehouses stoßen in Zeiten von Big Data, Cloud-Computing und der Notwendigkeit von flexiblen Analysen an ihre Grenzen. Data Lakehouses bieten eine vielversprechende Alternative, die die Skalierbarkeit und Flexibilität von Data Lakes mit den Datenmanagement- und Analysefunktionen von Datawarehouses vereint. Doch wie lassen sich bewährte Modellierungsansätze wie Data Vault 2.0 in diese neue Architektur integrieren?
In diesem Vortrag beleuchten wir die Vorteile und Herausforderungen der Kombination von Data Lakehouse und Data Vault 2.0. Wir zeigen Ihnen, wie Sie die Stärken beider Welten optimal nutzen und eine zukunftsfähige Datenarchitektur für Ihr Unternehmen schaffen.
Tim Kirschke ist Senior Consultant bei Scalefree und Experte für Data Warehousing. Der studierte Mathematiker entwirft und implementiert seit 4 Jahren moderne Datenarchitekturen, oft unter Einsatz von Data Vault 2.0 und Datenbank-Automatisierungssoftware.
Ole Bause verfügt über vier Jahre Erfahrung in den Bereichen Data Warehousing und Data Engineering und hat einen Master of Science in Angewandter Informatik. Er hat sich auf DWH-Projekte in Cloud-Computing-Umgebungen spezialisiert, vor allem mit Automatisierungstools wie dbt, sowie die Entwicklung von ELT-Prozessen zur Realisierung skalierbarer Datenpipelines.