Die im Konferenzprogramm der TDWI München 2023 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen kannst du dir deinen eigenen Zeitplan zusammenstellen. Du kannst diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Hier kannst Du die Programmübersicht der TDWI München 2023 mit einem Klick als PDF herunterladen.
Python erfreut sich immer größerer Beliebtheit im Datenmanagement. Der Einstieg in Python mit Paketen wie dbt, pyspark, keras, pytorch ist einfach. Rapid Prototyping mit Notebooks und die ersten Codezeilen sind schnell entwickelt. Doch sobald der Code produktiv geht ... (und manche wären schon froh, wenn der Code überhaupt produktiv geht).
Die Session geht auf Pakete und Techniken rund um Code-Formatierung, Linting, Testing, Security, Dokumentation, Versionskontrolle ein, um das Datenmanagement…
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/dirk.lerner
Wie können immer wiederkehrende Aufgaben vereinfacht werden? Die Frage nach der Automatisierung von Datenlogistikprozessen in einem Data Warehouse beschäftigt heute die Projektteams. Der Wunsch nach einem umfassenden Automatisierungsprodukt ist dann meist sehr schnell da. Die Erwartungen sind hoch, die Enttäuschung (nach der Produktauswahl) nicht selten.
In dieser Session gibt…
Data Mesh ist eine dezentrale Datenarchitektur, die viele Herausforderungen zu lösen verspricht. Im World Cafè „Data Mesh“ werden provokante Thesen und Fragestellungen zu diesem Ansatz in Kleingruppen diskutiert und anschließend die Ergebnisse allen vorgestellt. Ziel ist, dass sich die Teilnehmer selbst einbringen können und gleichzeitig ein differenziertes Bild auf ausgewählte Aspekte des Data Mesh-Ansatzes erhalten.
Die Modellierung von CRM-Daten mithilfe von Data Vault 2.0 ist eine typische Aufgabe in Enterprise Data Warehousing-Projekten. In diesem Beitrag stellen wir verschiedene Design Patterns aus unserer praktischen Erfahrung in diesen Projekten vor. Weiterhin gehen wir auf typische Herausforderungen mit CRM-Installationen ein und stellen unsere Best Practices in diesem Bereich vor. Der Beitrag basiert auf unseren internen Modellierungs-Empfehlungen für CRM-Systeme.
Zielpublikum: Data Vault…
Datenmanagement und Business Intelligence sind eng verwobene Bereiche, werden allerdings in vielen Unternehmen in separaten Teams und Abteilungen strukturiert. In diesem Vortrag wollen wir vorstellen, wie Pixum Data Warehouse Automation nutzt, um damit eine zentrale Anlaufstelle für Daten und Dashboards im Unternehmen bereitzustellen.
Zielpublikum: Entscheider:innen, IT-Architekt:innen, Data Engineers
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Datenmanagement…
BI-Plattformen in der Cloud ermöglichen es Unternehmen, große Datenmengen schnell und effizient zu analysieren. Insbesondere in Public Clouds stehen diesen Vorteilen meist Datenschutzbedenken gegenüber. Dieser Vortrag zeigt, wie Datenschutzanforderungen erfüllt werden können, ohne dabei große Kompromisse eingehen zu müssen. Anhand eines Use Cases wird aufgezeigt, wie ein klassisches DWH an eine moderne BI-Plattform in der Cloud angebunden werden kann, ohne dabei Daten im Klartext außerhalb des…
Um komplexe Metriken live bei Änderungen von Daten in einem Planungstool für den Anlagenbau anzeigen zu können, wurde eine 3-schichtige Architektur mit Datenbanktriggern entwickelt. Diese löst bestehende langsame Views ab, die zu langen Ladezeiten der UI führten. Eine Trennung von Datenselektion, Businesslogik und Schreibzugriff sorgt für strukturierten Code. Ebenso sorgt die exakte Selektion der Daten, die aktualisiert werden müssen, für effiziente Trigger. Probleme bei der Wartung werden über…
This presentation will examine the creation of data products through ETL pipelines and the value they provide through insights. We'll focus on the advantages of test-driven development in ETL and how Azure DevOps and Databricks play key roles in the pipeline. We'll also cover the implementation of a Git-based CICD workflow to automate and guarantee the quality of the generated data products. By the end of the presentation, attendees will have a solid understanding of the benefits of test-driven…
Die DEVK setzt seit 2019 das Bestandssystem IPM für das Sachgeschäft ein. Für das notwendige Reporting und Analysen haben wir uns für eine quellsystemnahe Auswertungslösung entschieden. Diese nutzt die Besonderheit des IPM-Datenmodells, keine Datensätze zu verändern oder zu löschen sowie die zentrale Historisierung des Systems. Der Vortrag berichtet von unserem Vorgehen zur Ermittlung von Delta-Zeitscheiben für die Bewirtschaftung, der zweizeitigen Zeitraumhistorisierung und den zusätzlichen…
Will man Daten unter Berücksichtigung einer zweizeitigen Historisierung mit Von- und Bis- Zeiträumen ablegen, kann man dies durch Hinzufügen der Historien-Felder an die Nutzdaten oder durch Auslagerung der Historieninformationen in einer separaten Tabelle erreichen. Der Vortrag gibt eine Einführung in die Grundlagen der bi-temporalen Historisierung und beleuchtet die Vor- und Nachteile beider Verfahren unter Berücksichtigung der Abfrageperformance unter Oracle.
Zielpublikum: Data Engineer, Data…