Hinweis: Die aktuelle TDWI-Konferenz finden Sie hier!

PROGRAMM

Die im Konferenzprogramm der TDWI München digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

Für alle, die eine alternative Darstellung bevorzugen bieten wir unser Programm-PDF an:
» Zum PDF-Download

Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.

Track: Data Management

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    22.06.
10:00 - 10:40
Di 3.1
Das Dilemma heterogener KPIs am Beispiel Sustainable Development Goals der UN
Das Dilemma heterogener KPIs am Beispiel Sustainable Development Goals der UN

Mit der Agenda 2030 hat sich die Weltgemeinschaft die Sustainable Development Goals für eine nachhaltige sozial, wirtschaftlich und ökologisch Entwicklung gesetzt. Die Ziele dienen den Kommunen als Stoßrichtung für langfristige Politikplanung und dem kommunalen Monitoring.
Das Dilemma an den SDGs ist, dass sie mehrdimensional, universell gültig und heterogen in den Steuerungsgrößen sind.

Die Zusammenführung der Datengrundlage und Herstellung einer Vergleichbarkeit von Kennzahlen in einem gemeinsamen Zielsystem ist eine zentrale Herausforderung.

Zielpublikum: Entscheider, Leiter Controlling, Leiter Data & Analytics
Voraussetzungen: Grundkenntnisse Data & Analytics
Schwierigkeitsgrad: Anfänger

Christoph Schulz-Sacharow ist Manager im Public Sector mit dem Schwerpunkt Data & Analytics. In diesem Zusammenhang liegt sein Fokus im Bereich der Optimierung bzw. Digitalisierung von Entscheidungsprozessen mit SAP.
Torsten Raithel ist Senior Consultant im Public Sector mit dem Schwerpunkt BI & Analytics. In diesem Zusammenhang liegt sein Fokus auf der Entwicklung datengetriebener Entscheidungsprozesse der Produktion von Mehrwert durch Information auf Basis einer zielgerichteten Visualisierung von Daten.
Christoph Schulz-Sacharow, Torsten Raithel
Christoph Schulz-Sacharow, Torsten Raithel
Vortrag: Di 3.1
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 3.2
Schwimmen mit dem Strom – Real-Time ETL ohne Batchprozesse
Schwimmen mit dem Strom – Real-Time ETL ohne Batchprozesse

ETL ist Batch: Effizienz, Datenkonsistenz, Nachvollziehbarkeit, Einfachheit, etablierte Methoden und ausgereifte Werkzeuge machen den Bau eines DWH zu einem Standard-Job.
Dabei ist Streamprocessing technisch kein Problem. Nur: Wie baut man komplexe fachliche Transformationen 'im Stream'? Wie sichert man Datenkonsistenz? Wohin mit der Datenhistorie? Wie geht das ressourceneffizient?

Der Vortrag zeigt an einem konkreten Projekt Verfahren, Werkzeuge, Vor- und Nachteile und die konkrete Umsetzung eines rein Event-getriebenen Data Warehouses.

Zielpublikum: Data Engineers, BI Project Manager
Voraussetzungen: Gutes DWH und ETL Knowhow
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

ETL ist heute (noch?) immer eine reine Batch-Veranstaltung – und das aus gutem Grund: Effizienz und geringer Overhead, hohe Datenkonsistenz, Nachvollziehbarkeit, niedrigere Komplexität, etablierte Methoden und ein Fundus ausgereifter Werkzeuge machen den Auf- und Weiterbau eines Data Warehouses oder eines Data Lakes (fast schon) zu einem Standard-Job. Selbst die meisten 'Near-Real-Time' Prozesse (stündlich, viertelstündlich oder 5-minütlich) werden heute durch – kürzere, kleinere und häufiger ausgeführte – Batch-Jobs erledigt, nicht selten exotische 'Außenseiter' in der Riege der täglichen DWH Workflows.
Dabei ist doch zumindest eine zeitnahe Datenextraktion im Stream technisch kein großes Problem: Ob 'Log-based CDC', Json-Streaming via http oder das Abgreifen von Events aus Kafka ist weit verbreitet. Und auch das permanente Runterschreiben dieser Datenströme in Datenbanken ist kein Hexenwerk.
Wie aber implementiert man darauf komplexe, technische und fachliche Transformationen 'im Stream'? Wie sichert man Datenkonsistenz, wenn die Ankunft der Daten nahezu unvorhersagbar ist? Wie speichert man diese Datenströme – mit Datenhistorie für spätere Auswertungen – und wie kann man solche Prozesse noch ressourceneffizient umsetzen?
In diesem Vortrag zeigen wir anhand konkreter Projekte, welche Verfahren und Werkzeuge sich eignen, wo deren Vor- und Nachteile gegenüber klassischen Batch-Prozessen liegen und wie eine konkrete Umsetzung eines rein Event-getriebenen Data Warehouses aussehen kann.

Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.

Peter Welker
Peter Welker
Vortrag: Di 3.2
flag VORTRAG MERKEN

Vortrag Teilen

12:30 - 13:00
Di P3
Panel: Wo fängt Self-Service wirklich an? Reicht der Filter, oder ist es doch mehr?
Panel: Wo fängt Self-Service wirklich an? Reicht der Filter, oder ist es doch mehr?

Philipp von Loringhoven ist Designer, Entwickler, Marketeer und Daten-Nerd. Als Freelancer ist er gefangen zwischen Marketing, Produktentwicklung, Business Intelligence und Analytics - er hilft Unternehmen ihre Kunden besser zu verstehen, um mit ihnen zielführender zu kommunizieren. Gleichzeitig ist Host des DataEngage Podcasts und der daily-data.news Plattform.

Der Buchautor und Dashboardexperte Andreas Wiener hat über 10 Jahre Erfahrung im Erstellen und der Etablierung von Dashboards in Unternehmen. Er hat zahlreiche Bücher und Artikel geschrieben und gehört zu einem der führenden Visualisierungs- und Dashboardexperten in Europa.

Philipp von Loringhoven, Andreas Wiener
Philipp von Loringhoven, Andreas Wiener
Vortrag: Di P3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 3.3
360° Kundensicht in einer heterogenen Konzernlandschaft? Master Data Management bei Bilfinger SE
360° Kundensicht in einer heterogenen Konzernlandschaft? Master Data Management bei Bilfinger SE

Ein 360° Blick auf die Geschäftskunden ist ein wichtiger Faktor in der unternehmerischen Entscheidungsfindung. Auf Konzernebene sind Kundendaten jedoch häufig auf verschiedene Systeme sowie weitere Applikationen verteilt, mit variierender Datenqualität, Aussagekraft und Möglichkeiten der Anbindung. Bei Bilfinger SE, einem internationalen Konzern mit Einheiten auf der ganzen Welt, suchte man daher nach einer Lösung, die alle Kundenstammdaten zusammenbringt und sie anschließend auf Konzernebene mit relevanten Finanzkennzahlen auswertbar macht.

Zielpublikum: Project Leader, Data Stuarts, Decision Makers, Data Architects, BI Specialists
Voraussetzungen: Basic Knowledge
Schwierigkeitsgrad: Anfänger

Extended Abstract:

Ein datenbasierter 360° Blick auf die Geschäftskunden ist ein wichtiger Faktor in der unternehmerischen Entscheidungsfindung. Auf Konzernebene sind Kundendaten jedoch häufig auf verschiedene ERP- und CRM Systeme sowie weitere Applikationen verteilt, mit variierender Datenqualität, Aussagekraft und Möglichkeiten der Anbindung.

Bei Bilfinger SE, einem internationalen Konzern mit Einheiten auf der ganzen Welt, suchte man daher nach einer Lösung, die alle Kundenstammdaten zusammenbringt und sie anschließend auf Konzernebene mit relevanten Finanzkennzahlen auswertbar macht.

Die Erstellung von Golden Records mit Hilfe von Algorithmen, das Analysieren von Dubletten, die Anreicherung von Kundendaten mit digitalen Wirtschaftsinformationen und ein Workflow-Tool, welches den Datenprozess automatisiert steuert, sind dabei die wichtigsten Bausteine für ein erfolgreiches Master Data Management.

Mirjam Cohrs (M.A. Politikwissenschaft) ist Leiterin des Management Business Intelligence Teams bei der Bilfinger SE. Ihre Karriere begann als Analystin im CRM-Umfeld, heute bringt sie mehrjährige Erfahrung in der Umsetzung von Reporting- und DWH-Projekten in der Finanz- und Vertriebssteuerung mit.

Mirjam Cohrs
Mirjam Cohrs
Vortrag: Di 3.3
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 3.4
Integration of SAP data into a common data model
Integration of SAP data into a common data model

In the past, data was often stored in a monolithic data warehouse. Recently, with the advent of big data, there has been a shift to work directly with files. The challenge therefore arises in data management and storing metadata information. In this presentation, I will show how SAP (ERP or BW) data can be extracted using SAP Data Intelligence (ODP framework) and stored along with their metadata information. These data are stored in a Common Data Model (CDM) format and can be easily integrated and consumed with various products.

Target Audience: Professionals who would like to integrate SAP data into a Data Platform (e.g. Datalake) and include metadata information.
Prerequisites: Basic understanding of the SAP integration framework ODP, and cloud infrastructure (e.g. Azure Datalake Storage)
Level: Advanced

Julius von Ketelhodt hat Geophysik und Geoinformationswissenschaften an den Universitäten Witwatersrand (Südafrika) und Freiberg studiert und in Geophysik und Seismologie promoviert.

Seit mehreren Jahren beschäftigt er sich in Data & Analytics Projekten von Großkunden unterschiedlichster Industrien explizit mit der Fragestellung, wie betrachtungsrelevante Daten aus verschiedenen SAP Quellsystemen in Cloud Data Plattformen führender Hersteller integriert werden können. Zudem hat er das Konzept des Common-Data-Models (CMD) in Zusammenarbeit mit SAP, Microsoft und Adobe aus der Taufe gehoben und weiterentwickelt.

Beim Data & AI Beratungshaus initions ist er seit knapp 4 Jahren als BI-Consultant tätig und zeichnet gleichzeitig als Product Lead im hauseigenen SAP Product Team verantwortlich.

Julius von Ketelhodt ist verheiratet und lebt mit seiner Frau und seinen zwei Kindern in Hamburg.

Julius von Ketelhodt
Julius von Ketelhodt
Vortrag: Di 3.4
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 3.5
Einfluss regulatorischer Anforderungen auf moderne Architekturen
Einfluss regulatorischer Anforderungen auf moderne Architekturen

Der fachliche Wettbewerbs- und Kostendrucks sowie steigende Anforderungen erhöhen den Bedarf an Industrie- und Standardlösungen. Allerdings werden Standardlösungen den Anforderungen, z.B. BCBS 239, oftmals nicht gerecht. Es entsteht eine Diskrepanz, dem nur mit einer modernen, dispositiven Infrastruktur begegnet werden kann. Neue Ansätze und Methoden in der Umsetzung sind daher gefragt: Eine moderne Referenzarchitektur, die bei der Lösung zukünftiger Herausforderungen unterstützt und Grundlage für eine moderne Analyseplattform liefert.

Zielpublikum: Entscheider, Data Engineer, Architekten, Controlling, Projektleiter
Voraussetzungen: Grundkenntnisse Data & Analytics
Schwierigkeitsgrad: Anfänger

Stefan Seyfert ist gemeinsam mit Herrn Lars Schlömer als Head of Data & Analytics Sopra Steria für die thematische Ausrichtung von Data & Analytics bei Sopra Steria verantwortlich. In diesem Zusammenhang liegt sein Fokus auf dem Aufbau Innovativer datenbasierter Geschäftsmodelle mit dem Schwerpunkt Datenmanagement.
Thomas Müller verantwortet bei Sopra Steria das Competence Team (Big) Data Engineering. Seit fast zehn Jahren bringt er seine Expertise in unterschiedlichen Kundensituationen ein und ist ein wichtiger Ansprechpartner für das Partner-Netzwerk.
Lisa Schiborr ist Data & Analytics Expertin im Bankenbereich.
In diesem Zusammenhang liegt ihr Fokus auf dem Thema Data Management. Darüber hinaus verantwortet sie für Data & Analytics die Öffentlichkeitsarbeit und Durchführung von Data & Analytics Studien (biMA). 
Stefan Seyfert, Thomas Müller, Lisa Schiborr
Stefan Seyfert, Thomas Müller, Lisa Schiborr
Vortrag: Di 3.5
flag VORTRAG MERKEN

Vortrag Teilen

Zurück