The times given in the conference program of TDWI München digital correspond to Central European Time (CET).
By clicking on "EVENT MERKEN" within the lecture descriptions you can arrange your own schedule. You can view your schedule at any time using the icon in the upper right corner.
Data Lakehouse, Data Fabric, Data Warehouse, Data Lake, Data Mesh, Data Estate, Data Virtualisation, Data Vault ... was sind die Kriterien für eine anwendungsfallabhängige Auswahl einer Datenarchitektur? Was sind technische und was eher organisatorische Konzepte? Wie lässt sich das mit den Anforderungen an moderne analytische Datenplattformen von Governance über data quality bis responsibility übereinbringen? Begriffsbestimmung und Einordnung der Konzepte. Erfahrungen aus dem Projektgeschäft (herstellerunabhängig) -> Best-Practice-Ansätze
Zielpublikum: CIO, IT-Leiter:innen, IT-Architekt:innen, Data-Analyst:innen
Voraussetzungen: Interesse und ggf. offene Fragen
Schwierigkeitsgrad: Fortgeschritten
Alexander Jochum ist seit 30 Jahren tätig im Dienste der Informationen für Geschäftssteuerung - als Berater bei Information Ressources und bei Oracle und Mitbegründer von DATA MART Consulting im Jahre 1997.
Als Wirtschaftsingenieur schon immer sowohl an der fachlichen Fragestellung als auch an der technischen Umsetzung interessiert und hier in vielen internationalen Projekten von Konzernrechnungslegung bis eCommerce begeistert in den Projekten tätig.
Lukas Gomber unterstützt seit 7 Jahren als Berater Kunden dabei ihre analytischen Fragestellungen auf der passenden Plattform selbst zu beantworten. In den letzten Jahren hieß das vor allem der Aufbau analytischer Datenplattformen in verschiedenen Cloud-Umgebungen. Zunächst als Statistiker und Marketinganalyst und seit 2019 als Senior Consultant bei DATA MART, hat sich ein Fokus für Handelsunternehmen und deren schnell wachsende Datenbedürfnisse entwickelt.
Der Modern Data Stack hat die letzten Jahre deutlich an Popularität gewonnen. Wie schlagen sich etablierte Best-of-Suite-Anbieter im Vergleich? Die Vielfalt an Ansätzen für Data & Analytics Cloud-Architekturen wächst und gewinnt an Dynamik. Nach dem Fail-Fast-Ansatz müssen Komponenten ihren Wert beweisen oder werden ausgetauscht.
In dem Vortrag wird der Frage nachgegangen, was die Stärken einer 'Best of Breed'-Architektur im Sinne des Modern Data Stack sind und wann integrierte Lösungsanbieter wie z. B. SAP die Nase vorn haben.
Zielpublikum: CDO, CIO, Verantwortliche Data & Analytics, Datenarchitekt:innen
Voraussetzungen: Grundwissen Data & Analytics in der Cloud von Vorteil
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Der Modern Data Stack ist kein klar abgegrenzter Begriff. Jedoch kann dieser als ein Gegenentwurf zu den großen etablierten Anbietern verstanden werden, welche alles aus einer Hand anbieten.
Neue Entwicklungen in der Cloud, ein agiles Mindset und der hohe Bedarf von zunehmend datengetriebenen Unternehmen an neuen analytischen Fähigkeiten treiben den Markt zu neuen Funktionen und dem optimalen Fit auf die Unternehmensstrategie. Die großen Anbieter wie SAP, Microsoft oder AWS jedoch bieten ein weitgehendes Komplettangebot für Data & Analytics, ermöglichen eine hohe Interoperabilität ihrer Komponenten und sind oft in den Unternehmen schon etabliert.
Die hohe Dynamik bei aktuellen Cloudangeboten erschwert ein klares Bild der Vor- und Nachteile der unterschiedlichen Ansätze. Der Vortrag wirft den Blick auf die wesentlichen Punkte und gibt Orientierung zu typischen Fragestellungen.
Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einstieg bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/peter-baumann/
Jonas Holthuysen unterstützt seine Kunden auf dem Weg zur datengetriebenen Organisation in verschiedenen Rollen. Er greift in umfangreichen, internationalen Implementierungsprojekten als Architekt, Projekt- und Teamleiter auf langjährige SAP-Erfahrung zurück. Dieses Know-how nutzt er zunehmend zur technologieunabhängigen Architektur- und Strategieberatung im Kontext Data & Analytics, sodass Organisationen den größtmöglichen Mehrwert aus Daten ziehen können.
Rolls-Royce Power Systems has been for decades at the forefront of innovation and customer experience. The company is taking a holistic approach to data exploitation as it sets itself up for the future and transforms from a traditional engine manufacturer to a provider of integrated & sustainable solutions. Join this session with Aleksander Giece to learn how Rolls-Royce Power Systems is modernizing its data architecture to meet evolving business needs and drive new levels of performance.
Target Audience: Data Engineers, Data Scientist, Data Architects, Data and Analytics Manager, Chief Data Officer (CDOs), Chief Information Officer (CIOs), Data Analysts, Heads of Data Integration etc.
Prerequisites: Basic knowledge of data governance, analytics, especially data architecture, data warehousing and data transformation processes and understanding of these in the larger organizational context to achieve the business goals.
Level: Advanced
Aleksander Giece is a seasoned Technology professional with over 20 years of experience in the data and analytics space. He has been instrumental in consulting, architecting, and designing data processing and data storage solutions in diverse industries. In his current role as an Enterprise Data Architect at Rolls Royce Power Systems, Aleksander is laying the foundation for a more modern data architecture in a hybrid environment to create a high-performance business.
Der Modern Data Stack ist in aller Munde. Aber nicht nur der Modern Data Stack, sondern auch für die Zusammenarbeit im Analytics Engineering-Team ergeben sich dadurch neue Möglichkeiten, und darüber hinaus kann die Zusammenarbeit mit dem Fachbereich auf neue Beine gestellt werden. Aber welche Tools haben sich bewährt und was sind die Einsatzzwecke? Konzentriert wird sich in dieser Session auf Visual Studio Code und sinnvolle Erweiterungen für eine optimierte Entwicklerumgebung.
Zielpublikum: Data Engineers, Analytics Engineers und DWH-Entwickler:innen
Voraussetzungen: Basiswissen dbt/Analytics Engineering
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
In diesem Vortrag werden Sie einen Einblick in die Welt des Analytics Engineering bekommen und erfahren, wie Sie Ihren Workflow optimieren und effektiver zusammenarbeiten können. Ein wichtiger Bestandteil dabei ist die Zusammenarbeit im Team. Um einen reibungslosen Workflow zu gewährleisten, ist es entscheidend, die richtigen Tools und Arbeitsumgebungen zu nutzen. Visual Studio Code bietet hierfür eine Vielzahl an Möglichkeiten. Durch die Verwendung von empfohlenen Erweiterungen kann das Analytics Engineering-Team noch effizienter zusammenarbeiten.
Unter anderem SqlDBM, dbt, Snowflake, Jira, Confluence und ChatGPT sind nun die Stars auf dem Spielfeld.
Welche Vorteile ergeben sich aus der Nutzung und Einbindung moderner Werkzeuge in die VS Code-Entwicklungsumgebung?
Können diese Werkzeuge die Produktivität steigern und den Entwicklungsprozess effizienter machen?
Darauf möchten wir in dieser Session eingehen und Antworten unter anderem anhand eines Praxisbeispiels liefern.
Neben dem unschätzbaren Methodenwissen, welches beim Analytics Engineering nicht an Bedeutung verloren hat, kommen jetzt echte Innovationen.
Wir laden alle Interessierten ein, sich unsere Ansicht und Erfahrungen anzuhören und mitzudiskutieren, wie man das Potenzial des Analytics Engineering-Teams am besten ausschöpfen kann.
Oliver Cramer ist Owner Data Provisioning bei Aquila Capital. Als Produktverantwortlicher Data Warehouse ist er für die Anleitung verschiedener Teams zuständig. Die dafür notwendigen Richtlinien und die Erstellung von Standards liegen ebenfalls in seiner Verantwortung. Sein derzeitiges Hauptthema ist das Aufbauen größerer Teams, welche im Analytics Engineering-Bereich zusammenarbeiten.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/oliver-cramer/
Florian Dindorf ist Consultant bei b.telligent. Er arbeitet seit 7 Jahren im BI-Bereich. Erst als dualer Student und Entwickler in einem Handelsunternehmen und anschließend als Berater. Der Fokus liegt dabei im BI-Backendbereich und im Data Engineering mit einer Passion für den Modern Data Stack.
Dbt hat sich als das ELT-Tool der Wahl des Modern Data Stack etabliert und erfreut sich immer größerer Beliebtheit. Das Tool ist Code-basiert und kann für SQL basierte ELT-Prozesse zur Transformation von Daten genutzt werden. Da es sich häufig noch nicht im produktiven Einsatz befindet, aber von vielen als mögliches Tool geprüft wird, wollen wir unsere Erfahrungen teilen, um den Einstieg zu erleichtern. Wir stellen dbt in diesem Vortrag praktisch vor, zeigen, wie es sich in der Nutzung anfühlt, und berichten über unsere Projekterfahrungen.
Zielpublikum: Data Engineers, Architekt:innen
Voraussetzungen: Grundkenntnisse in SQL und ELT-Prozessen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Dbt hat sich als das ELT-Tool der Wahl des Modern Data Stack etabliert und erfreut sich immer größerer Beliebtheit. Das Tool ist Code-basiert und kann für SQL basierte ELT-Prozesse zur Transformation von Daten genutzt werden. Da es sich häufig noch nicht im produktiven Einsatz befindet, aber von vielen als mögliches Tool geprüft wird, wollen wir Erfahrungen aus unseren Projekten teilen, um den Einstieg zu erleichtern. Wir stellen dbt in diesem Vortrag praktisch vor, zeigen, wie es sich in der Nutzung anfühlt, und berichten über unsere praktischen Erfahrungen aus verschiedenen Projekten.
Dabei gehen wir im Laufe des Vortrages u. a. auf die folgenden Themen ein:
- Dbt - Was ist das überhaupt? Installation und Einbettung in den Modern Data Stack.
- Dbt - Projektaufbau und erste Schritte. Was darf man von Anfang an beachten?
- Dbt - Automatisierung und Templating. Wie kann dbt das Coden erleichtern?
- Dbt - Packages. Wie können die Erweiterungen helfen?
- Dbt - Data Vault mit dbt.
- Dbt - run. Wie können dbt jobs ausgeführt werden und wie helfen einem Tags dabei?
- Dbt - Tests. Wie können ELT-Prozesse mit dbt getestet werden?
- Dbt - Einbindung in CI/CD. Deployment und Orchestrierung in Pipelines.
- Dbt - Was geht noch? Python zur Transformation und Definition von Metriken.
Am Ende des Vortrags freuen wir uns auf eine rege Diskussion und einen Austausch: Was sind Ihre Erfahrungen mit dbt?
Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet im Bereich Corporate Development der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.
Seit über einem Jahrzehnt berät Sven Röhl in Analytics-Projekten. In dieser Zeit konzeptionierte, entwickelte und betreute er unterschiedlichste DWH-Lösungen - vom On-Prem-BI-System bis hin zur Cloud-only-Analytics-Lösung. Aktuell liegt sein Hauptaugenmerk im Bereich Datenstrategie und Cloud-Architekturen im Analytics-Bereich.
Stell Dir vor, Du könntest Deine Datenplattform ohne Widerstand beladen, Rohdaten aus heterogenen Quellen einfach sicher persistieren, Schema Drift wäre auch kein Problem und eine automatische Historisierung inclusive. All das ohne eine Zeile Code, rein durch Konfiguration. Als ob das nicht genug wäre, erstellst Du auf Knopfdruck eine vollständige Sandbox mit allen Daten für die weitere Entwicklung. Geht nicht? Geht doch! Wir zeigen Dir, wie die Kombination von Loading Framework, Snowflake und Datavault Builder genau das ermöglicht.
Zielpublikum: Data Engineers, Data Architects, Entscheider:innen, Solution Engineers
Voraussetzungen: Grundverständnis von Infrastruktur, Cloud Computing und Data Vault
Schwierigkeitsgrad: Fortgeschritten
Daniel works as a Cloud Data Warehouse Architect at Siemens Financial Services GmbH in Munich. He has many years of experience in data-intensive BI and analytics projects. As the lead data architect, he is responsible for the development and expansion of a new cloud data platform. His focus is on cloud architecture, data integration, data modeling, and automation.
Michael Bruckner has over 10 years of experience working in various roles and industries in the field of business intelligence, data analytics, data engineering, and data warehousing. At Siemens Financial Services, he currently leads the Data Management department within the IT department and is driving the development of an enterprise-wide, cloud-based data platform as an IT Program Manager.
Als Principal Consultant legt Meik Truschkowski den Fokus auf Business Intelligence, Data Warehousing und Integration sowie Datenmodellierung, v. a. für die produzierende Industrie und die Finanzbranche. Er verfügt über mehr als 14 Jahre Erfahrung in der Analyse, Planung, Konzeption und Umsetzung branchenübergreifender Projektvorhaben einschließlich der Prozess- und Anforderungsanalyse und ganz besonders der Architektur von Daten.
Ilja Schneider ist Senior Berater mit den Schwerpunkten Data Warehouse, Daten-Integration und Reporting. Er berät seit 18 Jahren Kunden aus verschiedenen Branchen wie z. B. Finanzwesen und verarbeitende Industrie.
Seine Projekterfahrung umfasst dabei den kompletten Wertschöpfungsprozess der Analyse, Planung, Konzeption und Umsetzung von anspruchsvollen Projektvorhaben.
Vortrag Teilen