Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Thema: Praxisbeispiele
- Dienstag
11.06. - Mittwoch
12.06. - Donnerstag
13.06.
Stellen Sie sich vor, Sie haben in einem Großunternehmen als Daten-Architekt einer BI-Initiative mit ca. 160 Daten-Enthusiasten aus zentraler IT, Business Units und Zentralabteilungen die Aufgabe, die Architektur zu gestalten. Ist das wie einen Sack Flöhe zu hüten? Wie prägt ein 'people first'-Ansatz die Architekturarbeit? Und welchen Beitrag leisten aktuelle technische und organisatorische Ansätze wie Cloud, Data Marketplaces oder Data Mesh dabei?
Zielpublikum: Data Engineer, Project Leader, Decision Makers, Architects
Voraussetzungen: keine
Schwierigkeitsgrad: Basic
Edgar Kaemper ist Architecture Guide bei Bosch im Bereich xBI (Cross Business Intelligence). Er hat in Groß- und mittelständischen Unternehmen Big-Data-Architekturen und Data-Warehouse-Services (SaaS) aufgebaut und betrieben.
Edgar Kaemper ist Sprecher auf Anwendertreffen und Konferenzen.
Nebenberuflich ist er Vorsitzender einer Stiftung und unterstützt als Perspektivenentwickler einen Jugendverband mit > 50.000 Ehrenamtlichen in Change-Prozessen.
Wir klären, warum die Kombination aus Data Mesh und Data Vault DWH einen entscheidenden Wettbewerbsvorteil in einem dynamischen Umfeld birgt. Und zeigen auf, wie mittels Databricks und dbt die Transformation von einem klassischem DWH hin zu einer modernen Lakehouse-Architektur gelingt. Neben einem technischen 'deep dive' in die Data-Vault-Herausforderungen beinhaltet der Vortrag einen Erfahrungsbericht. Wir beantworten, wie es uns gelungen ist, ein für die Analysten neues Data-Vault-Konzept in einer dezentralen Daten-Umgebung zu implementieren.
Zielpublikum: Data Engineer, Data Architekt, Project Leader, Data Analyst
Voraussetzungen: Grundkenntnisse in Data Vault 2.0 und Data Mesh
Schwierigkeitsgrad: Basic
Extended Abstract:
- Warum birgt die Kombination aus Data Mesh und Data Vault Warehouse einen entscheidenden Wettbewerbsvorteil in einem sehr dynamischen Umfeld?
- Wie entsteht eine Synergie zwischen dezentralem Mesh und zentralem DWH?
In diesem Vortrag wollen wir genau diese Fragestellungen beantworten. Und zeigen auf, wie - mittels Databricks und dbt - die Transformation von einem sehr klassischem DWH hin zu einer modernen Lakehouse-Architektur gelingt.
Seit dem Start der Flaschenpost in Münster umfasst das Liefergebiet mehr als 200 Städte in ganz Deutschland. Das führt zwangsläufig auch datenseitig zu immer neuen und steigenden Anforderungen.
Neben einem technischen 'deep dive' in die Data-Vault-Herausforderungen innerhalb dieser Umgestaltung beinhaltet der Vortrag einen Erfahrungsbericht. Wir beantworten, wie es uns gelungen ist, ein für die Datenanalysten völlig neues Data-Vault-Konzept in einer dezentralen Daten-Umgebung zu implementieren.
Vera Melang verfügt über 9 Jahre Berufserfahrung im Bereich Business Intelligence, Data Warehouse Architektur und Reporting über viele Branchen hinweg. Als Teamleiterin Data Warehouse und Data Engineer hat sie viele Projekte im Bereich BI und DWH absolviert. Zurzeit baut sie zum zweiten Mal ein Data Vault basiertes Data Warehouse.
Marco Lohaus verfügt über mehr als 10 Jahre Erfahrung im Bereich Business Intelligence, Data Science und Dashboarding mit besonderen Fachkenntnissen im E-Commerce.
Im Rahmen seiner Tätigkeit als BI-Leiter, Management-Berater und Architekt hat er Projekte in den Bereichen Reporting, Big Data, DWH, Digitalisierung und Data Science verantwortet.
Vortrag Teilen
Dies ist die Fortsetzung zu unserer Reise im Bereich Daten mit Fokus auf einen End-to-End Use-Case. SENEC ist ein Anbieter intelligenter Lösungen für Energiespeicherung und Photovoltaik mit Fokus auf erneuerbaren Energien. Im letzten Jahr haben wir im Vortrag zum Modern Data Stack unsere neu eingeführte Datenplattform vorgestellt. Dieses Mal zeigen wir euch einen Business-Use-Case und ihr begleitet uns virtuell durch 2 Sprints, wie dieser von der Anforderung, über Datenintegration und Data Governance bis hin zum Dashboard zügig Mehrwert bringt.
Zielpublikum: Data Engineers, Analyst:innen, Entscheider:innen, Projektmanager:innen, Architekt:innen
Voraussetzungen: Erfahrung in der Arbeit mit DWHs, Erfahrung in der Datenanalyse sowie Power BI oder einem anderen BI-Tool
Schwierigkeitsgrad: Advanced
Lisa-Marie Krause ist studierte Mathematikerin und hat in der Vergangenheit im Bankensektor wertvolle Beratungserfahrung gesammelt. Im Herbst 2021 wechselte sie zur SENEC, wo sie als Data Engineer ihre Karriere fortsetzt. Seit ihrem Eintritt spielt sie eine zentrale Rolle in der Entwicklung und kontinuierlichen Verbesserung der Data and Analytics-Plattform (DAP). Seit dem 1. Januar 2024 übernimmt sie die Rolle des Data Architect, mit dem Fokus auf fortlaufende architektonische Entwicklung der Datenplattform.
Unternehmen setzen auf den Wandel zur Data Driven Company. Dieser Pfad birgt mehr als nur technologische Herausforderungen. Es ist wichtig, auch die Menschen, ihre Bedürfnisse und Ängste bei der Transformation zur Data Driven Culture zu verstehen. In diesem Vortrag erfahren Sie nicht nur, wie Sie diesen Change gut begleiten, sondern auch wie die congstar GmbH ihre Systeme modernisieren und dabei die Fachseiten erfolgreich mitnehmen konnte. Und wie sie damit eine bahnbrechende Datenkultur schuf.
Zielpublikum: Project Leader, Product Owner, Decision Makers, Developers
Voraussetzungen: Grundkenntnisse
Schwierigkeitsgrad: Basic
Janine Ellner ist als Lead Consultant für OPITZ CONSULTING Deutschland GmbH im Bereich Analytics tätig. Hier liegt ihr Schwerpunkt auf der ganzheitlichen Betreuung des Kunden. Dies umfasst die Analyse von Anforderungen, die Unterstützung bei fachlichen Fragestellungen sowie die Weiterentwicklung von DWH-Systemen. Ihr besonderes Interesse gilt Data-Culture-Themen sowie innovativen Technologien und modernen Analytics-Werkzeugen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/janine-ellner/
Sebastian Pospiech ist Lead Consultant für OPITZ CONSULTING Deutschland GmbH im Bereich Analytics. Seine Schwerpunkte liegen in der Planung und Durchführung von agil gestalteten Analytics-Projekten. Er ist überzeugt davon, dass datengetriebene Kulturen in Organisationen dabei helfen können, effizientere, nachhaltigere und bessere Produkte und Dienstleistungen zu erzeugen, da es Menschen und Abteilungen auf einer sachlichen Ebene in den gegenseitigen kreativen und sachlichen Austausch bringt.
Vortrag Teilen
Auch für die weltweit tätige Helm AG gewinnt der moderne Umgang mit Daten zunehmend an Bedeutung. Der Vortrag beschreibt, wie das Unternehmen Daten als wesentliche Informationsquelle und als Basis für Entscheidungen etabliert und sichergestellt wird, dass alle Nutzenden die notwendigen Informationen zur richtigen Zeit erhalten. Die Herausforderungen bestehen dabei vielmehr darin, moderne Arbeitsweisen in Bezug auf Daten einzuführen. Technisch wurde bei der Umsetzung auf moderne, automatisierte und skalierende Komponenten gesetzt.
Zielpublikum: ArchitektInnen, Geschäftsführung, C-Level, Abteilungs-/Bereichsleitung, Product Owner, BICC-Leitung
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced
Extended Abstract:
Es begann mit der Vorstellung vier unterschiedlicher BI-Tools. Die HELM AG, ein traditionsreiches Hamburger Familienunternehmen mit über 120-jähriger Geschichte, gehört heute zu den weltweit größten Chemie-Marketingunternehmen und sichert mit mehr als 100 Niederlassungen, Verkaufsbüros und Beteiligungen in über 30 Ländern durch spezifische regionale Kenntnis den Zugang zu den wichtigsten Märkten. Kein Wunder also, dass ein zeitgemäßer Umgang mit den Daten des Unternehmens eine Voraussetzung für den Erfolg der HELM AG darstellt. Dieser war jedoch mit den aktuellen Werkzeugen nur noch schwer in Einklang zu bringen. Zuerst wurde das Problem bei der aktuellen BI-Lösung gesucht., aber während der Vorstellung der möglichen Kandidaten identifizierte die Helm AG zusammen mit dem Data Strategy & Analytics-Experten areto die tatsächlichen Probleme, und es wurde allen Beteiligten schnell klar, dass die Herausforderungen nur zu bewältigen waren, wenn die Helm AG das Thema Analytics ganzheitlich betrachten und umsetzen würde Im Folgenden hielt areto eine maßgeschneiderte Workshopserie mit unterschiedlichen Beteiligungen seitens der Helm AG ab.
Mittels Data Strategy Workshops wurde die Vision und die Erwartungen des Unternehmens an einen modernen, analytischen Umgang mit Daten geklärt und ein grundsätzlicher Fahrplan für die Zukunft festgelegt. Die Umsetzung sollte Use Case-bezogen erfolgen, und so wurde mit dem Bereich “Chemicals” in weiteren Workshops über die relevanten Use Cases gesprochen, die dann als Backlog dokumentiert wurden. Gleichzeitig entwickelte areto auf Basis der identifizierten Anforderungen eine Architekturempfehlung, die dann intensiv diskutiert und letztendlich so umgesetzt wurde. Auf in die Zukunft mit dem Projekt “Flux”! Mit “Flux” schafft die Helm AG die Basis für die zentrale Daten- und Analytics-Plattform, die nun sukzessiv auf alle Bereiche des Unternehmens ausgeweitet wird. Das allseits präsente Thema “Data Mesh” wird in diesem Kontext zwar diskutiert, aber in einer für die Helm AG angepassten Variante eingesetzt. Die Umsetzung des Projektes “Flux” erfolgt in einzelnen Abschnitten (“Waves”), die jeweils separat geschätzt wurden. Die technische Umsetzung erfolgte agil an Scrum angelehnt. SAP und Salesforce sind und waren die wichtigsten Datenquellen. SAP befand sich auf dem kritischen Pfad des Projektes, da wegen des parallelen Rollouts von SAP auf andere Regionen wenig internes Personal unterstützen konnte. Mit Microsoft Azure und Snowflake wurden leistungsfähige und skalierende Komponenten gewählt. Die Automatisierung der Datenbewirtschaftung erfolgt über die Azure Data Factory (inkl. der SAP-Anbindung) und den Datavault Builder. Analysen und Dashboards werden über PowerBI implementiert.
Hallo liebe Community,
Ich denke und handle durch und durch Business Intelligence. Ich brenne für neue BI und Datenlösungen, die es einfach jeder und jedem ermöglicht, ihre und seine Arbeit Tag für Tag besser zu machen. Das lernte ich während meiner Beratungstätigkeit kennen und baute es danach weiter aus, sodass ich federführend an dem Aufbau der Datenplattform und der datengetriebenen Kultur bei hagebau Connect beteiligt war. Beim Global Player HELM AG startete ich mit dem Auftrag eine komplett neue globale Datenlandschaft aufzubauen, die für jedmögliche BI- und AI-Initiative der Zukunft gewappnet sein soll. Als Product Owner vereine ich die Anforderungen vom Business und entwickle zusammen mit dem Corporate BI Team die technische Plattform und vor allem auch die datengetriebene Kultur.
Data-Driven Self-Service sollte die Gegenwart sein und ist unabdingbar in der Zukunft.
Think BI(g)
Till Sander weist eine über 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/till-sander/
Im Zuge der Entwicklung neuer digitaler Lösungen im Bankengeschäft werden jeden Tag große Datenmengen erzeugt. Die Analyse dieser Daten unterstützt maßgeblich dabei, die Prozessabläufe in Sparkassen effizienter zu gestalten und kundenindividuelle Bedürfnisse zu verstehen.
Dazu werden Daten von Kundenreisen durch die Implementierung standardisierter Messpunkte in Prozessen ausgewertet und den Sparkassen zur Verfügung gestellt, um einen Einblick in die Prozessabläufe zu gewinnen und eine Vergleichbarkeit der Prozesse zu ermöglichen.
Die präzise Analyse der Prozesse mittels Process Mining schafft Transparenz und ist die Grundlage für die kundenzentrierte Weiterentwicklung. Im Rahmen dieses Vortrags werden praxisnahe Einblicke in die datengetriebene Prozessanalyse der Sparkassen Finanzgruppe gegeben.
Agenda
- Überblick
- Prozessanalyse in Customer Journeys
- Detailanalysen im Process Mining
- Fazit
Zielpublikum: Datenanalyst:innen, Entscheidungsfinder:innen
Voraussetzungen: Grundkenntnisse
Schwierigkeitsgrad: Basic
Nach seiner Promotion in 2017 hat Dr. Florian Bergmann bei synvert saracus seine Tätigkeit aufgenommen. Er arbeitet dort als Senior Lead Consultant und war bereits für diverse Kunden tätig. Seit Ende 2023 ist er bei der Finanz Informatik Projektmanager und Arbeitspaketleiter in der Vertriebssteuerung im Bereich Data & Analytics. Dort sind seine Schwerpunkte die Teamleitung und Projektleitung von diversen Projekten zur Bereitstellung von KPIs im OSPlus Kontext.
Sophie-Theresa Kleinke ist Mathematikerin mit einem Fokus auf Data Science. Bei der Finanz Informatik (FI), dem zentralen IT-Dienstleister der Sparkassen, liegt ihr Schwerpunkt auf der Analyse und Optimierung von Geschäftsprozessen, im Speziellen im Bereich Process Mining, wo sie von der Datenaufbereitung im Backend mit SQL bis zur Visualisierung im Frontend mit einem gängigen BI-Tool tätig ist.
Vortrag Teilen
Babymarkt.de wollte sich noch stärker als bisher auf den Kunden fokussieren und brauchte dafür eine entsprechende Datengrundlage. Ein Audit zeigte die Schwächen der historisch gewachsenen existierenden Dateninfrastruktur auf. Ausgehend von den erfolgversprechendsten Use Cases wurde daher eine neue Best-of-Breed-Datenplattform in der Cloud konzipiert und implementiert. In diesem Vortrag stellen wir die gemachten Erfahrungen vor und geben Tipps für Unternehmen, die sich in einer ähnlichen Situation befinden.
Zielpublikum: Manager im Datenbereich, Datenarchitekten, Datenstrategen
Voraussetzungen: Grundkenntnisse in Datenmanagement und -organisation
Schwierigkeitsgrad: Basic
Jan Friedemeyer begleitet babymarkt.de bereits seit vielen Jahren und verantwortet aktuell die Bereiche Projektmanagement, Pricing, ERP und BI. In dieser Funktion deckt er ein breites Spektrum an relevanten Themen ab und treibt unter anderem die Modernisierung der Dateninfrastruktur aktiv voran.
Mike Kamysz wird durch die Kombination aus technischer Expertise und seiner Erfahrung im Management Consulting zum idealen Sparringspartner für den Aufbau einer datengetriebenen Organisation.
Zuletzt leitete er das Analytics Engineering & BI Team bei DEPT, mit welchem er branchenübergreifend die Implementierung moderner Datenplattformen betreute. Diese Arbeit setzt er nun bei The Data Institute fort.
Welches sind die Schlüsselkomponenten erfolgreicher Analytics-Projekte? Sind Data Culture, Data Literacy, Data Mesh und Decision Intelligence echte Game-Changer? Erfolgreiche Analytics-Projekte setzen auf mehr als nur moderne Technologie und Hype-Themen - sie legen ihren Fokus auf:
- Potenziale bei der Datenstrategie
- Verbesserte Einbindung der Stakeholder
- Etablierung von Vorgehensmethoden
- Einführung einer Business-Analyse
- Umsetzung der Data Governance
Der Vortrag zeigt, wie diese Methoden zusammenwirken und auch Ihr Projekt voranbringen.
Zielpublikum: Projektleiter, Data Manager, Datenarchitekten
Voraussetzungen: Analytics-Projekterfahrung und -Methodenkenntnisse
Schwierigkeitsgrad: Advanced
Extended Abstract:
Willkommen zu einem Vortrag über die Schlüsselkomponenten erfolgreicher Analytics-Projekte. Wir erkunden, warum technisches Know-how und erstklassige Werkzeuge alleine nicht genug sind und wie Sie Ihr nächstes Analytics- & Business-Intelligence-Projekt mit entscheidenden Best Practices auf ein neues Niveau heben können.
Auch im Jahr 2024 sind Hype-Begriffe wie Data Culture, Data Literacy, Data Mesh und Decision Intelligence allgegenwärtig. Sind dies echte Game-Changer?
Erfolgreiche Analytics-Projekte setzen auf mehr als nur modernste Technologie, hervorragende Tools und aktuelle Hype-Themen, um einen Business-Mehrwert hervorzubringen.
Dieser Vortrag behandelt erfolgreiche Projektaspekte aus den letzten 24 Monaten. Folgende Best Practices werden detaillierter besprochen:
- Definition konkreter Potenziale in einer Datenstrategie:
Wie können wir mit einem Blick aufs große Ganze das Unternehmen mit Analytics-Initiativen am besten voranbringen und proaktiv zukünftige Geschäftsanforderungen adressieren? - Verbesserung der Einbindung von Fachbereichen und Stakeholdern:
Wie können wir den Dialog mit den Business-Experten und internen Kunden verbessern, von ihrem Wissen profitieren und ihren Vorstellungen weiter entgegenkommen? - Holistische Etablierung von Vorgehens- & Entwicklungsmethoden:
Wie können uns strukturierte Vorgehensmodelle dabei helfen, nicht nur klare Entwicklungsziele zu formulieren und Fehler zu minimieren, sondern auch eine agile Flexibilität zu bewahren, um auf sich ändernde Anforderungen zeitnah reagieren zu können? - Einführung einer übergreifenden, integrierten Business- und Anforderungsanalyse:
Wie können wir eine nachhaltige Lösung entwickeln, die sowohl den geschäftlichen Anforderungen als auch den individuellen Bedürfnissen der Stakeholder gerecht wird? - Frühe individualisierte Umsetzung von Data Governance und Change Management:
Wie können wir frühzeitig eine maßgeschneiderte Umsetzung von Data Governance und Change Management sicherstellen, um eine reibungslose Integration in die bestehenden Strukturen und Prozesse zu gewährleisten?
In diesem Vortrag erfahren Sie, wie die Methoden ineinandergreifen. Ganz gleich, ob Sie auf der Suche nach einem klaren Leitfaden für Ihr nächstes Projekt oder nach neuen Impulsen für laufende Initiativen sind - im Vortrag finden sich neue Anregungen.
Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Juli 2022 ist er Geschäftsführer bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/klaus-dieter-schulze/
Peer M. Carlson ist Principal Consultant bei b.telligent und seit vielen Jahren im Bereich Business Intelligence & Analytics tätig. Sein Interesse gilt insbesondere Datenarchitekturen, Datenmodellierung, Data Vault, Requirements Management und agilen Methoden. Er unterstützt sowohl die fachlichen Anwender als auch die technischen Entwickler beim übergreifenden Verständnis der Projektanforderungen. Peer M. Carlson ist Mitgründer der Deutschsprachigen Data Vault User Group (DDVUG).
Vortrag Teilen
In einer Case Study wird gezeigt, wie die Schweizer Biomed AG mit Yotilla, einer Lösung mit einem neuartigen DWH-Automatisierungsansatz, die DWH-Entwicklung trotz eingeschränkt verfügbarer Ressourcen ermöglicht und beschleunigt hat. Der neue Ansatz automatisiert basierend auf einem fachlich orientierten Conceptual Model die logische und physische Data-Vault-Datenmodellierung, sodass das DWH ohne Data-Vault-Know-how erstellt und genutzt werden kann. Im Vortrag werden die Herausforderungen und der Kundennutzen des neuen Ansatzes vorgestellt.
Zielpublikum: Verantwortliche Data & Analytics, BI- und DWH-Manager
Voraussetzungen: Data-Warehouse-Grundwissen
Schwierigkeitsgrad: Basic
Extended Abstract:
Die Entwicklung eines Data Warehouse ist aufwendig und zeitraubend. Der Fachkräftemangel und beschränkte Ressourcen sind eine große Herausforderung, besonders im Mittelstand.
Data-Warehouse-Automatisierungslösungen können die Entwicklung beschleunigen und setzen dabei meist auf Data-Vault-Modellierung. Während das physische Data-Vault-Modell vollständig automatisiert wird, ist das logische Data-Vault-Modell manuell zu erstellen oder auf Basis eines generierten Vorschlags zu überarbeiten. Somit ist weiterhin eine ausgeprägte technische Expertise und Data-Vault-Know-how erforderlich.
Die Schweizer Biomed AG hat mit Yotilla einen neuen Ansatz verfolgt und konnte so ausgehend von einem fachlich orientierten konzeptuellen Modell (Conceptual Model) sowohl die physische als auch die logische Datenmodellierung vollständig automatisieren. In der Folge ist weniger Data-Vault-Know-how erforderlich.
Durch diesen Ansatz entsteht eine Vielzahl weiterer Automatisierungsmöglichkeiten: So kann z. B. die Business-Logik als Teil des Conceptual Model definiert und deren Implementierung ebenfalls vollständig automatisiert werden.
Eine besondere Herausforderung bei der Biomed AG war, dass die Daten der Geschäftsobjekte aus vielen verschiedenen Quellen stammen, mit teilweise sich überschneidenden Daten.
Im Vortrag werden folgende Fragestellungen betrachtet:
- Welche Vorteile hat der Ansatz?
- Wie wird ein Source System Data Vault vermieden?
- Wie kann Business-Logik ohne Kenntnisse des Data-Vault-Modells implementiert werden?
- Welche Voraussetzungen müssen erfüllt sein?
- Wie sind die Erfahrungen mit dem Ansatz bei der Biomed AG?
- Welche Möglichkeiten bringt dieser Ansatz für die Zukunft?
Roland A. Vögeli hat über 26 Jahre Erfahrung in Core Development, Technologie- und Prozessberatung, Application Architecture, Enterprise Architecture und Data Warehousing. Als Experte und als verantwortlicher Manager macht er sich für den Ansatz Data Driven Organisation stark. Er hat über die Zeit auf verschiedenen Plattformen Data Warehouses aufgebaut. Als Enterprise Architect bei Biomed AG zeichnet er auch verantwortlich für das Enterprise Data Warehouse.
Reinhard Mense weist mehr als 20 Jahre Erfahrung im Bereich Business Intelligence und Data Warehousing auf. Als Mitbegründer und CTO baute er über mehr als 10 Jahre ein erfolgreiches BI-Beratungsunternehmen auf. Seine Leidenschaft gilt der DWH-Automatisierung, die in einer Ausgründung der Yotilla GmbH für die Entwicklung einer neuartigen DWH-Automatisierungslösung mündete. Als Product Owner verantwortet er heute die Entwicklung von Yotilla bei der Exasol AG.
Vortrag Teilen
Die HAAS Mediengruppe reagiert mit einer Diversifizierung in digitale Dienstleistungen auf die zunehmende Relevanz des Digitalmarktes. Da der Umgang und die Interpretation von Daten in Zukunft immer bedeutsamer wird, passt sich HAAS den Gegebenheiten an und optimiert ihre Datenlandschaft mit Hilfe von The Data Institute.
Dieser Vortrag zeigt, wie die Aufnahme des Status quo in Sachen Datenlandschaft hilft, den Weg für die Modernisierung der eigenen Dateninfrastruktur in einer komplexen Stakeholderlandschaft zu ebnen.
Zielpublikum: Manager im Datenbereich, Datenstrategen, Data Architects
Voraussetzungen: Grundkenntnisse in Datenmanagement und -organisation
Schwierigkeitsgrad: Basic
Daniel Noll ist ein ausgewiesener Spezialist für das Thema Daten sowie Vertrieb und Marketing im Verlagsumfeld. Nach Stationen bei der Frankfurter Allgemeinen Zeitung und Republic ist er nun bei der HAAS Mediengruppe für die CRM- und BI-Abteilung verantwortlich, wo er die Modernisierung und Digitalisierung aktiv vorantreibt.
Mike Kamysz wird durch die Kombination aus technischer Expertise und seiner Erfahrung im Management Consulting zum idealen Sparringspartner für den Aufbau einer datengetriebenen Organisation.
Zuletzt leitete er das Analytics Engineering & BI Team bei DEPT, mit welchem er branchenübergreifend die Implementierung moderner Datenplattformen betreute. Diese Arbeit setzt er nun bei The Data Institute fort.
Vortrag Teilen
Die Scherdel GmbH setzt international Maßstäbe bei der Verarbeitung von metallischem Draht und Band. Das bestehende DWH auf Basis MSSQL, welches über 15 Jahre von verschiedenen Entwicklern aufgebaut wurde, wird Schritt für Schritt modernisiert und in der Azure Cloud aufgesetzt. Im ersten Schritt wurden die Grundlagen geschaffen und ein erster Cube umgesetzt. Als Lösung setzen wir auf MS Fabric, obwohl es erst mit Projektbeginn allgemein verfügbar war. Wir stellen das Projekt vor und berichten über unsere Erfahrungen mit Microsoft Fabric.
Zielpublikum: Data Engineers, Architekten, Projektverantwortliche
Voraussetzungen: Basiswissen Analytics
Schwierigkeitsgrad: Basic
Extended Abstract:
Die Scherdel GmbH setzt seit über 130 Jahren als mittelständisch geprägtes, inhabergeführtes Familienunternehmen international Maßstäbe bei der Verarbeitung von metallischem Draht und Band. Das bestehende DWH auf Basis MSSQL, welches über 15 Jahre hinweg von verschiedenen Entwicklern aufgebaut wurde, soll Schritt für Schritt modernisiert und in der Azure Cloud aufgesetzt werden. In einem ersten Schritt wurden die Grundlagen der neuen DIP (Dateninformationsplattform) geschaffen und ein erster Cube umgesetzt. Bei der Lösung setzen wir auf Microsoft Fabric, obwohl es erst nach Projektbeginn allgemein verfügbar war. Im Vortrag berichten wir über unsere ersten Erfahrungen und Herausforderungen in der Verwendung von Microsoft Fabric.
Benjamin Schenk ist seit nun 2 Jahren Teamlead Operating Enterprise Applications bei der SCHERDEL GmbH. Neben seinen Spezialkenntnissen für Datenbanken (MSSQL & Oracle) kümmert er sich um den Betrieb von Enterprise-IT-Services, egal ob OnPrem oder in der Cloud. Die Umsetzung eines Standards für den Betrieb von IT-Services und Automatisierung sind nur einige Teilgebiete seines Teams.
Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet im Bereich Corporate Development der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.
Viele Organisationen kennen das Problem: SAP-Daten sind für viele Use-Cases interessant, aber der Zugriff ist kompliziert oder sehr teuer. Unsere Lösung: Eine Spark Data Source für SAP, die ohne zusätzliche Software oder Module direkt von Databricks auf SAP-Systeme zugreift und damit native Weiterverarbeitung in der Spark-Welt erlaubt. Am Beispiel des Data-Stacks der GEMA zeigen wir, wie die SAP-Integration unsere Data-Mesh-Plattform im Self-Service beflügelt und welche Use-Cases wir damit umsetzen konnten.
Zielpublikum: Data Engineers und alle Daten-Rollen in Organisationen mit SAP-Quellsystemen
Voraussetzungen: Grundkenntnisse in PySpark
Schwierigkeitsgrad: Basic
Martin Zürn treibt als Head of Data Engineering die Weiterentwicklung des Data-Stacks der GEMA voran. Seit 2 Jahren arbeitet die Verwertungsgesellschaft mit einer Self-Service-Datenplattform mit dezentraler Verantwortlichkeit. Aus vielfältigen Datenquellen entsteht so ein Lakehouse, das uns in eine digitale, datengetriebene Organisation transformiert.
Dr. Julius von Ketelhodt gestaltet und entwickelt seit vielen Jahren Data & Analytics-Projekte für namhafte Kunden aus verschiedenen Branchen. Sein Fokus liegt auf der Integration relevanter Daten aus verschiedenen SAP-Quellsystemen in führende Cloud-Datenplattformen. Als Product Lead leitet er ein Team, um die SAP-Integration weiterzuentwickeln und stetig zu vereinfachen. Sein Hintergrund liegt in der Physik mit Promotion im Bereich Seismologie.