Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Thema: Cloud
- Dienstag
11.06. - Mittwoch
12.06. - Donnerstag
13.06.
Stellen Sie sich vor, Sie haben in einem Großunternehmen als Daten-Architekt einer BI-Initiative mit ca. 160 Daten-Enthusiasten aus zentraler IT, Business Units und Zentralabteilungen die Aufgabe, die Architektur zu gestalten. Ist das wie einen Sack Flöhe zu hüten? Wie prägt ein 'people first'-Ansatz die Architekturarbeit? Und welchen Beitrag leisten aktuelle technische und organisatorische Ansätze wie Cloud, Data Marketplaces oder Data Mesh dabei?
Zielpublikum: Data Engineer, Project Leader, Decision Makers, Architects
Voraussetzungen: keine
Schwierigkeitsgrad: Basic
Edgar Kaemper ist Architecture Guide bei Bosch im Bereich xBI (Cross Business Intelligence). Er hat in Groß- und mittelständischen Unternehmen Big-Data-Architekturen und Data-Warehouse-Services (SaaS) aufgebaut und betrieben.
Edgar Kaemper ist Sprecher auf Anwendertreffen und Konferenzen.
Nebenberuflich ist er Vorsitzender einer Stiftung und unterstützt als Perspektivenentwickler einen Jugendverband mit > 50.000 Ehrenamtlichen in Change-Prozessen.
This session looks at how adoption of open table formats by data warehouse database management vendors and advances in SQL are making it possible to merge siloed analytical systems into a new federated data architecture supporting multiple analytical workloads.
Target Audience: Data architect, enterprise architect, CDO, data engineer
Prerequisites: Basic understanding of data architecture & databases
Level: Advanced
Extended Abstract:
In the last 12-18 months we have seen many different architectures emerge from many different vendors who claim to be offering 'the modern data architecture solution' for the data-driven enterprise. These range from streaming data platforms to data lakes, to cloud data warehouses supporting structured, semi-structured and unstructured data, cloud data warehouses supporting external tables and federated query processing, lakehouses, data fabric, and federated query platforms offering virtual views of data and virtual data products on data in data lakes and lakehouses. In addition, all of these vendor architectures are claiming to support the building of data products in a data mesh. It's not surprising therefore, that customers are confused as to which option to choose.
However, in 2023, key changes have emerged including much broader support for open table formats such as Apache Iceberg, Apache Hudi and Delta Lake in many other vendor data platforms. In addition, we have seen significant new milestones in extending the ISO SQL Standard to support new kinds of analytics in general purpose SQL. Also, AI has also advanced to work across any type of data.
The key question is what does this all mean for data management? What is the impact of this on analytical data platforms and what does it mean for customers? What opportunities does this evolution open up for tools vendors whose data foundation is reliant on other vendor database management systems and data platforms? This session looks at this evolution and helps vendors realise the potential of what's now possible and how they can exploit it for competitive advantage.
- The demand for data and AI
- The need for a data foundation to underpin data and AI initiatives
- The emergence of data mesh and data products
- The challenge of a distributed data estate
- Data fabric and how can they help build data products
- Data architecture options for building data products
- The impact of open table formats and query language extensions on architecture modernisation
- Is the convergence of analytical workloads possible?
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Bei Unternehmen, wie Swiss Life, die nicht aus einem datenbasierten Geschäftsmodell entstanden sind, hat die Auswertungsmöglichkeit von Daten zugenommen. Im Swiss Life EKV-Bereich hat dies zu vielen einzelnen Lösungen in der Datenlandschaft geführt. Um den Umgang mit Daten zu harmonisieren, wurden Zielbilder für eine moderne Datenorganisation und -architektur entwickelt, die nun implementiert werden. In diesem Vortrag erfahren Sie mehr über die Datenstrategie sowie die Erfolge und Herausforderungen, die mit deren Implementierung verbunden sind.
Zielpublikum: Entscheidungsträger (die eine moderne data & analytics Organisation aufbauen wollen)
Voraussetzungen: Grundverständnis von Datenorganisationen, Data Governance und Datenplattformen
Schwierigkeitsgrad: Basic
Extended Abstract:
In 2023 wurde für das EKV-Geschäft der Swiss Life in Zusammenarbeit mit der Alexander Thamm GmbH eine neue Datenstrategie entwickelt, welche den Rahmen für den zukünftigen Umgang mit Daten setzt. Sie soll im Zielbild die historisch gewachsene, fragmentierte und intransparente Datenlandschaft durch eine moderne, cloud-native Datenarchitektur als 'single source of interpretation' ersetzen und gleichzeitig hohe Mehrfachaufwände in der Datenbeschaffung und -aufbereitung durch eine effiziente 'Hub & Spoke'-Organisation reduzieren. So sollen in Zukunft datengetriebene Geschäftsprozesse und Entscheidungsfindungen gefördert und innovative Lösungen ermöglicht werden. In diesem Vortrag möchten wir über die Entwicklung der Datenstrategie und getroffene Design-Entscheidungen berichten, auf das erste halbe Jahr der Umsetzung der Strategie zurückblicken und über die technischen und organisatorischen Erfolge und Herausforderungen, die hiermit verbunden sind, reflektieren.
Livia Kaiser-Auernheimer ist Beraterin für Datenstrategie und Data Science bei der Alexander Thamm GmbH und unterstützte Swiss Life bei der Entwicklung ihrer Datenstrategie. Sie begeistert sich für datengetriebene Lösungen und Entscheidungsfindungen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/livia-kaiser-auernheimer/
Arne Steinkraus ist Leiter des Data & Analytics Hubs bei Swiss Life (EKV) Deutschland. Zudem hat er einen Lehrauftrag für statistisches Lernen an der TU Braunschweig. Er ist sowohl Data-Science- als auch Ökonometrie-begeistert.
Vortrag Teilen
Mit mehr als 1000 Nutzern auf der Cloud-Datenplattform muss DKV Mobility den nächsten Evolutionsschritt zur Data Driven Company gehen.
DKV Mobility nutzt Frosty von Snowflake, um Business Value für Non-Developer zu generieren, statt dem AI-Hype zu folgen.
Der Use Case erläutert den Why/How/What-Ansatz von DKV Mobility auf dem Weg zur Implementierung von Business-Modellen, die Generative AI enthalten. Abschließend wird auf die Do's & Don'ts eingegangen.
Zielpublikum: Entscheider, Interessierte an Generative AI
Voraussetzungen: keine
Schwierigkeitsgrad: Basic
Extended Abstract:
Mit einer voll ausgereiften Cloud-Datenplattform mit mehr als 1.000 Nutzern muss DKV Mobility den nächsten Evolutionsschritt hin zu einem datengesteuerten Unternehmen gehen.
Während sich andere Unternehmen auf den ChatGPT-Hype konzentrieren, nutzt DKV Mobility Frosty von Snowflake, um einen echten Business Value für Non-Developer im Unternehmen zu generieren.
Mit der richtigen Kombination aus Cloud-Datenplattform und Data-Governance-Konzept eröffnet Snowflake ein völlig neues Feld für die Nutzung definierter Business-Daten zur Generierung von Business Value. Der Use Case erläutert den Why/How/What-Ansatz von DKV Mobility auf dem Weg zur Implementierung von Business-Modellen, die Generative AI enthalten. Abschließend wird auf die Do's & Don'ts eingegangen.
Dr. Sönke Iwersen verantwortet seit mehr 15 Jahren Data & Analytics-Organisationen in verschiedenen Industrien (u.a. Telefónica, Handelsblatt, XING, Fitness First, HRS). Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/soenke-iwersen/
Vortrag Teilen
Im Vortrag wird die praktische Umsetzung einer Architektur auf Basis des modern Technology Stack (Einsatz von: DBT, Databricks, Dagster) im Kontext der Automobilindustrie gezeigt. Hierbei wird besonderer Fokus auf ein modernes Orchestrationswerkzeug gelegt, welches am Markt noch nicht so bekannt ist. Es wird auch übergreifend auf den Gesamtkontext eines Enterprise-Unternehmens hinsichtlich Data Governance, Data Security und Data Mesh sowie die Nutzung mehrerer Cloud-Hyperscaler eingegangen.
Zielpublikum: Data Engineers, BI Specialists, Data Managers, BI Solution Architects, Cloud Engineers
Voraussetzungen: Basiswissen über modernes Datenmanagement, Data Warehousing und BI
Schwierigkeitsgrad: Advanced
Tim Grützner arbeitet in seiner aktuellen Rolle als Produktmanager für Data Platforms and Products übergreifend für die Realisierung einer Datenplattform auf Basis des modern Technology Stack und verantwortet eine Großzahl von BI- und Dateninitiativen für die Marke Volkswagen Nutzfahrzeuge und in der Volkswagen AG. Er ist seit ca. 10 Jahren für Volkswagen tätig und hatte verschiedene Rollen im Kontext Data Management wie z.B. Head of BI für VW Nutzfahrzeuge in der Vergangenheit inne.
About 15 years ago, the finance sector pioneered data and analytics with developments like central Data Warehousing solutions and the establishment of BICC organizations. Recently, innovation has shifted towards public cloud and industries like automotive, significantly transforming the landscape. The finance sector, encountering similar challenges, is actively navigating the transition to the cloud. This presentation aims to highlight industry shifts in data management, addressing challenges and opportunities for the finance sector.
Target Audience: Everyone, who is interesting about the further development of data architecture for finance sector
Prerequisites: No prerequistes
Level: Basic
Dr. Xuanpu Sun currently serves as the Lead IT Architect for Data & Analytics at Landesbank Baden-Württemberg (LBBW). He possesses extensive research experience in the fields of Business Intelligence, Big Data, and Data Analysis. Throughout his career, he has worked in various industries, including manufacturing, banking, and automotive. His previous positions include the Lead Data Architect role at Mercedes-Benz AMG and the Bausparkasse Schwäbisch Hall.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/xuanpu-sun/
Vortrag Teilen
Auch für die weltweit tätige Helm AG gewinnt der moderne Umgang mit Daten zunehmend an Bedeutung. Der Vortrag beschreibt, wie das Unternehmen Daten als wesentliche Informationsquelle und als Basis für Entscheidungen etabliert und sichergestellt wird, dass alle Nutzenden die notwendigen Informationen zur richtigen Zeit erhalten. Die Herausforderungen bestehen dabei vielmehr darin, moderne Arbeitsweisen in Bezug auf Daten einzuführen. Technisch wurde bei der Umsetzung auf moderne, automatisierte und skalierende Komponenten gesetzt.
Zielpublikum: ArchitektInnen, Geschäftsführung, C-Level, Abteilungs-/Bereichsleitung, Product Owner, BICC-Leitung
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced
Extended Abstract:
Es begann mit der Vorstellung vier unterschiedlicher BI-Tools. Die HELM AG, ein traditionsreiches Hamburger Familienunternehmen mit über 120-jähriger Geschichte, gehört heute zu den weltweit größten Chemie-Marketingunternehmen und sichert mit mehr als 100 Niederlassungen, Verkaufsbüros und Beteiligungen in über 30 Ländern durch spezifische regionale Kenntnis den Zugang zu den wichtigsten Märkten. Kein Wunder also, dass ein zeitgemäßer Umgang mit den Daten des Unternehmens eine Voraussetzung für den Erfolg der HELM AG darstellt. Dieser war jedoch mit den aktuellen Werkzeugen nur noch schwer in Einklang zu bringen. Zuerst wurde das Problem bei der aktuellen BI-Lösung gesucht., aber während der Vorstellung der möglichen Kandidaten identifizierte die Helm AG zusammen mit dem Data Strategy & Analytics-Experten areto die tatsächlichen Probleme, und es wurde allen Beteiligten schnell klar, dass die Herausforderungen nur zu bewältigen waren, wenn die Helm AG das Thema Analytics ganzheitlich betrachten und umsetzen würde Im Folgenden hielt areto eine maßgeschneiderte Workshopserie mit unterschiedlichen Beteiligungen seitens der Helm AG ab.
Mittels Data Strategy Workshops wurde die Vision und die Erwartungen des Unternehmens an einen modernen, analytischen Umgang mit Daten geklärt und ein grundsätzlicher Fahrplan für die Zukunft festgelegt. Die Umsetzung sollte Use Case-bezogen erfolgen, und so wurde mit dem Bereich “Chemicals” in weiteren Workshops über die relevanten Use Cases gesprochen, die dann als Backlog dokumentiert wurden. Gleichzeitig entwickelte areto auf Basis der identifizierten Anforderungen eine Architekturempfehlung, die dann intensiv diskutiert und letztendlich so umgesetzt wurde. Auf in die Zukunft mit dem Projekt “Flux”! Mit “Flux” schafft die Helm AG die Basis für die zentrale Daten- und Analytics-Plattform, die nun sukzessiv auf alle Bereiche des Unternehmens ausgeweitet wird. Das allseits präsente Thema “Data Mesh” wird in diesem Kontext zwar diskutiert, aber in einer für die Helm AG angepassten Variante eingesetzt. Die Umsetzung des Projektes “Flux” erfolgt in einzelnen Abschnitten (“Waves”), die jeweils separat geschätzt wurden. Die technische Umsetzung erfolgte agil an Scrum angelehnt. SAP und Salesforce sind und waren die wichtigsten Datenquellen. SAP befand sich auf dem kritischen Pfad des Projektes, da wegen des parallelen Rollouts von SAP auf andere Regionen wenig internes Personal unterstützen konnte. Mit Microsoft Azure und Snowflake wurden leistungsfähige und skalierende Komponenten gewählt. Die Automatisierung der Datenbewirtschaftung erfolgt über die Azure Data Factory (inkl. der SAP-Anbindung) und den Datavault Builder. Analysen und Dashboards werden über PowerBI implementiert.
Hallo liebe Community,
Ich denke und handle durch und durch Business Intelligence. Ich brenne für neue BI und Datenlösungen, die es einfach jeder und jedem ermöglicht, ihre und seine Arbeit Tag für Tag besser zu machen. Das lernte ich während meiner Beratungstätigkeit kennen und baute es danach weiter aus, sodass ich federführend an dem Aufbau der Datenplattform und der datengetriebenen Kultur bei hagebau Connect beteiligt war. Beim Global Player HELM AG startete ich mit dem Auftrag eine komplett neue globale Datenlandschaft aufzubauen, die für jedmögliche BI- und AI-Initiative der Zukunft gewappnet sein soll. Als Product Owner vereine ich die Anforderungen vom Business und entwickle zusammen mit dem Corporate BI Team die technische Plattform und vor allem auch die datengetriebene Kultur.
Data-Driven Self-Service sollte die Gegenwart sein und ist unabdingbar in der Zukunft.
Think BI(g)
Till Sander weist eine über 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/till-sander/
Die Finanzindustrie hat es bei der Einführung von Cloudlösungen schwerer als andere Branchen. In vielen Fällen dominieren Sorgen, mit der Einführung von Cloudtechnologien gegen bankrechtliche Vorgaben wie das Kreditwesengesetz oder gesetzliche Vorgaben der Bundesanstalt für Finanzdienstleistungen zu verstoßen. Dieser Sorgen sind sich Cloudanbieter bewusst und Lösungen wie Power BI oder Snowflake implementieren von Haus aus Features, um die Einführung von Cloudtechnologen im Einklang mit bankrechtlichen Vorgaben zu ermöglichen.
Zielpublikum: Projektleiter, Entscheidungsträger
Voraussetzungen: Wissen im Bankenumfeld
Schwierigkeitsgrad: Basic
Extended Abstract:
Cloudtechnologien sind in vielen Branchen auf dem Vormarsch. Die Finanzindustrie als stark reguliertes Gebiet hingegen hat es bei der Einführung von Cloudlösungen deutlich schwerer als andere Branchen. In vielen Fällen dominieren Sorgen, mit der Einführung von Cloudtechnologien gegen bankrechtliche Vorgaben wie das Kreditwesengesetz oder gesetzliche Vorgaben der Bundesanstalt für Finanzdienstleistungen (BaFin) zu verstoßen. Dieser Sorgen sind sich Cloudanbieter bewusst und Lösungen wie Power BI oder Snowflake implementieren von Haus aus Features, um die Einführung von Cloudtechnologen im Einklang mit bankrechtlichen Vorgaben zu ermöglichen. Im Vortrag stellen wir BaFin-Vorgaben und Features von Power BI und Snowflake gegenüber, die den Wechsel in die Cloud erleichtern. Des Weiteren gehen wir auf die speziell für den europäischen Markt angekündigte AWS-Lösung 'AWS European Sovereign Cloud' ein, die zusätzliche Sicherheit im Bereich der regulierten Industrien geben soll.
Dr. Ina Humpert ist Mathematikerin und als Beraterin bei der viadee IT-Unternehmensberatung tätig. Ihr Schwerpunkt ist Data Engineering auf SQL basierten Datenbanken im Bankenumfeld. Außerdem interessiert sie sich für Daten-Visualisierung unter anderem mit Power BI.
Marissa Quante ist Beraterin bei der viadee Unternehmensberatung AG. Ihr aktueller Schwerpunkt liegt im Bereich Data Warehousing, Data Engineering und Analytics im Bankenumfeld. Sie ist Snowflake Core zertifiziert und begeistert sich für die Themen Snowflake und Cloud.
Vortrag Teilen
VR-NetWorld's 'Business Intelligence Platform'-Projekt setzte auf die Microsoft Azure Cloud, um entscheidende betriebliche Herausforderungen zu meistern. Die Einführung eines fortschrittlichen Data Warehouses und Power-BI-Tools transformierte die Datenanalyse und -verwaltung. Unter 100 Tagen implementiert, führte die Lösung zu erheblichen Effizienzsteigerungen und Kosteneinsparungen, unterstützt durch die Anpassungsfähigkeit von Azure. Dieses Vorhaben unterstreicht den Mehrwert der Cloud-Technologie für die Förderung des Unternehmenserfolges.
Zielpublikum: Daten-Architekten, Datenanalysten und Business-Intelligence-Experten, Projektmanager und Entscheidungsträger im IT-/Daten-Bereich, Unternehmen, die sich für die digitale Transformation interessieren, Cloud-Technologie-Begeisterte
Voraussetzungen: Grundverständnis von Cloud-Computing, Grundkenntnisse in Microsoft Azure, Grundverständnis in Datenverwaltung & -analyse
Schwierigkeitsgrad: Advanced
Extended Abstract:
Das Projekt 'Business Intelligence Platform', initiiert von der VR-NetWorld GmbH und begleitet von der CINTELLIC Consulting GmbH, konzentriert sich auf die Lösung von vier zentralen Herausforderungen: Zuerst die hohe Wartungsintensität des bestehenden Altsystems; zweitens die inhaltlichen Einschränkungen, die sich aus der komplexen Handhabung und den aufwendigen Änderungen ergeben; drittens, die Belastung durch komplexe Datenstrukturen aufgrund der Vielzahl von Cloud- und On-Premises-Systemen; und viertens, die Hemmnisse in der technologischen Entwicklung, die durch veraltete Technologien verursacht werden. Vor diesem Hintergrund plante die VR-NetWorld die Implementierung eines Data-Warehouse-Systems und ein darauf aufbauendes Reporting-Tool, welches die Basis für visualisierte Reports für die Stakeholder schaffen soll. Dieser Schritt wird eine umfassende Datenbasis für eine ganzheitliche Reporting-Landschaft etablieren und Blaupausen für verschiedene Fachbereiche und Anwendungsfälle zur Verfügung stellen. Das Projekt zielt darauf ab, skalierbar und kosteneffizient zu sein und gleichzeitig eine einfache Wartbarkeit zu bieten, um den dynamischen Anforderungen der VR-NetWorld gerecht zu werden. Die Anforderungen waren zum einen die Nutzung von Microsoft Azure Cloud Services, da bereits eine Cloud-Middleware in Azure aufgebaut wurde und eine Modernisierung der Systemlandschaft basierend auf Cloud-Produkten von Microsoft angestoßen wurde, sowie die vollständige Historisierung des Datenbestandes und die Implementierung des Reporting-Tools Power BI.
Das Projekt startete mit der Anforderung, Microsoft Azure Cloud als technologische Basis zu nutzen. Diese Vorgabe bildete das Fundament für alle weiteren Entwicklungen und garantierte eine zuverlässige und flexible Plattform. Im nächsten Schritt des Projekts widmete sich das Team der Integration und Verarbeitung von Daten, wobei ein besonderer Fokus auf der Implementierung eines Data Warehouses in Azure lag. Dieser Schritt war entscheidend, um verschiedene Datenquellen effizient in das System einzubinden und zu verarbeiten. Das Ziel war es, einen nahtlosen Datenfluss und eine optimierte Nutzung der Daten zu gewährleisten. Durch das Data Warehouse in Azure wurde eine zentrale, konsolidierte Datenbasis geschaffen. Ein zentraler Bestandteil des Projekts war die Gewährleistung von Sicherheit und Zuverlässigkeit. Es wurden Maßnahmen implementiert, um sensible Informationen sicher zu speichern und regelmäßige Datenbackups zu gewährleisten. Zudem wurde ein besonderer Fokus auf die transparente und nachvollziehbare Speicherung der Datenhistorie gelegt, um die Integrität der Daten zu sichern.
Die Entscheidung für die Azure Cloud spiegelt das Bestreben wider, eine kosteneffiziente Lösung zu schaffen, die besonders für mittelständische Unternehmen attraktiv ist. Im Vergleich zu anderen vorgefertigten Lösungen bietet diese maßgeschneiderte Plattform eine flexible, skalierbare und kostengünstige Alternative. Durch die Nutzung von Azure-Cloud-Diensten sowie Cloud Middleware und automatisierten Prozessen können Unternehmen signifikante Kosteneinsparungen erzielen. Sie zahlen nur für die Ressourcen, die sie tatsächlich nutzen, und minimieren den administrativen Aufwand. Dies bietet einen erheblichen finanziellen Vorteil im Vergleich zu On-Premises-Lösungen, die oft hohe Vorabinvestitionen und laufende Wartungskosten erfordern. Das Projekt wurde in weniger als 100 Tagen umgesetzt und demonstrierte eindrucksvoll, wie moderne Technologie genutzt werden kann, um betriebliche Effizienz zu steigern und gleichzeitig Kosten zu senken.
Microsoft Azure Cloud wurde aufgrund seiner Skalierbarkeit, Flexibilität und des umfangreichen Funktionsumfangs als Hauptplattform gewählt. Eine spezielle Cloud-Middleware wurde entwickelt, um externe Datenquellen nahtlos zu integrieren. Für On-Premise-Datenquellen wurde eine Self-Hosted Integration Runtime eingerichtet, um eine sichere Datenübertragung in die Cloud zu ermöglichen. Azure Data Factory wurde als primäres Tool für die Datenverarbeitung genutzt, um Datenpipelines zu erstellen, die Daten integrieren, transformieren und für Analysen vorbereiten. Azure Key Vault wurde zur sicheren Speicherung von Schlüsseln und sensiblen Informationen verwendet, während Azure Functions für die Datenintegrität und automatisierte Backups eingesetzt wurden. Microsoft Azure SQL, insbesondere mit System Versioned Tables, wurde für die Speicherung und Historisierung von Daten genutzt, um Änderungen auf Zeilenebene zu verfolgen und eine klare Trennung zwischen aktuellen und historischen Daten zu ermöglichen.
Das Projekt 'Business Intelligence Platform', umgesetzt mit einer Azure-Cloud-basierten Lösung, stellt einen Meilenstein in der Steigerung betrieblicher Effizienz und der Kostensenkung dar. Es demonstriert eindrucksvoll, wie durch die erfolgreiche Integration, Sicherung und Optimierung von Daten signifikante Verbesserungen in kürzester Zeit erreicht werden können.
Alexander Faber ist Bereichsleiter Portfolio und Portfolio Manager Cloud, Data & Reporting bei CINTELLIC. Mit langjähriger Erfahrung als Berater in den Branchen Banken & Versicherungen, Handel & Industrie, v.a. im Bereich Kundendatenmanagement, Data Governance & Reporting.
Niklas Scheiwe ist als Senior Consultant mit Fokus auf Data- und Cloud-Engineering für die CINTELLIC tätig. Während seiner jahrelangen Laufbahn hat er diverse Implementierungsprojekte von cloudbasierten Systemen verantwortet. Darüber hinaus ist er nebenberuflich als Hochschuldozent tätig.
Vortrag Teilen
Die Scherdel GmbH setzt international Maßstäbe bei der Verarbeitung von metallischem Draht und Band. Das bestehende DWH auf Basis MSSQL, welches über 15 Jahre von verschiedenen Entwicklern aufgebaut wurde, wird Schritt für Schritt modernisiert und in der Azure Cloud aufgesetzt. Im ersten Schritt wurden die Grundlagen geschaffen und ein erster Cube umgesetzt. Als Lösung setzen wir auf MS Fabric, obwohl es erst mit Projektbeginn allgemein verfügbar war. Wir stellen das Projekt vor und berichten über unsere Erfahrungen mit Microsoft Fabric.
Zielpublikum: Data Engineers, Architekten, Projektverantwortliche
Voraussetzungen: Basiswissen Analytics
Schwierigkeitsgrad: Basic
Extended Abstract:
Die Scherdel GmbH setzt seit über 130 Jahren als mittelständisch geprägtes, inhabergeführtes Familienunternehmen international Maßstäbe bei der Verarbeitung von metallischem Draht und Band. Das bestehende DWH auf Basis MSSQL, welches über 15 Jahre hinweg von verschiedenen Entwicklern aufgebaut wurde, soll Schritt für Schritt modernisiert und in der Azure Cloud aufgesetzt werden. In einem ersten Schritt wurden die Grundlagen der neuen DIP (Dateninformationsplattform) geschaffen und ein erster Cube umgesetzt. Bei der Lösung setzen wir auf Microsoft Fabric, obwohl es erst nach Projektbeginn allgemein verfügbar war. Im Vortrag berichten wir über unsere ersten Erfahrungen und Herausforderungen in der Verwendung von Microsoft Fabric.
Benjamin Schenk ist seit nun 2 Jahren Teamlead Operating Enterprise Applications bei der SCHERDEL GmbH. Neben seinen Spezialkenntnissen für Datenbanken (MSSQL & Oracle) kümmert er sich um den Betrieb von Enterprise-IT-Services, egal ob OnPrem oder in der Cloud. Die Umsetzung eines Standards für den Betrieb von IT-Services und Automatisierung sind nur einige Teilgebiete seines Teams.
Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet im Bereich Corporate Development der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.