Konferenzprogramm

Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

 

Thema: Strategy

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    11.06.
  • Mittwoch
    12.06.
  • Donnerstag
    13.06.
, (Dienstag, 11.Juni 2024)
10:40 - 11:25
Di 1.1
Augmented Analytics – the path to become insight-driven
Augmented Analytics – the path to become insight-driven

Embarking on analytics transformation reveals a pivotal challenge: not all can be data-driven. Thus, we shift to Augmented Analytics, seamlessly integrating insights into workflows, bypassing the need for universal data literacy. This approach, elevates decision-making quality, operational efficiency and adoption, highlighting the journey towards a culture of insight-driven innovation. We'll explore the essence of Augmented Analytics as the cornerstone for the next analytics maturity level, highlighting the cultural and technical enablers.

Target Audience: Business Leaders/Professionals, Change/Transformation Manager, Analytics Professionals
Prerequisites: Basic knowledge: analytics transformation, genAI, data-driven culture, roles in transformation
Level: Advanced

Extended Abstract:
In our journey to transform analytics, we have come to a critical realization: Not everyone can and will be data-driven, because the reality and impact of data literacy is limited. Our current strategies need to evolve. Enter augmented analytics, a promising approach that will redefine the way we deal with insights. By integrating analytics directly into organizational workflows, we not only bypass the need for universal data literacy, but also significantly improve insight-driven decision making. This talk will explain how one commercial insurer is using this innovative strategy to improve decision quality, streamline operations, and foster a culture equipped to handle analytical challenges. We will explore the technical and methodological foundations and transformative enablers (the necessary roles, data liberalization, transformational mindset, and the importance of generative AI) that make augmented analytics not just a tool, but a catalyst for becoming truly insight-driven.

Willi Weber, with a background in business informatics, transitioned from software development at HDI Global natural catastrophe department to pioneering in analytics. He led the development of probabilistic models and pricing software, became head of data analytics, and architected HDI Global analytics transformation into an insight-driven company. Currently, he spearheads projects augmenting business processes through analytics and generative AI and is co-author of the book: Augmented Analytics.

Willi Weber
F111
Willi Weber
F111

Vortrag Teilen

10:40 - 11:25
Di 6.1
Innovation im Banking – Erfolgsfaktoren zur Nutzung von KI
Innovation im Banking – Erfolgsfaktoren zur Nutzung von KI

Die Implementierung von KI bei einem Banking-IT-Dienstleister ist ein strategischer Schritt. Im Fokus stehen Technologie (ML, Algorithmen), Compliance, Use-Case-Management, Recruiting und Education. Die Technologieoptimierung steigert Leistung und Effizienz. Compliance-Richtlinien werden transparent eingebunden. Ein strukturiertes Use-Case-Management sichert kundenorientierte Lösungen. Gezieltes Recruiting von KI-Experten sichert Fachkompetenz. Bildungsprogramme gewährleisten kontinuierliche Qualifikation der Mitarbeiter.

Zielpublikum: Projektleiter & Leitung von KI & Analytics
Voraussetzungen: Grundverständnis zu KI & Analytics
Schwierigkeitsgrad: Advanced

Malte Lange ist ein innovativer und ergebnisorientierter Experte für Datenanalyse mit nachgewiesener Erfolgsbilanz bei der strategischen Implementierung von Process Mining und der Entwicklung einer Marketingautomatisierungslösung. Technischer Architekt einer Datenanalyse- und KI-Plattform für über 350 Sparkassen, spezialisiert auf Business Development und Use-Case-Enablement. Karriereentwicklung vom Datenbankexperten zum Analytics-Enabler, gekennzeichnet durch Innovation, strategisches Denken und effektive Teamführung.

Malte Lange
E101/102
Malte Lange
E101/102

Vortrag Teilen

11:35 - 12:20
Di 6.2
Embeddings als Schlüssel zur KI-Use-Case-Multiplikation
Embeddings als Schlüssel zur KI-Use-Case-Multiplikation

Embeddings haben sich im KI-Kontext längst als eine bevorzugte Methode zur Datenrepräsentation etabliert. Durch den Einsatz unterschiedlicher Embedding-Methoden ist es bonprix gelungen, verschiedenartige KI-relevante Daten effizient nutzbar zu machen und so die Erschließung neuer KI-Use-Cases deutlich zu beschleunigen.

In diesem Vortrag wird der Aufbau eines Embedding-Portfolios aufgezeigt. Neben den verwendeten Methoden und den abgedeckten KI-Use-Cases werden auch die Implikationen für eine Buy-or-Make-Entscheidung beleuchtet.

Zielpublikum: Product Owner, Projektmanager:innen, KI-Manager:innen, Data Scientists, ML Engineers
Voraussetzungen: Grundsätzliches Verständnis von KI-Methodik und KI-Use-Cases
Schwierigkeitsgrad: Advanced

Sascha Netuschil ist Abteilungsleiter Data Science beim internationalen Modeunternehmen bonprix, wo er nach Einstieg als Web Analyst ab 2015 maßgeblich das Thema Data Science aufbaute und heute bereichsübergreifend verantwortet. Zu den von ihm umgesetzten KI- und Data-Science-Projekten zählen neben Recommender- und Personalisierungs-Systemen, Echtzeit-Intent-Erkennung und Fraud Detection auch Attributions- und Marketing-Mix-Modellierung sowie Preisoptimierungsalgorithmen.

Sascha Netuschil
E101/102
Sascha Netuschil
E101/102
Vortrag: Di 6.2

Vortrag Teilen

14:30 - 15:30
Di 1.3
Data Governance etablieren: Datenprojekte als Erfolgsfaktor
Data Governance etablieren: Datenprojekte als Erfolgsfaktor

Die Vision für Data Governance bei der HUK-COBURG ist es, datengetriebene Use Cases durch einen nachhaltigen Umgang mit Daten in Fach- und IT-Bereichen zu unterstützen. Hierfür wurden insbesondere vier Handlungsfelder identifiziert:

  • Rollen und Verantwortlichkeiten
  • Data-Governance-Prozesse
  • Prinzipien, Richtlinien und Standards
  • Data-Governance-Assets

Im Bottom-up-Ansatz für Data Governance bei der HUK-COBURG sind insbesondere Daten-Projekte ein Erfolgsfaktor, um Data Governance im Unternehmen zu etablieren.

Zielpublikum: Data Governance Manager, Data Catalog Manager, Data Engineer, BI Project Leader, Data Owner, Data Steward
Voraussetzungen: Basiswissen in Data Governance und Data Engineering
Schwierigkeitsgrad: Basic

Extended Abstract:
Am Beispiel eines Projektes zur Datenversorgung 'Data Analytics in der Krankenversicherung' wird dargestellt, wie Data Governance in der HUK-COBURG etabliert wird und ein Datenkatalog die Datennutzung nachhaltig vereinfacht und beschleunigt. Hierbei werden folgende vier Handlungsfelder berücksichtigt:

  • Zuweisung von Rollen und Verantwortlichkeiten, z. B. Data Owner, Data Steward und Data Enabler.
  • Operationalisierung von Data-Governance-Prozessen, z. B. die kontinuierliche fachliche Beschreibung von Daten-Assets.
  • Operationalisierung von Prinzipien, Richtlinien und Standards im Kontext Data Governance, z. B. Datennutzung und Datenfreigabe.
  • Katalogisierung von Data-Governance-Assets mithilfe eines Integrationsframeworks, z. B. technische Assets und Data Lineage.

Die Erfahrungen aus dem Projektverlauf zeigen, dass sich Data-Governance-Aktivitäten sehr gut in Daten-Projekten integrieren lassen und sich über diesen Weg Data Governance sehr gut im Unternehmen operationalisieren lässt. Die Aufwände, die Data Stewards zu Beginn eines Projekts haben, zahlen sich schon während der Projektphase wieder aus. Data-Governance-Prozesse und Werkzeuge (insbesondere der Datenkatalog) sichern den nachhaltigen Mehrwert für Data Analytics - auch über die Projektphase hinaus. Eine gelebte, etablierte Data Governance unterstützt die Data-Analytics-Aktivitäten der HUK-COBURG, sodass es nur einen Schluss geben kann: Data-Governance-Aktivitäten müssen Pflichtbestandteil von Daten-Projekten werden.

Lisa Beierweck ist Data Catalog Manager und Data Engineer bei der HUK-COBURG. Seit mehr als 4 Jahren begleitet sie die Data-Governance-Initiative der HUK-COBURG von Beginn an und verantwortet die Umsetzung und Realisierung eines Data Catalogs sowie die Weiterentwicklung und die strategische Positionierung der Plattform innerhalb des Unternehmens. Lisa hat eine Leidenschaft dafür, Transparenz in BI-Anwendungen zu bringen und den Fachabteilungen aufzuzeigen, welche Mehrwerte durch einen Data Catalog entstehen.

Markus Werner ist seit 12 Jahren im Business-Intelligence-Umfeld tätig - davon seit über 5 Jahren als BI-Projektleiter und BI-Architekt im BICC der HUK-COBURG. Seit mehreren Jahren begleitet er die Themen Data Cataloging und Data Governance im Kontext des erweiterten Daten-Ökosystems der HUK-COBURG. Als Projektleiter ist er aktuell verantwortlich für den Aufbau einer Data-Analytics-Datenbasis für das Aktuariat der privaten Krankenversicherung.

Lisa Beierweck, Markus Werner
F111
Lisa Beierweck, Markus Werner
F111

Vortrag Teilen

16:00 - 16:45
Di 1.4
Swiss Life: Weg zur modernen Data & Analytics Organisation
Swiss Life: Weg zur modernen Data & Analytics Organisation

Bei Unternehmen, wie Swiss Life, die nicht aus einem datenbasierten Geschäftsmodell entstanden sind, hat die Auswertungsmöglichkeit von Daten zugenommen. Im Swiss Life EKV-Bereich hat dies zu vielen einzelnen Lösungen in der Datenlandschaft geführt. Um den Umgang mit Daten zu harmonisieren, wurden Zielbilder für eine moderne Datenorganisation und -architektur entwickelt, die nun implementiert werden. In diesem Vortrag erfahren Sie mehr über die Datenstrategie sowie die Erfolge und Herausforderungen, die mit deren Implementierung verbunden sind.

Zielpublikum: Entscheidungsträger (die eine moderne data & analytics Organisation aufbauen wollen)
Voraussetzungen: Grundverständnis von Datenorganisationen, Data Governance und Datenplattformen
Schwierigkeitsgrad: Basic

Extended Abstract:
In 2023 wurde für das EKV-Geschäft der Swiss Life in Zusammenarbeit mit der Alexander Thamm GmbH eine neue Datenstrategie entwickelt, welche den Rahmen für den zukünftigen Umgang mit Daten setzt. Sie soll im Zielbild die historisch gewachsene, fragmentierte und intransparente Datenlandschaft durch eine moderne, cloud-native Datenarchitektur als 'single source of interpretation' ersetzen und gleichzeitig hohe Mehrfachaufwände in der Datenbeschaffung und -aufbereitung durch eine effiziente 'Hub & Spoke'-Organisation reduzieren. So sollen in Zukunft datengetriebene Geschäftsprozesse und Entscheidungsfindungen gefördert und innovative Lösungen ermöglicht werden. In diesem Vortrag möchten wir über die Entwicklung der Datenstrategie und getroffene Design-Entscheidungen berichten, auf das erste halbe Jahr der Umsetzung der Strategie zurückblicken und über die technischen und organisatorischen Erfolge und Herausforderungen, die hiermit verbunden sind, reflektieren.

Livia Kaiser-Auernheimer ist Beraterin für Datenstrategie und Data Science bei der Alexander Thamm GmbH und unterstützte Swiss Life bei der Entwicklung ihrer Datenstrategie. Sie begeistert sich für datengetriebene Lösungen und Entscheidungsfindungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/livia-kaiser-auernheimer/

Arne Steinkraus ist Leiter des Data & Analytics Hubs bei Swiss Life (EKV) Deutschland. Zudem hat er einen Lehrauftrag für statistisches Lernen an der TU Braunschweig. Er ist sowohl Data-Science- als auch Ökonometrie-begeistert.

Livia Kaiser-Auernheimer, Arne Steinkraus
F111
Livia Kaiser-Auernheimer, Arne Steinkraus
F111

Vortrag Teilen

17:15 - 18:00
Di 2.5
Building an AI Center of Excellence at Austrian Power Grid
Building an AI Center of Excellence at Austrian Power Grid

In this presentation, Pascal will provide a comprehensive overview of the foundational strategies deployed in establishing the AI Center of Excellence at APG. He will give practical insights into the many challenges and the strategic solutions implemented to ensure the Center's success. Further, the session will delve into the intricate interdependencies among AI, analytics, coding, and data excellence - critical components that surface during the development of robust AI and data capabilities.

Target Audience: Strategists, project/program managers, corporate development, research and innovation, CIO/CEO/CTOs, lead data scientists, managers
Prerequisites: Basic knowledge of AI, analytics and data management are a plus, but not necessary
Level: Basic

Pascal Plank is the Head of the AI Center of Excellence at Austrian Power Grid, where he leads the Data Driven Utility Program. He drives company-wide data and AI projects to shape the digital grid of the future. Before APG, Pascal developed key AI strategies and revamped digital innovation management at ÖBB. In his spare time, he teaches machine learning at the University of Applied Sciences Technikum Vienna, imparting practical insights to aspiring data science students.

Pascal Plank
K4
Pascal Plank
K4
Vortrag: Di 2.5

Vortrag Teilen

17:15 - 18:00
Di 3.5
DWH vs. Data Mesh – ein Streitgespräch
DWH vs. Data Mesh – ein Streitgespräch

Im Konflikt zwischen traditionellem Data Warehouse und moderner BI geht es um mehr als Buzzwords! Und diesen Konflikt werden Andreas und Artur live auf der Bühne austragen!

Ist ein dezentraler Ansatz mit Datenprodukten wirklich ein Fortschritt oder nicht doch vielmehr unrealistisches Marketing, das keinen Mehrwert bringt? Ist jemand, der weiterhin auf ein zentrales und verwaltetes Data Warehouse besteht, wirklich von gestern? Oder sind die ganzen Konflikte bald dank KI ohnehin überflüssig?

Zielpublikum: Datenarchitekten, Modellierer und allgemein Leute, die Daten ernst nehmen
Voraussetzungen: Buzzword wie Data Mesh, Data Vault, Stern-Schema und Co. zu kennen, ist sicher von Vorteil, denn Insider-Sprüche gehören zu so einem Nerd-Battle dazu
Schwierigkeitsgrad: Advanced

Extended Abstract:
Im Stil von Pro-/Contra-Debatten werden wir den immer währenden Kampf zwischen zentralem und dezentralem Datenmanagement-Ansatz austragen.

Dabei geht es weniger ums Gewinnen, sondern darum aufzuzeigen, welche Debatten bei Entscheidungen geführt werden und was sinnvolle und weniger sinnvolle Argumente sind. Hoffentlich werden wir dabei den einen oder anderen Zuschauern auch den Spiegel vorhalten und für Aha-Effekte sorgen.

Fachlichkeit kommt dabei natürlich nicht zu kurz, denn auch wenn es bei Entscheidungen nicht immer nur um Technik geht, so ist die sachliche Auseinandersetzung damit absolut unersetzlich, um sich weiterzuentwickeln.

Ob Data Mesh alle Probleme löst, wissen wir danach vermutlich immer noch nicht, aber immerhin haben wir gute Argumente, was im konkreten Einsatz dafür oder dagegen sprechen könnte.

Andreas Peter ist als Data Architect bei Bosch im Bereich Datenmodellierung, Datenstrategie und Semantische Modellierung.

Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe. 
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld. 

Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.

Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.

Andreas Peter, Artur König
E119
Andreas Peter, Artur König
E119

Vortrag Teilen

17:15 - 18:00
Di 6.5
ENTFÄLLT: AI Platforms to the rescue!
ENTFÄLLT: AI Platforms to the rescue!

GenAI ist in aller Munde, und Use Cases schießen aus dem Boden. Die Herausforderung: Compliance, Betriebsreife oder Testen sind alles andere als egal und dabei häufig komplex. AI Platforms to the rescue!

Klassisches Platform Engineering hilft dabei: AI-Plattformen verbergen die technische Komplexität und ermöglichen so den Use-Case-Experten, sich auf die Umsetzung der fachlichen Innovationen zu konzentrieren, anstatt sich mit den zugrunde liegenden technischen Details auseinandersetzen zu müssen. Wir beleuchten, wie eine Plattform für Generative AI aussehen kann und welche Building Blocks sie benötigt.

Zielpublikum: Data Engineer, Decision Maker, AI Engineer
Voraussetzungen: None
Schwierigkeitsgrad: Basic

Extended Abstract:
Wir berichten aus der Praxis von Beispielen für Plattformen in Enterprise-Umfeldern, die wir entwickelt haben.

Dabei diskutieren wir, wie eine Plattformstrategie nicht nur die technische Umsetzung vereinfacht, sondern auch ein Ökosystem für Innovation schafft, das Zusammenarbeit fördert, Wiederverwendbarkeit erhöht und letztendlich die Zeit bis zur Markteinführung drastisch verkürzt.

Wir gehen neben technischen Bestandteilen insbesondere darauf ein, welche fachlichen Bausteine für die Umsetzung von Use Cases essenziell sind:

  • Ein Testframework, in dem Anwender einfach Testfälle schreiben können, um die fachliche Qualität der generierten Antworten zu überwachen und sicherzustellen
  • Bausteine für einfache Datenintegration und -verknüpfung

Mario-Leander Reimer is a passionate software developer and architect, proud father, and#CloudNativeNerd. Leander is the CTO at QAware. He’s continuously looking for innovations in software engineering and ways to combine and apply state-of-the-art technology in real-world projects. As a speaker at national and international conferences he shares his tech experiences and he teaches cloud computing and software quality assurance as a part-time lecturer.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/mario-leander-reimer/

Mario-Leander Reimer
E101/102
Mario-Leander Reimer
E101/102

Vortrag Teilen

, (Mittwoch, 12.Juni 2024)
10:30 - 11:15
Mi 1.2
Change Management als Motor für Data Governance
Change Management als Motor für Data Governance

Der DKV setzt seit über drei Jahren eine ambitionierte Datenstrategie mit umfassendem Data-Governance-Ansatz um. 
Dieser Wandel zeigt beachtliche Fortschritte in der Data-Governance-Organisation, jedoch bleibt der Change in den Köpfen der Belegschaft in Teilen aus.
Um den Wandel zu beschleunigen, implementiert der DKV ein auf Kommunikation ausgerichtetes Change Management. In diesem Vortrag werden der bisherige Change-Management-Prozess sowie die gesammelten Erkenntnisse im Kontext des Data-Governance-Programms beleuchtet.

Zielpublikum: Data Governance Practitioners, Data Governance Managers, Data Strategists, Project Leaders, Change Manager
Voraussetzungen: Grundkenntnisse von Data Governance
Schwierigkeitsgrad: Advanced

Extended Abstract:
Mit seiner ambitionierten Datenstrategie verfolgt der DKV seit über drei Jahren einen umfassenden Data-Governance-Ansatz: Von Beginn an wurde eine Data-Governance-Organisation über alle Datendomänen hinweg aufgesetzt. Dies umfasst die Einführung und die Rollen Data Owner, Domain Owner und Data Steward. Zudem müssen die Mitarbeitenden in den Aufgaben, die mit diesen Rollen einhergehen, intensiv geschult und trainiert werden. Zuletzt gilt es, den Datenkatalog zu implementieren und zu pflegen sowie ein effizientes Datenqualitätsmanagement zu etablieren. 
Blickt man heute auf den Stand der Umsetzung, stellt man fest, dass die DG-Organisation, das Datenqualitätsmanagement und der Datenkatalog einen bemerkenswerten Umfang angenommen haben - jedoch fehlt es zum Teil am notwendigen Data-Governance-Mindset innerhalb der Belegschaft. So ist das DG-Programm noch nicht vollständig in den Arbeitsalltag integriert und Data Stewards nehmen ihre Aufgaben nicht immer mit dem notwendigen Nachdruck wahr. Darüber hinaus laufen einige datengetriebene Projekte an der DG-Organisation vorbei. Somit steht der DKV vor der Herausforderung, das Verständnis für und den Mehrwert von Data Governance weiter zu schärfen und zu fördern.
Dem begegnet der DKV damit, ein auf Kommunikation ausgerichtetes Change Management durchzuführen. So vollzog die DG-Organisation zunächst eine Reihe von Workshops, um eine geeignete Kommunikationsstrategie zu erarbeiten. Diese wurden in einem Kommunikationsplan in Form von zielgruppenspezifischen Formaten ausgearbeitet.
Der Vortrag bilanziert zum einen die Erfahrungen der letzten Jahre bis zur Diagnose des verbesserungswürdigen Data-Governance-Mindsets und die Entscheidung hin zum Change Management. 
Der Vortrag bilanziert zunächst die Erfahrungen der ersten drei Jahres bis zur Diagnose des verbesserungswürdigen Data-Governance-Mindsets. Im Hauptteil wird die Entscheidung zum Change Management diskutiert und der folgende Change-Prozess, dessen Ergebnisse sowie Anwendung von Change-Management-Tools im Kontext des Data-Governance-Programms vorgestellt. 

Dr. Sönke Iwersen verantwortet seit mehr 15 Jahren Data & Analytics-Organisationen in verschiedenen Industrien (u.a. Telefónica, Handelsblatt, XING, Fitness First, HRS). Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/soenke-iwersen/

Dr. Matthias Platzer ist Berater mit Fokus auf Datenstrategie, Data Governance und Change Management. Er konnte bereits Erfahrungen mit Kunden aus verschiedenen Branchen sammeln, wie bspw. ÖPNV oder Mobilitätsdienstleistungen.
Seine Beratungsleistung zeichnet sich durch einen ganzheitlichen Ansatz aus, der den Menschen in den Mittelpunkt stellt und somit Data Strategy & Governance-Initiativen zu einem nachhaltigen Erfolg führt.
Dabei stützt er sich auf Projekterfahrungen, die sich über die gesamte Datenwertschöpfungskette erstrecken.

Sönke Iwersen, Matthias Platzer
E119
Sönke Iwersen, Matthias Platzer
E119

Vortrag Teilen

11:25 - 12:10
Mi 1.3
Warum Datenprodukte einen Datenmarktplatz brauchen!
Warum Datenprodukte einen Datenmarktplatz brauchen!

Viele Unternehmen befassen sich mit den Mehrwerten von Datenprodukten und möchten diese heben. Gleichzeitig starten nur die wenigsten Organisationen auf der grünen Wiese - oft existieren bereits organisatorische, prozessuale und architektonische Rahmenparameter. Ein Datenmarktplatz bietet die Chance, die wesentlichen Anforderungen des Datenproduktansatzes zu erfüllen, ohne umfassende Adaptionen des Bestands zu erfordern. Der Vortrag stellt diese Chancen dar und gibt Impulse für die Etablierung eines Datenmarktplatzes in Bestandsorganisationen.

Zielpublikum: Data Engineers, Datenproduktmanager, Datennutzer, Datenstrategen, Datenarchitekten, Enterprise-Architekten, Data Owner, Chief Data Officer
Voraussetzungen: Grundlegendes Verständnis der Herausforderungen von gewachsenen Datenlandschaften wie Datentransparenz, Datenteilung, Data Governance heterogene technologische Bebauung, Schnittstellenumfang etc.
Schwierigkeitsgrad: Basic

Steffen Kandler studierte Wirtschaftsinformatik an der Technischen Hochschule Mittelhessen. Seit seinem Berufseinstieg im Jahr 2014 arbeitet er als Berater in verschiedenen Rollen im Data & Analytics-Kontext wie beispielsweise als Data Engineer und Solutionarchitect mit Schwerpunkten im Data Management und Data Visualization. Seit 2019 berät er Unternehmen unterschiedlicher Branchen und Größenordnungen bei der Entwicklung und Etablierung passgenauer und ganzheitlicher Datenstrategien mit allen zugehörigen Facetten wie Organisation, Governance, Architektur und Technologie.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/steffen-kandler/

Steffen Kandler
E119
Steffen Kandler
E119

Vortrag Teilen

15:20 - 16:20
Mi 1.4
Daten-Exzellenz in Konzernstrukturen – Vorprojekt und Umsetzung bei EWE
Daten-Exzellenz in Konzernstrukturen – Vorprojekt und Umsetzung bei EWE

Daten Exzellenz bei EWE wurde über ein Vorprojekt motiviert, um die Datenverfügbarkeit und – Qualität im Konzern zu erhöhen. Im Vortrag wird das Vorgehen und die detaillierte Vorgehensweise des sich anschließenden Daten Exzellenz-Projekts, die Bedeutung des Rollenmodell in einer virtuellen Datenorganisation zur effektiven Umsetzung, sowie die notwendigen Ergebnisartefakte präsentiert. Er richtet sich an Fachleute, Entscheidungsträger und Interessierte, die Einblicke in Strategien, Maßnahmen zur Steigerung im Umgang mit Daten gewinnen möchten.

Zielpublikum: Fachleute, Entscheidungsträger und Interessierte
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Der Vortrag beleuchtet das Konzernprojekt "Daten Exzellenz" des Energieversorgers EWE, das auf die ganzheitliche Optimierung dreier wesentlicher Dimensionen abzielt: Geschäftsprozesse & Use Cases, Datenmanagement und Technische Systeme. Die Präsentation hebt die dringende Notwendigkeit dieser Maßnahmen im Energieversorgungssektor hervor, um die Herausforderungen der modernen datengetriebenen Landschaft zu bewältigen.
Im Fokus stehen die detaillierte Vorgehensweise des Projekts, das Rollenmodell der virtuellen Datenorganisation zur effektiven Umsetzung, sowie die erzeugten Ergebnisartefakte. Durch die Betrachtung eines exemplarischen Use Cases werden die konkreten Auswirkungen und Mehrwerte des Projektes aufgezeigt. Die Zuhörer erhalten Einblicke in die strategischen Entscheidungen, methodischen Ansätze und technologischen Lösungen, die EWE auf dem Weg zur Datenexzellenz umsetzt.
Der Vortrag vermittelt somit nicht nur einen Überblick über den Projektaufbau, sondern auch konkrete Einblicke in die Umsetzung auf operativer Ebene. Er richtet sich an Fachleute, Entscheidungsträger und Interessierte, die Einblicke in erfolgreiche Strategien und Maßnahmen zur Steigerung im Umgang mit Daten gewinnen möchten.

Thomas Richter ist seit 2002 in unterschiedlichen Funktionen im EWE-Konzern aktiv. Er hat Entwicklungsteams aufgebaut, Großprojekte verantwortet und widmet sich neben strategischen Fragestellungen und Trends nunmehr dem Thema: Daten Exzellenz. 

Alina Robbers ist seit 2021 für das Team IT-Strategie & IT-Performance Management bei EWE, einem Energiedienstleister im Nordwesten Deutschlands tätig. Dabei beschäftigt sie sich mit Themen rund um den Bereich der strategischen IT-Planung mit dem derzeitigen Schwerpunkt auf der Frage, wie der EWE-Konzern datenexzellent wird.

Jens Walter ist IT-Innovationsmanager und Business Partner IT in der Konzern IT der EWE AG, einem Energiedienstleister im Nordwesten Deutschlands. Nach dem Studium der Physik stieg er früh in die IT ein. IBM (Greenock, Schottland) folgte Siemens (München), bei der er ebenfalls im Bereich Innovation in weltweiter Verantwortung tätig war.
Das Thema Daten interessiert ihn auf der strategischen Seite seit 2013, um die Herausforderungen der Energiewende zu bewältigen.

Sven Niedermeier ist IT-Portfoliomanager bei der EWE NETZ GmbH, einem der größten Verteilnetzbetreiber in Deutschland. Als Elektroingenieur befasste er sich eingehend mit dem Ausbau von Verteilnetzen in Mittel- und Niederspannung sowie deren Simulation und Berechnung. Hierdurch wuchs seine Begeisterung für Daten, was zu seinem Wechsel in die IT führte. Seit 2020 führt er das IT-Portfolio bei EWE NETZ und arbeitet daran mit, sein Unternehmen datenexzellent werden zu lassen.

Thomas Richter, Alina Robbers, Jens Walter, Sven Niedermeier
E119
Thomas Richter, Alina Robbers, Jens Walter, Sven Niedermeier
E119

Vortrag Teilen

15:20 - 16:20
Mi 3.4
Die Helm AG macht sich fit für die Daten-Zukunft
Die Helm AG macht sich fit für die Daten-Zukunft

Auch für die weltweit tätige Helm AG gewinnt der moderne Umgang mit Daten zunehmend an Bedeutung. Der Vortrag beschreibt, wie das Unternehmen Daten als wesentliche Informationsquelle und als Basis für Entscheidungen etabliert und sichergestellt wird, dass alle Nutzenden die notwendigen Informationen zur richtigen Zeit erhalten. Die Herausforderungen bestehen dabei vielmehr darin, moderne Arbeitsweisen in Bezug auf Daten einzuführen. Technisch wurde bei der Umsetzung auf moderne, automatisierte und skalierende Komponenten gesetzt.

Zielpublikum: ArchitektInnen, Geschäftsführung, C-Level, Abteilungs-/Bereichsleitung, Product Owner, BICC-Leitung
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced

Extended Abstract:
Es begann mit der Vorstellung vier unterschiedlicher BI-Tools. Die HELM AG, ein traditionsreiches Hamburger Familienunternehmen mit über 120-jähriger Geschichte, gehört heute zu den weltweit größten Chemie-Marketingunternehmen und sichert mit mehr als 100 Niederlassungen, Verkaufsbüros und Beteiligungen in über 30 Ländern durch spezifische regionale Kenntnis den Zugang zu den wichtigsten Märkten. Kein Wunder also, dass ein zeitgemäßer Umgang mit den Daten des Unternehmens eine Voraussetzung für den Erfolg der HELM AG darstellt. Dieser war jedoch mit den aktuellen Werkzeugen nur noch schwer in Einklang zu bringen. Zuerst wurde das Problem bei der aktuellen BI-Lösung gesucht., aber während der Vorstellung der möglichen Kandidaten identifizierte die Helm AG zusammen mit dem Data Strategy & Analytics-Experten areto die tatsächlichen Probleme, und es wurde allen Beteiligten schnell klar, dass die Herausforderungen nur zu bewältigen waren, wenn die Helm AG das Thema Analytics ganzheitlich betrachten und umsetzen würde Im Folgenden hielt areto eine maßgeschneiderte Workshopserie mit unterschiedlichen Beteiligungen seitens der Helm AG ab.

Mittels Data Strategy Workshops wurde die Vision und die Erwartungen des Unternehmens an einen modernen, analytischen Umgang mit Daten geklärt und ein grundsätzlicher Fahrplan für die Zukunft festgelegt. Die Umsetzung sollte Use Case-bezogen erfolgen, und so wurde mit dem Bereich “Chemicals” in weiteren Workshops über die relevanten Use Cases gesprochen, die dann als Backlog dokumentiert wurden. Gleichzeitig entwickelte areto auf Basis der identifizierten Anforderungen eine Architekturempfehlung, die dann intensiv diskutiert und letztendlich so umgesetzt wurde. Auf in die Zukunft mit dem Projekt “Flux”! Mit “Flux” schafft die Helm AG die Basis für die zentrale Daten- und Analytics-Plattform, die nun sukzessiv auf alle Bereiche des Unternehmens ausgeweitet wird. Das allseits präsente Thema “Data Mesh” wird in diesem Kontext zwar diskutiert, aber in einer für die Helm AG angepassten Variante eingesetzt. Die Umsetzung des Projektes “Flux” erfolgt in einzelnen Abschnitten (“Waves”), die jeweils separat geschätzt wurden. Die technische Umsetzung erfolgte agil an Scrum angelehnt. SAP und Salesforce sind und waren die wichtigsten Datenquellen. SAP befand sich auf dem kritischen Pfad des Projektes, da wegen des parallelen Rollouts von SAP auf andere Regionen wenig internes Personal unterstützen konnte. Mit Microsoft Azure und Snowflake wurden leistungsfähige und skalierende Komponenten gewählt. Die Automatisierung der Datenbewirtschaftung erfolgt über die Azure Data Factory (inkl. der SAP-Anbindung) und den Datavault Builder. Analysen und Dashboards werden über PowerBI implementiert.

Hallo liebe Community,

Ich denke und handle durch und durch Business Intelligence. Ich brenne für neue BI und Datenlösungen, die es einfach jeder und jedem ermöglicht, ihre und seine Arbeit Tag für Tag besser zu machen. Das lernte ich während meiner Beratungstätigkeit kennen und baute es danach weiter aus, sodass ich federführend an dem Aufbau der Datenplattform und der datengetriebenen Kultur bei hagebau Connect beteiligt war. Beim Global Player HELM AG startete ich mit dem Auftrag eine komplett neue globale Datenlandschaft aufzubauen, die für jedmögliche BI- und AI-Initiative der Zukunft gewappnet sein soll. Als Product Owner vereine ich die Anforderungen vom Business und entwickle zusammen mit dem Corporate BI Team die technische Plattform und vor allem auch die datengetriebene Kultur.

Data-Driven Self-Service sollte die Gegenwart sein und ist unabdingbar in der Zukunft. 
Think BI(g)

Till Sander weist eine über 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/till-sander/

Simon Eller, Till Sander
F111
Simon Eller, Till Sander
F111

Vortrag Teilen

16:50 - 17:35
Mi 3.5
Von der Standortbestimmung zur Best-of-Breed-Datenplattform
Von der Standortbestimmung zur Best-of-Breed-Datenplattform

Babymarkt.de wollte sich noch stärker als bisher auf den Kunden fokussieren und brauchte dafür eine entsprechende Datengrundlage. Ein Audit zeigte die Schwächen der historisch gewachsenen existierenden Dateninfrastruktur auf. Ausgehend von den erfolgversprechendsten Use Cases wurde daher eine neue Best-of-Breed-Datenplattform in der Cloud konzipiert und implementiert. In diesem Vortrag stellen wir die gemachten Erfahrungen vor und geben Tipps für Unternehmen, die sich in einer ähnlichen Situation befinden.

Zielpublikum: Manager im Datenbereich, Datenarchitekten, Datenstrategen
Voraussetzungen: Grundkenntnisse in Datenmanagement und -organisation
Schwierigkeitsgrad: Basic

Jan Friedemeyer begleitet babymarkt.de bereits seit vielen Jahren und verantwortet aktuell die Bereiche Projektmanagement, Pricing, ERP und BI. In dieser Funktion deckt er ein breites Spektrum an relevanten Themen ab und treibt unter anderem die Modernisierung der Dateninfrastruktur aktiv voran.

Mike Kamysz wird durch die Kombination aus technischer Expertise und seiner Erfahrung im Management Consulting zum idealen Sparringspartner für den Aufbau einer datengetriebenen Organisation.
Zuletzt leitete er das Analytics Engineering & BI Team bei DEPT, mit welchem er branchenübergreifend die Implementierung moderner Datenplattformen betreute. Diese Arbeit setzt er nun bei The Data Institute fort.

Jan Friedemeyer, Mike Kamysz
F111
Jan Friedemeyer, Mike Kamysz
F111

Vortrag Teilen

17:45 - 18:30
Mi 1.6
Resilienz im Data Warehousing – Lehren aus der Pandemie
Resilienz im Data Warehousing – Lehren aus der Pandemie

Über zwei Jahre hat die Corona-Pandemie die Kassenärztliche Vereinigung Westfalen-Lippe (KVWL) vor gewaltige Herausforderungen gestellt. Quasi über Nacht mussten Impfzentren für Millionen von Impfungen aufgebaut und betrieben werden. Auch das DWH-Team war von Anfang an involviert und musste täglich auf neue Anforderungen reagieren. Über Monate war das Impf-Geschehen im Mittelpunkt der Öffentlichkeit. Dieser Vortrag zeigt, welche Maßnahmen geholfen haben, um dem immensen und sich immer wieder verändernden Bedarf gerecht zu werden.

Zielpublikum: BI-Entwickler:innen, DB-Entwickler:innen, Projektleiter:innen, alle Interessierten
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Im Rahmen der Corona-Krise musste die Kassenärztliche Vereinigung Westfalen-Lippe (KVWL) zahlreiche neue Aufgaben erfüllen. Quasi über Nacht mussten Test- und Impfzentren aufgebaut und betrieben werden. Auch das DWH-Team der KVWL war von Anfang an involviert und musste täglich auf neue Anforderungen zur Verarbeitung und zum Reporting der Impfdaten in der Region Westfalen-Lippe reagieren. 

Die KVWL betreibt seit 2014 ein klassisches Data Warehouse, das von einem cross-funktionalen Team von der Administration über den Betrieb bis zur BI-Entwicklung in enger Abstimmung mit den Fachbereichen betreut wird. Die bestehenden technischen und organisatorischen Strukturen haben während der Pandemie dazu beigetragen, auf die anstehenden neuen Herausforderungen zu reagieren. Durch das hohe Interesse der Öffentlichkeit und der Politik an den Daten war neben der schnellen Umsetzung der Reporting-Anforderungen die Datenqualität ein wichtiger Faktor.

Der Vortrag geht auf die folgenden Fragen ein: Welche Kriterien lassen sich heranziehen, um die Resilienz eines DWH oder eines Teams zu beurteilen? Welche Faktoren tragen dazu bei, auf ständig wechselnde Anforderungen zu reagieren? Welchen Einfluss haben die gewonnenen Erkenntnisse aus dem Projekt zur Bekämpfung der Corona-Pandemie auf zukünftige Projekte?

Alessandro Hüttermann ist studierter Statistiker, der bei der KVWL die Abteilung Strategische Datenanalyse leitet. In seiner zweiten Rolle als fachlicher Leiter des Data Warehouse widmet er sich der Optimierung von Datenprozessen und treibt die datenbasierte Entscheidungsfindung voran. Während der Corona-Pandemie war er fachlich für die Prozesse, die Analyse und das Reporting der von den Impfzentren und mobilen Teams bereitgestellten Daten verantwortlich.

Anne Schlebusch ist seit 30 Jahren als Entwicklerin, Team- und Projektleiterin im Geschäftsbereich 'IT & Digital Health' der KVWL tätig. Seit 2012 ist sie als technische Projektleiterin des Data Warehouse dafür zuständig, die Weiterentwicklung und den Ausbau des DWH voranzutreiben. Während der Corona-Pandemie war sie technisch verantwortlich für die Prozesse, die Auswertung und das Reporting der Daten, die von den Impfzentren und mobilen Teams zur Verfügung gestellt wurden.

Alessandro Hüttermann, Anne Schlebusch
E119
Alessandro Hüttermann, Anne Schlebusch
E119

Vortrag Teilen

, (Donnerstag, 13.Juni 2024)
09:00 - 09:45
Do 1.1
Wertexploration von Datenprodukten – Ein Praxisleitfaden
Wertexploration von Datenprodukten – Ein Praxisleitfaden

Maximierung des Wertes von Daten ist entscheidend für den Unternehmenserfolg. Der Vortrag führt die praxisorientierte Methode zur Ermittlung des Data Value von Datenprodukten ein und beleuchtet die Priorisierung ihrer Umsetzung. Unternehmen können hierdurch den Wert ihrer Daten identifizieren und entscheiden, welche Datenprodukte zuerst angegangen werden. Die Data Value Exploration stützt sich auf praktische Erfahrungen und zielt darauf ab, Unternehmen bei der strategischen Ausrichtung und effektiven Durchführung ihrer Dateninitiativen zu leiten.

Zielpublikum: Verantwortliche Projekt- und Programm-Manager für Data & Analytics
Voraussetzungen: Data Strategy, Data Value, Datenprodukt
Schwierigkeitsgrad: Basic

Extended Abstract:
Eine der wesentlichen Herausforderungen beim Aufbau einer datenproduktorientierten Data & Analytics-Landschaft ist die Priorisierung bzw. Reihenfolge der Umsetzung von Datenprodukten. Das Data-Value-Exploration-Vorgehen gibt den Projektverantwortlichen und Stakeholdern eine Methode an die Hand, mit der die Priorisierung wertorientiert erfolgen kann. Der Vortrag stellt das Vorgehen und Erfahrungen aus Kundenprojekten vor.

Alexander Bauer begleitet Kunden bei der strategischen Ausrichtung der BI- und IT-Anwendungslandschaft. Er hat sich mehrer Jahre mit den Einsatzgebieten von Technologien wie KI, IoT und Cloud beschäftigt.

Laura Weber beschäftigt sich als Strategy Consultant im Bereich Data & Analytics Strategy seit 5 Jahren mit der ganzheitlichen Betrachtung strategischer Themen in diesem Bereich. Ihre Expertise umfasst die Entwicklung und Implementierung von Strategien und Projekten über diverse Branchen hinweg, unter Anwendung verschiedenster Technologien und Methoden. Als Projektleiterin fördert sie transformative Lösungen mit einem strukturierten Ansatz.

Alexander Bauer, Laura Weber
F111
Alexander Bauer, Laura Weber
F111

Vortrag Teilen

09:00 - 09:45
Do 2.1
Daten und KI für eine effiziente und nachhaltige DB
Daten und KI für eine effiziente und nachhaltige DB

Daten, Analytik & KI sind Schlüsselfaktoren für eine effiziente, innovative und nachhaltige Zukunft der Deutschen Bahn. Die DB InfraGO setzt an der Basis - der Schieneninfrastruktur - an, indem wir diese für Ausbau, Instandhaltung und Zugbetrieb unter anderem durch digitale Produkte wie 'InfraMaps', das Google Maps der DB, analysieren. In ihrem Vortrag werden Dr. Nina Stumme und Florian Dohmann konkrete Produktbeispiele vorstellen und über ihre Erfahrungen beim Aufbau neuer 'intelligenter Architekturen' in diesem einzigartigen Umfeld berichten.

Zielpublikum: Data Engineers, Data Scientists, AI-Engineers, AI-Enthusiasts, Project Leader
Voraussetzungen: Grundkenntnisse
Schwierigkeitsgrad: Basic

Extended Abstract:
Daten, Analytik & Künstliche Intelligenz sind Schlüsselfaktoren für eine effiziente, innovative und nachhaltige Zukunft der Deutschen Bahn. Die DB InfraGo setzt an der Basis - der Schieneninfrastruktur - an, indem wir diese für Ausbau, Instandhaltung und Zugbetrieb unter anderem durch 'InfraMaps' als Google Maps der DB analysieren.

Im Herzstück von InfraMaps liegt die Visualisierung der Schieneninfrastruktur durch hochauflösende Fotos, die durch Drohnenaufnahmen sowie Videodaten bis hin zu 3D-Punktwolke-Daten mittels spezieller Sensor-Züge generiert werden. Diese werden letztlich kombiniert mit Bestandsdaten, die weitere Informationen zu Objekten wie z. B. Schranken liefern und zusammen eine virtuell digitale Repräsentanz der Schieneninfrastruktur bilden.

Um dieses zu erreichen, wurde eine neue Unit innerhalb der DB InfraGO mit einem interdisziplinären Team aus verschiedenen Expert:innen der DB und vielen weiteren Partnern ins Leben gerufen, um einen Beitrag zu einer effizienten, digitalen und nachhaltigen Zukunft der Deutschen Bahn und damit zur grünen Mobilitätswende zu leisten.

In ihrem Vortrag werden Dr. Nina Stumme und Florian Dohmann einige aktuelle konkrete Produktbeispiele vorstellen und über ihre Erfahrungen beim Aufbau neuer 'intelligenter Architekturen' in diesem einzigartigen Umfeld berichten. Neugierig geworden? Schauen Sie vorbei und finden Sie es heraus!

Dr. Nina Stumme ist Leiterin des Bereichs Datenmanagement, Analytik und KI bei der DB InfraGO, dem Schieneninfrastruktur-Unternehmen der Deutschen Bahn. 
In den vergangenen Jahren hat Nina zahlreiche Aktivitäten zur Wertschöpfung aus Daten für die notwendige Verbesserung von Qualität und Stabilität in der Schieneninfrastruktur initiiert. Sie reichen vom Aufbau eines rasant wachsenden Daten- und KI-Ökosystems mit Schaffung einer unternehmensweiten Datengrundlage für nachhaltige Geschäftslösungen, die Implementierung innovativer Analytics- & KI-Produkte bis hin zur Etablierung einer übergreifenden Data Governance für die DB InfraGO. 
Nina ist promovierte Mathematikerin und hat in verschiedenen Bereichen der Deutschen Bahn gearbeitet, wobei sie stets die Lücke zwischen den Anforderungen des Business und technologischen Möglichkeiten geschlossen hat.

Florian Dohmann ist Co-Founder & Chief Creative von Birds on Mars, einer führenden KI-Beratung und -Agentur, die Unternehmen dabei hilft, die Zwischenräume aus menschlicher Kreativität, maschineller Intelligenz und organisatorischer Identität zu erforschen und zu gestalten. Im Fokus: Nachhaltigkeit und das 'neue Neue'. Florian ist ein Experte für Daten, künstliche Intelligenz und digitalen Wandel, Intelligence Architect und Kreativer. Er ist Informatiker, IBM-Zögling, Keynote-Speaker, Gastdozent an verschiedenen Universitäten, Teil des Künstlerkollektivs YQP und Miterfinder der künstlich intelligenten Muse. Mehr unter: www.floriandohmann.com.

Nina Stumme, Florian Dohmann
E101/102
Nina Stumme, Florian Dohmann
E101/102
Vortrag: Do 2.1

Vortrag Teilen

09:00 - 09:45
Do 3.1
Data Audit – Wegbereiter zur modernen Dateninfrastruktur
Data Audit – Wegbereiter zur modernen Dateninfrastruktur

Die HAAS Mediengruppe reagiert mit einer Diversifizierung in digitale Dienstleistungen auf die zunehmende Relevanz des Digitalmarktes. Da der Umgang und die Interpretation von Daten in Zukunft immer bedeutsamer wird, passt sich HAAS den Gegebenheiten an und optimiert ihre Datenlandschaft mit Hilfe von The Data Institute. 
Dieser Vortrag zeigt, wie die Aufnahme des Status quo in Sachen Datenlandschaft hilft, den Weg für die Modernisierung der eigenen Dateninfrastruktur in einer komplexen Stakeholderlandschaft zu ebnen.

Zielpublikum: Manager im Datenbereich, Datenstrategen, Data Architects
Voraussetzungen: Grundkenntnisse in Datenmanagement und -organisation
Schwierigkeitsgrad: Basic

Daniel Noll ist ein ausgewiesener Spezialist für das Thema Daten sowie Vertrieb und Marketing im Verlagsumfeld. Nach Stationen bei der Frankfurter Allgemeinen Zeitung und Republic ist er nun bei der HAAS Mediengruppe für die CRM- und BI-Abteilung verantwortlich, wo er die Modernisierung und Digitalisierung aktiv vorantreibt.

Mike Kamysz wird durch die Kombination aus technischer Expertise und seiner Erfahrung im Management Consulting zum idealen Sparringspartner für den Aufbau einer datengetriebenen Organisation.
Zuletzt leitete er das Analytics Engineering & BI Team bei DEPT, mit welchem er branchenübergreifend die Implementierung moderner Datenplattformen betreute. Diese Arbeit setzt er nun bei The Data Institute fort.

Daniel Noll, Mike Kamysz
E124
Daniel Noll, Mike Kamysz
E124

Vortrag Teilen

09:55 - 10:40
Do 1.2
Confluence: Joining Governance Streams to form Data Products
Confluence: Joining Governance Streams to form Data Products

How can Data Cataloguing, Modelling, DQ and other streams join forces to create business value? The speaker shares experience from a data vendor and a manufacturing business.

Target Audience: Data Professionals and decision makers with stakes in the value chain big picture
Prerequisites: Familiarity with Data Governance concepts (Catalogue, Quality, Integration etc.)
Level: Advanced

Extended Abstract:
Data Governance can contribute local optimizations to a company's value chain, such as better data discovery via a Data Catalogue, or quality-monitored and cleansed data sets. From a 30,000 ft Data Strategy view, it is even more desirable to connect the dots for business objects frequently reused among business processes and make them available as governed, quality-controlled, easily accessible Data Products.

The speaker successfully launched a Data Governance program in a company traditionally ranking metal higher than data and will share experiences on the ongoing Data Product journey:

  • Identifying scope
  • Cataloging technical metadata
  • Modeling a logical layer
  • Managing sensitive data in a hybrid architecture
  • Simplifying cross-system access

Dominik Ebeling is a CDMP-certified data and technology manager with more than ten years of international experience in start-up and enterprise contexts. He is passionate about building and developing successful teams, optimizing global processes and structures, and turning data into solutions for customer problems. In his current role as Head of Data Governance at Rolls-Royce Power Systems, Dominik is developing a long-standing manufacturing business into a data-driven organization.

Dominik Ebeling
F111
Dominik Ebeling
F111

Vortrag Teilen

11:10 - 12:10
Do 1.3
Datenkatalog für alle: mit Open Source zum Erfolg
Datenkatalog für alle: mit Open Source zum Erfolg

Schnell und kostengünstig Transparenz in die Datenlandschaft bringen, geht gar nicht? Doch! Mit einem Open-Source-Datenkatalog ...

Doch was macht ein Datenkatalog überhaupt? Welche Vorteile hat die Entscheidung für einen Open-Source-Datenkatalog gegenüber einer kommerziellen Lösung? Was sind mögliche Grenzen, wie fange ich überhaupt an?

Begib dich auf die Reise und werde der Kolumbus deiner Datenschatzinsel!

Zielpublikum: Mitarbeiter aus dem Fachbereich, Führungskräfte, jeder, der Transparenz in seine Daten bringen möchte ...
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Christian Mehwald ist leidenschaftlicher Senior Data Strategist, Experte in der Erzeugung von Datentransparenz. Er verfügt über umfassende Erfahrung in der Beratung von Kommunen und Unternehmen in der Implementierung von Open-Source- und kommerziellen Datenkatalogen.

Christian Mehwald
F111
Christian Mehwald
F111

Vortrag Teilen

Zurück