Konferenzprogramm

Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Hier kannst Du die Programmübersicht der TDWI München 2024 mit einem Klick als PDF herunterladen.

 

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    11.06.
  • Mittwoch
    12.06.
  • Donnerstag
    13.06.
08:30 - 09:30
Pause
Frühstück & Registrierung/Breakfast & Registration
Frühstück & Registrierung/Breakfast & Registration

09:30 - 10:30
KeyDi1
ERÖFFNUNG und KEYNOTE: From Hype to ROI: Navigating the Challenges of Implementing Data Units
ERÖFFNUNG und KEYNOTE: From Hype to ROI: Navigating the Challenges of Implementing Data Units

Weitere Informationen zu dieser Keynote folgen in Kürze.

Dr. Imme Baumüller ist Director Data & Analytics bei der Vaillant Group, einem führenden Hersteller von Wärmepumpen und Gasheizungen in Europa. Sie verantwortet dort die Bereiche Data Architecture & Governance, Data Science und Business Intelligence. Ihr Team entwickelt unter anderem datenbasierte Lösungen zur remote Steuerung von Wärmepumpen und kümmert sich um den Aufbau unternehmensinterner GenAI-Applikationen. Davor hat Frau Baumüller den Bereich Data Technology & Analytics bei der Handelsblatt Media Group in Düsseldorf aufgebaut und mitverantwortet. Ihre Schwerpunktthemen sind Data & AI Strategy, Daten-Transformation und der Return on Investment of Data. Sie hat an der Universität Mannheim promoviert und ihren MBA mit Schwerpunkt Strategy an der WHU Otto-Beisheim School of Management absolviert. 

Imme Baumüller
Imme Baumüller
Track: Keynote
Vortrag: KeyDi1

Vortrag Teilen

10:40 - 11:25
Di 1.1
Augmented Analytics – the path to become insight-driven
Augmented Analytics – the path to become insight-driven

Embarking on analytics transformation reveals a pivotal challenge: not all can be data-driven. Thus, we shift to Augmented Analytics, seamlessly integrating insights into workflows, bypassing the need for universal data literacy. This approach, elevates decision-making quality, operational efficiency and adoption, highlighting the journey towards a culture of insight-driven innovation. We'll explore the essence of Augmented Analytics as the cornerstone for the next analytics maturity level, highlighting the cultural and technical enablers.

Target Audience: Business Leaders/Professionals, Change/Transformation Manager, Analytics Professionals
Prerequisites: Basic knowledge: analytics transformation, genAI, data-driven culture, roles in transformation
Level: Advanced

Extended Abstract:
In our journey to transform analytics, we have come to a critical realization: Not everyone can and will be data-driven, because the reality and impact of data literacy is limited. Our current strategies need to evolve. Enter augmented analytics, a promising approach that will redefine the way we deal with insights. By integrating analytics directly into organizational workflows, we not only bypass the need for universal data literacy, but also significantly improve insight-driven decision making. This talk will explain how one commercial insurer is using this innovative strategy to improve decision quality, streamline operations, and foster a culture equipped to handle analytical challenges. We will explore the technical and methodological foundations and transformative enablers (the necessary roles, data liberalization, transformational mindset, and the importance of generative AI) that make augmented analytics not just a tool, but a catalyst for becoming truly insight-driven.

Willi Weber, with a background in business informatics, transitioned from software development at HDI Global natural catastrophe department to pioneering in analytics. He led the development of probabilistic models and pricing software, became head of data analytics, and architected HDI Global analytics transformation into an insight-driven company. Currently, he spearheads projects augmenting business processes through analytics and generative AI and is co-author of the book: Augmented Analytics.

Willi Weber
Willi Weber

Vortrag Teilen

10:40 - 11:25
Di 2.1
Neues Bundesliga-Fan-Erlebnis mit AI-Content-Transformation
Neues Bundesliga-Fan-Erlebnis mit AI-Content-Transformation

Entdecke, wie die Bundesliga die Sport-Interaktion durch KI-getriebene Transformation von Inhalten auf das nächste Level hebt! Erhalte Einblick in die strategische Anwendung von künstlicher Intelligenz durch die Bundesliga - von der Inhaltserstellung über die Inhaltsverteilung bis hin zur Neugestaltung der Fan-Interaktion. Verstehe die Rolle der KI bei der Schaffung dynamischer, personalisierter Fan-Erlebnisse und erfahre, wie sie die globale Reichweite durch mehrsprachige und formatspezifische Inhaltsanpassungen verbessert.

Zielpublikum: Projektleiter:innen, Entscheider:innen etc.
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Als Head of Product bei DFL Digital Sports leitet Björn Rosenthal die digitale Transformation der Bundesliga, indem er Datenanalysen und Kundenfeedback mit UX zusammenführt, um innovative Produkte zu entwickeln. Seine Leidenschaft ist die generative KI, da er deren außergewöhnliches Skalierungspotenzial und transformative Wirkung auf verschiedenen digitalen Plattformen und Nutzererfahrungen erkannt hat.

Als Lead Consultant bei Cologne Intelligence entschlüsselt Tobias Stumm die Geheimnisse, die in komplexen Daten verborgen sind. Ihm geht es darum, die Geschichten in den Zahlen zu finden, um Systeme und Prozesse durch den Einsatz modernster KI-Technologie zu verbessern. Mit mehr als vier Jahren Erfahrung ist er Experte für den Aufbau von End-to-End-KI-Lösungen und begleitet Kunden auf ihrer KI-Reise.

Björn Rosenthal, Tobias Stumm
Björn Rosenthal, Tobias Stumm
Vortrag: Di 2.1

Vortrag Teilen

10:40 - 11:25
Di 3.1
Data Mesh & DDD: Synergien für datengetriebene Exzellenz
Data Mesh & DDD: Synergien für datengetriebene Exzellenz

Dieser Vortrag beleuchtet Data Mesh im Detail und streift dabei auch alle zugehörigen Themen, wie Domain-oriented decentralized Data Ownership and Architecture, Data as a Product, Self-serve Data Infrastructure as a Platform und Federated Governance.

Ein besonderer Fokus dieses Vortrags liegt auf den Parallelen zu modernen cloud-nativen OLTP-Architekturen. Der Vortrag endet mit einem Ausblick auf zukünftige Entwicklungen im Bereich Data Mesh und gibt Empfehlungen für Unternehmen, die eine agile und skalierbare Datenstrategie anstreben.

Zielpublikum: Datenarchitekten, Data Engineers und Führungskräfte
Voraussetzungen: Architekturwissen hilfreich, Governance
Schwierigkeitsgrad: Basic

Extended Abstract:
Dieser Vortrag beleuchtet das Konzept des Data Mesh, das einen Paradigmenwechsel in der Verwaltung von Daten in Unternehmen verspricht. Data Mesh geht über traditionelle Vorgehen einer zentralen Datenhaltung für analytische Daten hinaus, indem es eine dezentrale, föderierte Dateninfrastruktur fördert. Das Versprechen eines Data Mesh: Datensilos, wie wir sie bisher kennen, gehören der Vergangenheit an. 

Der Vortrag beginnt mit einer Einführung in die Herausforderungen herkömmlicher Datenarchitekturen und zeigt auf, wie Data Mesh diese adressiert.

Im weiteren Verlauf werden die vier Grundprinzipien von Data Mesh detailliert erläutert: Domain-oriented decentralized Data ownership and architecture, Data as a product, Self-serve data infrastructure as a platform, Federated governance. Diese Prinzipien ermöglichen eine effiziente Skalierung, verbessern die Datenqualität und fördern die Eigenverantwortung der Teams für ihre Daten. Dabei wird auch betrachtet, was diese Ideen eines Data Mesh für die Organisation und die Menschen bedeuten.

Ein besonderer Fokus dieses Vortrags liegt auf den Parallelen zu modernen cloud-nativen OLTP-Architekturen, wobei die Übertragbarkeit der Data-Mesh-Prinzipien auf in diesem Zusammenhang bereits etablierte Integrationskonzepte und -prozesse betont wird. Der Vortrag endet mit einem Ausblick auf zukünftige Entwicklungen im Bereich Data Mesh und gibt Empfehlungen für Unternehmen, die eine agile und skalierbare Datenstrategie anstreben. Dieser Vortrag richtet sich an Datenarchitekten, Data Engineers und Führungskräfte, die ihre Dateninfrastruktur zukunftsfähig gestalten möchten.

Fabian Hardt arbeitet als Solution Architect bei der OPITZ CONSULTING Deutschland GmbH. Er verfügt über langjährige Projekterfahrung in Analytics-Projekten und beschäftigt sich mit modernen Architekturen für die gestiegenen Anforderungen im Zeitalter der Digitalisierung.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/fabian.hardt

Sven Bernhardt ist ein Technologie-Enthusiast und arbeitet für Opitz Consulting in Deutschland als Chief Architect und Integration Evangelist im Corporate Development Team. In seiner Rolle ist er für das Management des Technologieportfolios und die Entwicklung von Best Practices und Richtlinien verantwortlich. Darüber hinaus unterstützt Sven seine Kollegen bei der Implementierung von Softwarelösungen für Kunden. Zu seinen Kernthemen gehören cloud-native Architekturen, API-Management und Service Mesh. Sven spricht regelmäßig auf verschiedenen Konferenzen über Technologie- und Architekturthemen und teilt seine Gedanken und Erfahrungen in Artikeln und Blogbeiträgen. Zudem beteiligt er sich als Kong Champion sowie Oracle ACE Pro aktiv am Wissensaustausch in der Development Community.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/sven.bernhardt

Fabian Hardt, Sven Bernhardt
Fabian Hardt, Sven Bernhardt
Vortrag: Di 3.1

Vortrag Teilen

10:40 - 11:25
Di 4.1
Regulierung von KI durch den Gesetzgeber
Regulierung von KI durch den Gesetzgeber

Es muss gewährleistet sein, dass die auf dem Unionsmarkt in Verkehr gebrachten und verwendeten KI-Systeme sicher sind und die bestehenden Grundrechte und die Werte der Union wahren. Zur Förderung von Investitionen in KI und innovativen KI muss Rechtssicherheit gewährleistet sein. Governance und die wirksame Durchsetzung des geltenden Rechts sowie die Sicherheitsanforderungen an KI müssen gestärkt werden. Die Entwicklung eines Binnenmarkts für rechtskonforme, sichere und vertrauenswürdige KI-Anwendungen wird gesetzgeberisch reguliert.

Zielpublikum: Anwender von KI bzw. daran Interessierte
Voraussetzungen: Grundsätzliche Sensibilisierung für Compliance
Schwierigkeitsgrad: Basic

Seit 2015 ist Nils Bruckhuisen Rechtsanwalt in Köln. Zuvor arbeitete er freiberuflich in der Wirtschaftsprüfung. Nach Studium der Rechtswissenschaften an der Humboldt-Universität zu Berlin leistete er den juristischen Vorbereitungsdienst am Landgericht Koblenz ab. Von dort brach er zu einem (zu) kurzen Gastspiel in der deutschen Auslandshandelskammer in Nairobi/Kenia auf. Gemeinsam mit Lars von Lipinski von der FINCON verfasste er das TDWI E-Book 'Die neue EU-Datenschutzgrundverordnung - Auswirkungen auf Geschäftsprozesse und Analytische Informationssysteme'. Des Weiteren zeichnet er für das Kapitel zu Recht und Datenschutz in dem Buch 'Business Intelligence und Analytics in der Cloud', herausgegeben von Dr. Ralf Finger, verantwortlich. Seine Praxis ist wirtschaftsrechtlich ausgelegt, wobei das Datenschutzrecht insbesondere mit der im Mai 2018 in Kraft getretenen Datenschutzgrundverordnung (DSGVO) zunehmend an Bedeutung gewonnen hat.

Zur DSGVO beriet und berät er Unternehmen und Agenturen verschiedener Branchen (Bau, Handel, Werbung, IT-Security, Tourismus) sowie Vereine/gemeinnützige Organisationen. Für diese erstellte und kontrollierte er u.a. Verfahrensverzeichnisse und Verträge über Auftragsdatenverarbeitungen (AVV). Über das Tagesgeschäft hinaus widmet er sich dem Rechtsstaatsdialog, insbesondere mit Juristen in Kenia und auf dem Balkan.

Nils Bruckhuisen
Nils Bruckhuisen
Vortrag: Di 4.1

Vortrag Teilen

10:40 - 11:25
Di 5.1
Mehr Demokratie wagen – und als Architekt die Flöhe hüten?
Mehr Demokratie wagen – und als Architekt die Flöhe hüten?

Stellen Sie sich vor, Sie haben in einem Großunternehmen als Daten-Architekt einer BI-Initiative mit ca. 160 Daten-Enthusiasten aus zentraler IT, Business Units und Zentralabteilungen die Aufgabe, die Architektur zu gestalten. Ist das wie einen Sack Flöhe zu hüten? Wie prägt ein 'people first'-Ansatz die Architekturarbeit? Und welchen Beitrag leisten aktuelle technische und organisatorische Ansätze wie Cloud, Data Marketplaces oder Data Mesh dabei?

Zielpublikum: Data Engineer, Project Leader, Decision Makers, Architects
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Edgar Kaemper ist Architecture Guide bei Bosch im Bereich xBI (Cross Business Intelligence). Er hat in Groß- und mittelständischen Unternehmen Big-Data-Architekturen und Data-Warehouse-Services (SaaS) aufgebaut und betrieben.
Edgar Kaemper ist Sprecher auf Anwendertreffen und Konferenzen.
Nebenberuflich ist er Vorsitzender einer Stiftung und unterstützt als Perspektivenentwickler einen Jugendverband mit > 50.000 Ehrenamtlichen in Change-Prozessen.

Edgar Kaemper
Edgar Kaemper
Vortrag: Di 5.1

Vortrag Teilen

10:40 - 11:25
Di 6.1
Innovation im Banking – Erfolgsfaktoren zur Nutzung von KI
Innovation im Banking – Erfolgsfaktoren zur Nutzung von KI

Die Implementierung von KI bei einem Banking-IT-Dienstleister ist ein strategischer Schritt. Im Fokus stehen Technologie (ML, Algorithmen), Compliance, Use-Case-Management, Recruiting und Education. Die Technologieoptimierung steigert Leistung und Effizienz. Compliance-Richtlinien werden transparent eingebunden. Ein strukturiertes Use-Case-Management sichert kundenorientierte Lösungen. Gezieltes Recruiting von KI-Experten sichert Fachkompetenz. Bildungsprogramme gewährleisten kontinuierliche Qualifikation der Mitarbeiter.

Zielpublikum: Projektleiter & Leitung von KI & Analytics
Voraussetzungen: Grundverständnis zu KI & Analytics
Schwierigkeitsgrad: Advanced

Malte Lange ist ein innovativer und ergebnisorientierter Experte für Datenanalyse mit nachgewiesener Erfolgsbilanz bei der strategischen Implementierung von Process Mining und der Entwicklung einer Marketingautomatisierungslösung. Technischer Architekt einer Datenanalyse- und KI-Plattform für über 350 Sparkassen, spezialisiert auf Business Development und Use-Case-Enablement. Karriereentwicklung vom Datenbankexperten zum Analytics-Enabler, gekennzeichnet durch Innovation, strategisches Denken und effektive Teamführung.

Malte Lange
Malte Lange
Vortrag: Di 6.1

Vortrag Teilen

10:40 - 12:20
Di 7.1
Data Governance in der Ära des Europäischen AI Act
Data Governance in der Ära des Europäischen AI Act

In einer datengetriebenen Welt stellt Künstliche Intelligenz (KI) die Data Governance vor neue Chancen und Herausforderungen. Die jüngste Einführung des Artificial Intelligence (AI) Acts durch die Europäische Union ist ein bedeutender Meilenstein in der Gestaltung einer zukunftsfähigen Data Governance. In unserem Workshop möchten wir diskutieren, welchen Einfluss die neuen Regularien auf bisherige Data-Governance-Initiativen nehmen werden und welche Weichen wir für eine KI gerüstete Data Governance stellen müssen.

Zielpublikum: C-Level Entscheider/Sponsoren, Datenkonsumenten (Data Scientists, Data Analysts, Data Engineers), Data Governance Office/Manager, AI Experts
Voraussetzungen: Interesse am Thema AI, Data Governance & Ethic AI
Schwierigkeitsgrad: Basic

Extended Abstract:
In der heutigen datengetriebenen Welt stellt künstliche Intelligenz (KI) die Data Governance vor nie da gewesene Chancen und Herausforderungen. Die jüngste Einführung des Artificial Intelligence Acts (AI Act) durch die Europäische Union ist ein bedeutender Meilenstein in der Gestaltung einer zukunftsfähigen Data Governance. Mit diesen Ereignissen zeichnet sich auch ein neuer Begriff - AI Governance - als Trend in der Data Community ab.

In unserem Workshop möchten wir diskutieren, welchen Einfluss die neuen Regularien auf bisherige Data-Governance-Initiativen nehmen werden und welche Weichen wir für eine KI gerüstete Data Governance stellen müssen.

Dazu möchten wir zunächst eine Übersicht zum EU AI Act geben, der letztes Jahr durch die Europäische Kommission verabschiedet wurde. Dabei sind zentrale Grundlagen und Regularien zur Nutzung und Transparenz von KI geschaffen worden, die auf einen ethischen Umgang mit KI abzielen. Hier möchten wir vor allem die Risikoklassifizierung von KI-Anwendungen beleuchtet und gleichzeitig Anwendungsfälle in den Bereichen Datenschutz und Sicherheit hervorheben.

Der Fokus unseres Workshops wird ein Dialog zur zentralen These sein: 'AI Governance ist Data Governance'.

Gemeinsam mit den Teilnehmenden werden wir auf das komplexe Zusammenspiel zwischen KI und Data Governance eingehen und uns dabei mit den Auswirkungen auf Organisation, Technologie und auf verschiedene Geschäftsfelder befassen. Im Austausch zu bisherigen Erfahrungen, Use Cases und möglichen Herausforderungen aus der Praxis möchten wir konkrete Strategien für eine KI gerüstete Datenstrategie & Data Governance ableiten.

Die aus dem Workshop gewonnenen Erkenntnisse sollen Bewusstsein für einen ethischen Umgang mit KI schaffen und für Transparenz hinsichtlich notwendiger Maßnahmen zur Einhaltung gesetzlicher Vorschriften sowie zur Risikominderung sorgen.

Finden Sie mit uns heraus, welche neuen Herausforderungen Ihre Data Governance erwarten, welche Blind Spots noch vorhanden sind und welche Enabler in einer KI-getriebenen Data Governance von zentraler Bedeutung sind.

Egal, ob Sie ein Datenmanagement-Experte, ein KI-Stratege oder ein Compliance-Beauftragter sind, seien Sie bei unserem Workshop dabei und diskutieren Sie mit über die Zukunft einer KI-befähigten Data Governance.

Katharina Conradi ist Product-Managerin bei der Synabi Business Solutions GmbH und bringt 8+ Jahre Erfahrung im Bereich Datenmanagement mit. Als Beraterin hat sie Kunden in diversen Datenprojekten (z.B. Datenstrategie, Data Warehouse, BI&Analytics etc.) begleitet. Heute ist es ihre Priorität, Markt- und Kundenbedürfnisse zu verstehen und neue Trends im Datenmanagement und Data Governance zu identifizieren, um kundenzentrierte innovative Lösungen zu entwickeln.

Uygar Karakoc bringt als Senior Product Consultant bei der Synabi Business Solutions GmbH umfangreiche Erfahrung in den Bereichen Data-Governance und Datenmanagement mit. Seine Kunden berät er vor allem in der Einführung von Data-Governance-Initiativen. Dabei liegt sein Augenmerk auf diversen Anwendungsszenarien, wie Datenqualität, Data Lineage oder Datenschutz sowie der technischen Umsetzung von Data-Governance-Frameworks in Datenmanagement-Tools.

Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in den unterschiedlichen Branchen (Telekommunikation, Banken und Handel). In seiner Funktion als COO der Synabi Business Solutions GmbH verantwortet er die Konzeption und Umsetzung von Metadaten- und Data-Governance-Projekten.

Katharina Conradi, Uygar Karakoc, Wolf Erlewein
Katharina Conradi, Uygar Karakoc, Wolf Erlewein
Track: Hands-On
Vortrag: Di 7.1

Vortrag Teilen

10:40 - 11:25
Di 8.1
Design Thinking und Datenmodellierung
Design Thinking und Datenmodellierung

In einer Welt, wo Daten das neue Gold sind, öffnet dieser Workshop neue Horizonte: Nicht nur Produktverantwortliche und Data Engineers entdecken durch Design Thinking innovative Wege der Datenmodellierung. Diese Reise durch kreatives Denken und strukturierte Analyse führt zu robusten und flexiblen Datenstrukturen. Teilnehmer erleben, wie iteratives Prototyping die Verbindung zwischen Design und technischer Umsetzung stärkt. Ein Muss für alle, die ihre Data Solutions neu denken wollen. Dieser Workshop wird von der DOAG e.V. veranstaltet.

Im Zentrum dieses Workshops, der von der DOAG e.V. initiiert wird, steht die Verschmelzung zweier scheinbar unterschiedlicher Disziplinen: Design Thinking und Datenmodellierung. In einer Ära, in der Daten wertvoller als Gold sind, öffnet dieser Workshop die Tore zu einem neuen Verständnis und Ansatz im Umgang mit der wertvollen Ressource Information.
Der Workshop richtet sich an eine breite Zielgruppe, zum Beispiel Produktverantwortliche, Architekten, Data Engineers und Analysts, die an der vordersten Front der digitalen Transformation arbeiten. Diese Fachleute stehen täglich vor der Herausforderung, aus einem Sumpf von Daten Sinn zu schaffen und Strukturen zu entwickeln, die nicht nur effizient, sondern auch zukunftssicher sind. Der Workshop zielt darauf ab, diesen Experten die Prinzipien des Design Thinking näher zu bringen – eine Methodik, die traditionell dem Designbereich vorbehalten ist, aber auch erstaunlich wirksame Lösungen für technische und strukturelle Herausforderungen bietet.
Die Teilnehmer werden eingeladen, auf eine Reise zu gehen, die das Potential hat, ihre Sicht auf Datenmodelle, um eine neue Perspektive zu erweitern. Statt den üblichen Pfaden der Logik und der linearen Entwicklung zu folgen, erkundet der Workshop, wie Kreativität und iterative Entwicklung das Rückgrat für die Schaffung von Datenstrukturen bilden können, die nicht nur technisch robust, sondern auch anpassungs- und zukunftsfähig sind.
Die kollaborative Natur des Design Thinkings ermutigt die Teilnehmer, über den Tellerrand hinaus zu denken und gemeinsam Lösungen zu entwickeln, die traditionelle Ansätze in den Schatten stellen können. Durch diese interaktive und hands-on Erfahrung werden die Teilnehmer befähigt, die Prinzipien des Design Thinking in ihre tägliche Arbeit zu integrieren, um so die Herausforderungen der Datenmodellierung mit frischen Augen zu betrachten.
Der Workshop verspricht nicht nur eine Erweiterung des methodischen Werkzeugkastens, sondern auch eine Transformation der Denkweise. Er zeigt auf, dass die Grenzen zwischen Design und Technik nicht nur durchlässig sind, sondern dass gerade im Zwischenraum innovative Lösungen für komplexe Probleme entstehen können.
 Ausgerichtet von der DOAG, einem Anwenderverein für holistische Software- und Datenbankentwicklung, bietet dieser Workshop eine einzigartige Gelegenheit für Fachleute, die bereit sind, ihre Data Solutions neu zu denken und zu gestalten.

  • Spezialisierung: Business Analyse, Requirements Engineering, Prozesse
  • Meine Leidenschaft besteht dem Weitergeben und Lernen von neuem Wissen. Aus diesem Grund trete ich als Speaker auf vielen Konferenzen auf und verfasse viele Artikel für die Community. Als Themenverantwortlicher bei der DOAG für Digitale Transformation möchte ich Menschen einen Weg aufzeigen, wie die eigene Arbeit noch besser und wertstiftender gestaltet werden kann. Da ich ein Freund davon bin Probleme systematisch zu Verhindern habe ich bei der Aleri das Thema Requirements Engineering und Management neu positioniert und ausgebaut.
  • Spezialisierung: Data Solutions, Green Coding, Performance, Coaching
  • Erfahrung: 30 Jahre SQL, PLSQL, Oracle Apex, JavaScript, etc.
  • Meine Leidenschaft sind alle Dinge, die mit Daten zu tun haben. Datenanalysen, Datenbanken, Performance, Softwareentwicklung und natürlich User Interface, damit die Anwender die schönen Sachen auch gut benutzen können. Vor 15 Jahren kam Green IT, vor 2 Jahren Green Coding dazu.
Stephan Tönnies, Arne Hattendorf
Stephan Tönnies, Arne Hattendorf

Vortrag Teilen

11:35 - 12:20
Di 1.2
Digitale Transformation – mit Maturity Assessment zum Erfolg
Digitale Transformation – mit Maturity Assessment zum Erfolg

Digitalisierung ist für uns die Antwort auf die unternehmerischen Herausforderungen unserer Zeit. Eine erfolgreiche Transformation erfordert einen Wandel der Unternehmenskultur, der durch eine Vielzahl von Maßnahmen begleitet wird. Eine davon ist das Daten- und Digitalisierungsreifegrad-Assessment, welches eine bedarfsgerechte Unterstützung ermöglicht. Neben dem teamindividuellen Ist-Zustand wird ein Ziel-Zustand ermittelt. Die Abweichung ermöglicht teamspezifische Maßnahmen, Benchmarking und eine zielgerichtete Vorstandskommunikation.

Zielpublikum: CEO, CIO, CTO, Chief Digital Officer, Innovationsmanager, IT-Manager, Projektleiter, Digitalisierungsexperte, Datenexperte
Voraussetzungen: keine besonderen Voraussetzungen
Schwierigkeitsgrad: Basic

Extended Abstract:
Als Unternehmen stehen wir vor einer Vielzahl von Herausforderungen, die unsere bestehenden Geschäftsmodelle gefährden. Unter anderem führen der Fachkräftemangel, geopolitische Krisen, die zunehmende Regulatorik und der Klimawandel dazu, dass wir als Unternehmen neue Wege finden müssen, um zukunftsfähig zu bleiben. Wir bei der Gothaer sind davon überzeugt, dass die Antworten auf die Herausforderungen in der Digitalisierung und Automatisierung liegen. Die Transformation zu einem datengetriebenen, digitalen Unternehmen ist daher keine Option oder Modeerscheinung, sondern eine Notwendigkeit, um als Unternehmen relevant zu bleiben. Die Basis für eine erfolgreiche Transformation liegt in der Unternehmenskultur. Man kann noch so viele moderne Systeme einführen und entsprechende Unternehmenseinheiten etablieren, nur wenn es gelingt, ein Verständnis für die Themen aufzubauen, die Menschen im Unternehmen zu begeistern und zu befähigen, mit Daten zu arbeiten, wird die Transformation gelingen. Der Kulturwandel ist ein langwieriger und komplexer Prozess, der durch eine Vielzahl von Angeboten und Formaten begleitet werden muss, um die Menschen im Unternehmen mit ihren unterschiedlichen Wissensständen, Präferenzen und Bedürfnissen mitzunehmen. Um dies zu unterstützen, haben wir im Bereich Digitalisierung & Datenmanagement eine Reihe von Maßnahmen entwickelt, um den kulturellen Wandel voranzutreiben. Die Maßnahmen lassen sich in drei Kategorien einteilen: Kompetenzentwicklung, Kommunikation und Transformationsservices. Dabei sind die Maßnahmen rund um Kompetenzentwicklung und Kommunikation eher generischer Natur und werden in die Breite des Unternehmens getragen. Die Transformationsservices bieten uns die Möglichkeit, die Teams und Bereiche bedarfsgerecht bei ihrer Transformation zu unterstützen. Mit Hilfe eines Daten- und Digitalisierungsreifegrad-Assessments wird der teamindividuelle Ist-Zustand entlang der 7 Transformationsdisziplinen ermittelt, um daraus gemeinsam einen Ziel-Zustand abzuleiten. Die Differenz zwischen Ist- und Ziel-Zustand ermöglicht es uns, teamindividuelle Maßnahmen zur Steigerung des Reifegrades zu identifizieren, ein internes Benchmarking durchzuführen, um voneinander zu lernen und eine zielgerichtete Vorstandskommunikation durchzuführen.

Svenja Quermann leitet das Data Governance Team der Gothaer. Ihr Ziel ist es, die Basis für das datengetriebene Unternehmen zu legen und die Menschen für die Arbeit mit Daten zu begeistern. Das Thema Daten begleitet sie schon ihr ganzes Berufsleben und durch ihre vorherige internationale Consultingtätigkeit konnte sie die Herausforderungen verschiedener Unternehmen erfolgreich lösen. Sie ist studierte Betriebswirtin und versteht sich als Brücke zwischen Fachbereich & IT.

Torsten Borchert ist Data Governance Manager bei der Gothaer und verfügt über umfangreiche Erfahrungen im Bereich Datenmanagement und Datenqualität. Seine Expertise in der Datenqualität hat zu signifikanten Verbesserungen bei der Gothaer geführt. Als Referent und Sprecher teilt Herr Borchert seine Expertise auf Branchentreffen und Konferenzen. Vor seiner Tätigkeit bei der Gothaer war Herr Borchert 7 Jahre in der Beratung tätig.

Svenja Quermann, Torsten Borchert
Svenja Quermann, Torsten Borchert

Vortrag Teilen

11:35 - 12:20
Di 2.2
Transforming minds and culture during a tech transformation
Transforming minds and culture during a tech transformation

Our unit has the opportunity to move to the AWS Cloud with its platforms and data. The main challenges we faced were/are:

  • Getting buy-in from all colleagues
  • Dealing with complexity
  • Re-skilling
  • Giving people a sense of belonging and psychological safety in a complex, hybrid and changing environment.

Find out more about how we dealt with these challenges, using lots of practical hacks, and the newest findings of Neuroscience. You might be surprised which measures worked best and also by how we had huge positive impact with an average budget

Target Audience: All colleagues working in Data Analytics and AI, presentation being specially interesting to leadership roles, such as Tech Leads, Scrum Masters, Product Owners, Product Managers, Tribe Chiefs etc.
Prerequisites: Active listening skills :) Otherwise none.
Level: Basic

Extended Abstract:
The session will give deeper insights on how we deal with:

  • Hiring in a market of skill shortage
  • Make retention/reduce fluctuation
  • Make people feel that they belong
  • How we help people to develop/give them attractive perspectives
  • How we move from a good to a great place to work (speaking in a metaphor, our vision is to become like the Maledives, so that everyone wants to go there and misses they place if/when they leave and want to come back)
  • Leadership/Agile Working
  • If time allows, insights on concreate measures on mental health and psychological safety can be given.

For a first impression on our people and culture please watch this video, which we produced ourselves: youtu.be/FMA4dk7elD0

Additionally here you see use cases with data provided by Swisscom: www.swisscom.ch/de/business/enterprise/angebot/platforms-applications/data-driven-business/mobility-insights-data.html

Marianne Temerowski is the People Lead of Data Services, at Data Analytics & AI at Swisscom and leads 114 Engineers, Scrum Masters and Product Owners (internals and externals).
She has

  • worked for about 15 years in the information and communications technology industry for companies such as SAP, Deutsche Telekom and Swisscom.
  • successfully implemented transformations of organizations, technologies, and products on several occasions.
  • many years' experience in leading people and over EUR 60 million in profit and loss responsibility.
  • studied Psychology and combined it with economics and law. She likes to apply the newest findings from Neuroscience at work.
  • lived in 7 countries and is half Chilean, half German. LinkedIn: www.linkedin.com/in/marianne-temerowski/
Marianne Temerowski
Marianne Temerowski
Vortrag: Di 2.2

Vortrag Teilen

11:35 - 12:20
Di 3.2
Erfahrungsbericht einer modernen Lakehouse-Architektur
Erfahrungsbericht einer modernen Lakehouse-Architektur

Wir klären, warum die Kombination aus Data Mesh und Data Vault DWH einen entscheidenden Wettbewerbsvorteil in einem dynamischen Umfeld birgt. Und zeigen auf, wie mittels Databricks und dbt die Transformation von einem klassischem DWH hin zu einer modernen Lakehouse-Architektur gelingt. Neben einem technischen 'deep dive' in die Data-Vault-Herausforderungen beinhaltet der Vortrag einen Erfahrungsbericht. Wir beantworten, wie es uns gelungen ist, ein für die Analysten neues Data-Vault-Konzept in einer dezentralen Daten-Umgebung zu implementieren.

Zielpublikum: Data Engineer, Data Architekt, Project Leader, Data Analyst
Voraussetzungen: Grundkenntnisse in Data Vault 2.0 und Data Mesh
Schwierigkeitsgrad: Basic

Extended Abstract:

  • Warum birgt die Kombination aus Data Mesh und Data Vault Warehouse einen entscheidenden Wettbewerbsvorteil in einem sehr dynamischen Umfeld?
  • Wie entsteht eine Synergie zwischen dezentralem Mesh und zentralem DWH?

In diesem Vortrag wollen wir genau diese Fragestellungen beantworten. Und zeigen auf, wie - mittels Databricks und dbt - die Transformation von einem sehr klassischem DWH hin zu einer modernen Lakehouse-Architektur gelingt.

Seit dem Start der Flaschenpost in Münster umfasst das Liefergebiet mehr als 200 Städte in ganz Deutschland. Das führt zwangsläufig auch datenseitig zu immer neuen und steigenden Anforderungen.

Neben einem technischen 'deep dive' in die Data-Vault-Herausforderungen innerhalb dieser Umgestaltung beinhaltet der Vortrag einen Erfahrungsbericht. Wir beantworten, wie es uns gelungen ist, ein für die Datenanalysten völlig neues Data-Vault-Konzept in einer dezentralen Daten-Umgebung zu implementieren.

Vera Melang verfügt über 9 Jahre Berufserfahrung im Bereich Business Intelligence, Data Warehouse Architektur und Reporting über viele Branchen hinweg. Als Teamleiterin Data Warehouse und Data Engineer hat sie viele Projekte im Bereich BI und DWH absolviert. Zurzeit baut sie zum zweiten Mal ein Data Vault basiertes Data Warehouse.

Marco Lohaus verfügt über mehr als 10 Jahre Erfahrung im Bereich Business Intelligence, Data Science und Dashboarding mit besonderen Fachkenntnissen im E-Commerce.
Im Rahmen seiner Tätigkeit als BI-Leiter, Management-Berater und Architekt hat er Projekte in den Bereichen Reporting, Big Data, DWH, Digitalisierung und Data Science verantwortet.

Vera Melang, Marco Lohaus
Vera Melang, Marco Lohaus
Vortrag: Di 3.2

Vortrag Teilen

11:35 - 12:20
Di 4.2
End-to-End Use-Case | auf Basis eines Modern Data Stacks
End-to-End Use-Case | auf Basis eines Modern Data Stacks

Dies ist die Fortsetzung zu unserer Reise im Bereich Daten mit Fokus auf einen End-to-End Use-Case. SENEC ist ein Anbieter intelligenter Lösungen für Energiespeicherung und Photovoltaik mit Fokus auf erneuerbaren Energien. Im letzten Jahr haben wir im Vortrag zum Modern Data Stack unsere neu eingeführte Datenplattform vorgestellt. Dieses Mal zeigen wir euch einen Business-Use-Case und ihr begleitet uns virtuell durch 2 Sprints, wie dieser von der Anforderung, über Datenintegration und Data Governance bis hin zum Dashboard zügig Mehrwert bringt.

Zielpublikum: Data Engineers, Analyst:innen, Entscheider:innen, Projektmanager:innen, Architekt:innen
Voraussetzungen: Erfahrung in der Arbeit mit DWHs, Erfahrung in der Datenanalyse sowie Power BI oder einem anderen BI-Tool
Schwierigkeitsgrad: Advanced

Lisa-Marie Krause ist studierte Mathematikerin und hat in der Vergangenheit im Bankensektor wertvolle Beratungserfahrung gesammelt. Im Herbst 2021 wechselte sie zur SENEC, wo sie als Data Engineer ihre Karriere fortsetzt. Seit ihrem Eintritt spielt sie eine zentrale Rolle in der Entwicklung und kontinuierlichen Verbesserung der Data and Analytics-Plattform (DAP). Seit dem 1. Januar 2024 übernimmt sie die Rolle des Data Architect, mit dem Fokus auf fortlaufende architektonische Entwicklung der Datenplattform.

Armin Geisler verantwortet als Team Lead den Bereich Data & Analytics bei der SENEC GmbH in Leipzig. Das Team entwickelt kontinuierlich die firmenweite Datenplattform weiter, optimiert Analyse- und BI-Prozesse und realisiert diverse Reporting- und Analytics-Vorhaben, darunter auch Power-BI-Projekte sowie Data-Science-Initiativen, z.B.: Predictive Analytics.

Stephan Lauber ist ein erfahrener Senior Data Analyst bei der SENEC in Leipzig, mit umfangreicher Erfahrung in Supply Chain Management und Datenanalyse, besonders mit Microsoft Power BI. Der studierte Wirtschaftsingenieur (FH Südwestfalen) hat bundesweit Erfahrung in verschiedenen Positionen gesammelt. Bei SENEC ist er verantwortlich für unternehmensweite Data & Analytics-Projekte in Power BI sowie die Reporting und Analytics Self-Service Initiative.

Lisa-Marie Krause, Armin Geisler, Stephan Lauber
Lisa-Marie Krause, Armin Geisler, Stephan Lauber
Vortrag: Di 4.2

Vortrag Teilen

11:35 - 12:20
Di 5.2
Evolution of Modern Data Architecture: A Practical Journey
Evolution of Modern Data Architecture: A Practical Journey

Real-world experience navigating a modern data architecture landscape. Thomas Mager will reflect on the initial motivations that sparked this journey, the structure of his contemporary data architecture, the value he could generate, and the obstacles he faced along the way. Additionally, he will offer valuable insights into his current and future endeavors, incl. leveraging SaaS, advancing AI initiatives, and rapidly developing new regulatory reports, all facilitated by the robust framework of modern data architecture based on data virtualization.

Target Audience: Data Architect, Data Engineer, Project Leader, Decision Makers,...
Prerequisites: Basic knowledge
Level: Advanced

Extended Abstract:
In this presentation, Thomas Mager will share his real-world experience navigating a modern data architecture landscape over the past five years. He will reflect on the initial motivations that sparked this journey, the structure of his contemporary data architecture, the value he could generate, and the obstacles he faced along the way. Additionally, Thomas will offer valuable insights into his current and future endeavors, including leveraging SaaS, advancing AI initiatives, and rapidly developing new regulatory reports, all facilitated by the robust framework of modern data architecture with data virtualization.

The main focus areas of this presentation will be:

  • Integrating diverse data management techniques, such as data virtualization and ELT, into a unified platform.
  • Developing a core business logic layer tailored for data-heavy, IT-centric applications.
  • Empowering and skilling 'Data Citizens' to effectively utilize this data architecture.
  • Facilitating both current and prospective use cases through this architecture.

Thomas Mager is Head of Data and Analytics Platforms at Partner Reinsurance, a global multi-line reinsurance company. He joined PartnerRe in 2008 after having worked in data management functions at Credit Suisse and UBS. With his team, he builds the worldwide data platform supporting all key business areas. Building an agile truly cloud-native environment is a key driver for him and his team.

Thomas Mager
Thomas Mager
Vortrag: Di 5.2

Vortrag Teilen

11:35 - 12:20
Di 6.2
Embeddings als Schlüssel zur KI-Use-Case-Multiplikation
Embeddings als Schlüssel zur KI-Use-Case-Multiplikation

Embeddings haben sich im KI-Kontext längst als eine bevorzugte Methode zur Datenrepräsentation etabliert. Durch den Einsatz unterschiedlicher Embedding-Methoden ist es bonprix gelungen, verschiedenartige KI-relevante Daten effizient nutzbar zu machen und so die Erschließung neuer KI-Use-Cases deutlich zu beschleunigen.

In diesem Vortrag wird der Aufbau eines Embedding-Portfolios aufgezeigt. Neben den verwendeten Methoden und den abgedeckten KI-Use-Cases werden auch die Implikationen für eine Buy-or-Make-Entscheidung beleuchtet.

Zielpublikum: Product Owner, Projektmanager:innen, KI-Manager:innen, Data Scientists, ML Engineers
Voraussetzungen: Grundsätzliches Verständnis von KI-Methodik und KI-Use-Cases
Schwierigkeitsgrad: Advanced

Sascha Netuschil ist Abteilungsleiter Data Science beim internationalen Modeunternehmen bonprix, wo er nach Einstieg als Web Analyst ab 2015 maßgeblich das Thema Data Science aufbaute und heute bereichsübergreifend verantwortet. Zu den von ihm umgesetzten KI- und Data-Science-Projekten zählen neben Recommender- und Personalisierungs-Systemen, Echtzeit-Intent-Erkennung und Fraud Detection auch Attributions- und Marketing-Mix-Modellierung sowie Preisoptimierungsalgorithmen.

Sascha Netuschil
Sascha Netuschil
Vortrag: Di 6.2

Vortrag Teilen

11:35 - 12:20
Di 8.2
Wissensgraphen plus Large Language Models (LLMs) = GraphRAG
Wissensgraphen plus Large Language Models (LLMs) = GraphRAG

In der Analyse von Datenbeständen trifft man immer wieder auf Trends, die einen räumlichen Bezug haben oder geografische Muster bilden. Die Erkennung derartiger Muster – etwa Cluster, Hotspots/Coldspots, oder räumliche Korrelationen – und die Vorhersage solcher Trends erfordern spezielle Algorithmen. In dem Beitrag zeigen wir, wie einfach man mit Python und Oracle Machine Learning raumbezogene Daten aufbereiten, analysieren, und seine Prognosen auf Karten darstellen kann.

Hans Viehmann arbeitet als Director of Product Management in der Produktentwicklung bei Oracle. Mit seinem Team kümmert er sich um alle Oracle Technologien im Umfeld von Geodaten, sowie um die Produkte und Cloud Services im Bereich Graphenanalyse und Graphendatenbank.
Er arbeitet als Director of Product Management in der Produktentwicklung bei Oracle. Mit seinem Team kümmert er sich um alle Oracle Technologien im Umfeld von Geodaten, sowie um die Produkte und Cloud Services im Bereich Graphenanalyse und Graphendatenbank.

Hans Viehmann
Hans Viehmann

Vortrag Teilen

12:20 - 13:50
Pause
Mittagessen & Ausstellung/Lunch & Exhibition
Mittagessen & Ausstellung/Lunch & Exhibition

14:30 - 15:30
Di 1.3
Data Governance etablieren: Datenprojekte als Erfolgsfaktor
Data Governance etablieren: Datenprojekte als Erfolgsfaktor

Die Vision für Data Governance bei der HUK-COBURG ist es, datengetriebene Use Cases durch einen nachhaltigen Umgang mit Daten in Fach- und IT-Bereichen zu unterstützen. Hierfür wurden insbesondere vier Handlungsfelder identifiziert:

  • Rollen und Verantwortlichkeiten
  • Data-Governance-Prozesse
  • Prinzipien, Richtlinien und Standards
  • Data-Governance-Assets

Im Bottom-up-Ansatz für Data Governance bei der HUK-COBURG sind insbesondere Daten-Projekte ein Erfolgsfaktor, um Data Governance im Unternehmen zu etablieren.

Zielpublikum: Data Governance Manager, Data Catalog Manager, Data Engineer, BI Project Leader, Data Owner, Data Steward
Voraussetzungen: Basiswissen in Data Governance und Data Engineering
Schwierigkeitsgrad: Basic

Extended Abstract:
Am Beispiel eines Projektes zur Datenversorgung 'Data Analytics in der Krankenversicherung' wird dargestellt, wie Data Governance in der HUK-COBURG etabliert wird und ein Datenkatalog die Datennutzung nachhaltig vereinfacht und beschleunigt. Hierbei werden folgende vier Handlungsfelder berücksichtigt:

  • Zuweisung von Rollen und Verantwortlichkeiten, z. B. Data Owner, Data Steward und Data Enabler.
  • Operationalisierung von Data-Governance-Prozessen, z. B. die kontinuierliche fachliche Beschreibung von Daten-Assets.
  • Operationalisierung von Prinzipien, Richtlinien und Standards im Kontext Data Governance, z. B. Datennutzung und Datenfreigabe.
  • Katalogisierung von Data-Governance-Assets mithilfe eines Integrationsframeworks, z. B. technische Assets und Data Lineage.

Die Erfahrungen aus dem Projektverlauf zeigen, dass sich Data-Governance-Aktivitäten sehr gut in Daten-Projekten integrieren lassen und sich über diesen Weg Data Governance sehr gut im Unternehmen operationalisieren lässt. Die Aufwände, die Data Stewards zu Beginn eines Projekts haben, zahlen sich schon während der Projektphase wieder aus. Data-Governance-Prozesse und Werkzeuge (insbesondere der Datenkatalog) sichern den nachhaltigen Mehrwert für Data Analytics - auch über die Projektphase hinaus. Eine gelebte, etablierte Data Governance unterstützt die Data-Analytics-Aktivitäten der HUK-COBURG, sodass es nur einen Schluss geben kann: Data-Governance-Aktivitäten müssen Pflichtbestandteil von Daten-Projekten werden.

Lisa Beierweck ist Data Catalog Manager und Data Engineer bei der HUK-COBURG. Seit mehr als 4 Jahren begleitet sie die Data-Governance-Initiative der HUK-COBURG von Beginn an und verantwortet die Umsetzung und Realisierung eines Data Catalogs sowie die Weiterentwicklung und die strategische Positionierung der Plattform innerhalb des Unternehmens. Lisa hat eine Leidenschaft dafür, Transparenz in BI-Anwendungen zu bringen und den Fachabteilungen aufzuzeigen, welche Mehrwerte durch einen Data Catalog entstehen.

Markus Werner ist seit 12 Jahren im Business-Intelligence-Umfeld tätig - davon seit über 5 Jahren als BI-Projektleiter und BI-Architekt im BICC der HUK-COBURG. Seit mehreren Jahren begleitet er die Themen Data Cataloging und Data Governance im Kontext des erweiterten Daten-Ökosystems der HUK-COBURG. Als Projektleiter ist er aktuell verantwortlich für den Aufbau einer Data-Analytics-Datenbasis für das Aktuariat der privaten Krankenversicherung.

Lisa Beierweck, Markus Werner
Lisa Beierweck, Markus Werner

Vortrag Teilen

14:30 - 15:30
Di 2.3
KI-Regulierung – Wie können sich Unternehmen absichern?
KI-Regulierung – Wie können sich Unternehmen absichern?

Der Einsatz von Künstlicher Intelligenz wird zunehmend gesetzlich reguliert. Der EU AI Act ist verabschiedet, eine spezielle KI-Haftungsrichtlinie und die Neufassung der Produkthaftungsrichtlinie folgen. Ein europäisches KI-Amt befindet sich im Aufbau.

Dieser Vortrag gibt nach einem Überblick über den aktuellen Stand der KI-Regulierung konkrete Empfehlungen, wie sich Unternehmen vorbereiten können. Bereits durch ausgewählte Einzelmaßnahmen wie neue Vertragsklauseln mit Kunden und Entwicklungspartnern werden künftige Risiken deutlich reduziert.

Zielpublikum: Projektleiter, CDO, ML/AI Engineer, Data Scientist
Voraussetzungen: Grundverständnis von KI
Schwierigkeitsgrad: Basic

Extended Abstract:
Mit der KI-Verordnung hat die EU die Grundlage für die gesetzliche KI-Regulierung geschaffen. Haftungsfragen sollen eine spezielle KI-Haftungsrichtlinie und die Neufassung der Produkthaftungsrichtlinie regeln. Ein europäisches KI-Amt befindet sich im Aufbau.

Unternehmen sollten sich bereits heute auf die neuen gesetzlichen Anforderungen vorbereiten. Im Bestreben um eine ethisch verantwortungsvolle KI entwickelten Verbände, Initiativen und Einzelunternehmen Checklisten, Guidelines und Tools, die als Ausgangspunkt für eine KI-Governance genutzt werden können.

Eine meist unterschätzte Stellschraube für die Reduzierung von Haftungsrisiken ist das Vertragsrecht. Sinnvolle Regelungen in Kundenverträgen sowie in Verträgen mit externen Entwicklungspartnern und KI-Herstellern begrenzen ggf. die Haftung und regeln im Innenverhältnis Pflichten und Rechte, falls es zu einem juristischen Streitfall kommt.

Sonja Maria Lehmann beschäftigt sich seit 1996 mit Business Intelligence und Data Analytics. Nach einer Tätigkeit als Referentin für Wirtschafts- und Unternehmensethik sowie Führungspositionen in verschiedenen Kreditinstituten und Consultingunternehmen gründete sie 2003 die solecon GmbH. Sie berät Unternehmen und hält Seminare und Workshops zu Nachhaltigkeit, Sustainable Business Transformation, Unternehmensethik, Corporate Digital Responsibility und KI.

Sonja Maria Lehmann
Sonja Maria Lehmann
Vortrag: Di 2.3

Vortrag Teilen

14:30 - 15:30
Di 3.3
Erfahrungen aus zwei Jahren Data Mesh Architekturanwendung
Erfahrungen aus zwei Jahren Data Mesh Architekturanwendung

Die ANDREAS STIHL AG & Co. KG befindet sich im Prozess der Digitalisierung. Als ein Kernelement wurde die Data Analytics Platform als Basis für die Umsetzung zahlreicher unterschiedlicher Anwendungsfälle verschiedener Fachbereiche vor mehr als zwei Jahren entworfen und realisiert. Die Plattform ist nach dem Prinzip der Data Mesh Architektur konzipiert. In unserem Vortrag möchten wir wichtige Erfahrungen teilen und auch einen Ausblick auf eine mögliche zukünftige Weiterentwicklung geben.

Zielpublikum: Data Architects, Data Strategists, Data Engineers
Voraussetzungen: Basic knowledge of Data Platforms
Schwierigkeitsgrad: Advanced

Extended Abstract:
Im Zuge der Digitalisierung sind bei ANDREAS STIHL AG & Co. KG zahlreiche Ideen für die zukünftige Nutzung von Daten entstanden. Nach einer Evaluation aktueller und abzusehender zukünftiger Anforderungen und damals bestehender technischer Lösungen sowie möglicher Alternativen vor mehr als zwei Jahren wurde die Entscheidung für den Aufbau einer neuen Plattform für analytische Zwecke gefällt. Die Wahl fiel auf eine Data Mesh Architektur. Im Verlauf der letzten beiden Jahre sind mehrere Instanzen entstanden, die die unterschiedlichen Datenhaushalte und Anwendungsfälle der verschiedenen Fachbereiche beheimaten. Ebenso entwickeln sich die möglichen technischen Lösungsoptionen weiter, die im Zuge einer kontinuierlichen Bewertung einen Einfluss auf die zukünftige Ausgestaltung haben. In unserem Vortrag möchten wir einen technischen und organisatorischen Überblick geben und wichtige Erfahrungen teilen.

Dr. Dierk Jugel ist Teamleiter des Big Data Analytics Hub bei STIHL, einem zentralen Kompetenzzentrum für Data Analytics & KI. In seiner aktuellen Rolle verantwortet er die Data Analytics Platform als Basis für Use-Case-Implementierungen zusammen mit Fachbereichen und treibt die Datenstrategie für STIHL voran.

Fabian Schmid ist Data Engineer und Solution Architect im Big Data Analytics Hub bei STIHL.
In dieser Funktion ist er neben der kontinuierlichen Weiterentwicklung der Data Analytics Platform auch für die gemeinsame Umsetzung von Use Cases mit verschiedenen Fachbereichen zuständig.

Peter Schulz ist ein Technologie-Enthusiast mit dem professionellen Schwerpunkt auf Datenplattformen. Seit mehr als 20 Jahren unterstützt er Unternehmen aus den unterschiedlichsten Branchen bei der erfolgreichen Generierung von Werten aus Daten mit der zielgerichteten Hilfe von Technologien. Dabei hat er breite und tiefe Erfahrung mit unterschiedlichen Anwendungsfällen, Regularien und Technologien erworben. Peter ist Head of Data Architecture bei der Alexander Thamm GmbH.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/peter.schulz

Dierk Jugel, Fabian Schmid, Peter Schulz
Dierk Jugel, Fabian Schmid, Peter Schulz
Vortrag: Di 3.3

Vortrag Teilen

14:30 - 15:30
Di 4.3
Einsatz von Machine Learning zur Effizienzsteigerung und Validierung in der Pharmaindustrie
Einsatz von Machine Learning zur Effizienzsteigerung und Validierung in der Pharmaindustrie

In diesem gemeinsamen Präsentationsblock stehen zwei komplementäre Ansätze im Mittelpunkt, die den Einsatz von Machine Learning (ML) in der Pharmaindustrie zur Optimierung von Prozessen und Einhaltung regulatorischer Anforderungen thematisieren.

Alisa Walda und Dr. Julian Mußhoff eröffnen die Präsentation mit einem Einblick in die innovativen digitalen Strategien der Bayer AG. Sie zeigen auf, wie durch die Integration und Analyse von hochqualitativen Daten aus verschiedenen Produktionssystemen in der Cloud, mithilfe von ML-Methoden, die Produktionsausbeuten gesteigert werden können, ohne dabei die Qualität zu kompromittieren. Die Präsentation beleuchtet die Herausforderungen bei der GxP-konformen Validierung von ML-Modellen und die Implementierung von robusten Datenpipelines und Teststrategien.

Im Anschluss daran baut Dr. Philipp Kazzer von Syncwork AG auf den zuvor präsentierten Konzepten auf und geht spezifisch auf die Bedeutung der Trainingsdaten ein. Seine Studie zur Entitätenerkennung in der Pharmakovigilanz nutzt ML und NLP, um die Korrelation zwischen der Anzahl und Qualität der Trainingsdaten und der Modellgenauigkeit zu untersuchen. Durch die detaillierte Charakterisierung des verwendeten Datensatzes und den Einsatz fraktioneller k-fold Kreuzvalidierung am Beispiel eines T5-Sprachmodells werden wertvolle Erkenntnisse für die Optimierung von ML-Modellen in der Pharmakovigilanz gewonnen.

Diese Präsentationen betonen die Bedeutung einer soliden Datenbasis und die Notwendigkeit einer engen Zusammenarbeit zwischen IT-, Produktions- und medizinischen Experten, um die Potenziale von ML voll auszuschöpfen und nachhaltige Verbesserungen in der pharmazeutischen Industrie zu erzielen.

Zielpublikum: Pharma decision makers, Data Engineer, Data Scientist
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
In der Pharmaindustrie werden alle Schritte der Produktion im Detail dokumentiert. Dies führt zu einer großen Menge an hochqualitativen Daten in Systemen wie einem Manufacturing Execution System, Enterprise Resource Planning und Prozessleitsystem.

Hieraus ergibt sich allerdings auch die Herausforderung, diese verschiedenen Daten in der Cloud zusammenzubringen und auszuwerten. Insbesondere geht es darum, moderne Datenpipelines und Machine-Learning-Methoden robust abzusichern und in bestehende regulierte Prozesse zu integrieren. Der Vortrag wird auf Teststrategien, Versionskontrolle und Änderungsmanagement von Datenpipelines und Machine Learning eingehen.

Dafür kombinieren wir proprietäre Systeme und Open-Source-Software. Trotz der Ansprüche an die Qualität müssen Nutzer in die Lage versetzt werden, die Produktion signifikant zu verbessern. Es gilt daher, sich von Anfang an mit den Produktionskollegen auf das Ziel zu fokussieren und entsprechende wertsteigernde (Machine Learning) Use-Cases zu identifizieren.

Dr. Julian Mußhoff ist ein Data Scientist in der pharmazeutischen Produktion am Standort Elberfeld. Als studierter Physiker stellt er sich täglich den Herausforderungen eines Produktionsstandorts wie Prozessoptimierung, Root-cause Analysen und der Entwicklung digitaler Tools.

Alisa Walda ist IT-Beraterin bei der Syncwork AG mit Schwerpunkt Data Engineering und Reporting.

  • 01/24 - heute: Consultant bei der Syncwork AG im Bereich System Development
  • 07/22 - 01/24: Junior Consultant bei der Syncwork AG im Bereich Business Intelligence
  • 07/18 - 07/22: Werkstudentin bei der Syncwork AG im Bereich System Development
  • 10/17 - 03/22: Bachelorstudium Informatik an der TU Berlin
  • 12/22 - heute: Management Consultant bei der Syncwork AG im Bereich Business Intelligence
  • 12/18 - 11/22: Senior Consultant bei der Syncwork AG im Bereich System Development
  • 10/15 - 11/18: Consultant bei der Syncwork AG im Bereich System Development
  • 10/10 - 12/14: Wissenschaftlicher Mitarbeiter im Excellenz Cluster Languages of Emotion der Freien Universität Berlin/Charité Tätigkeitsschwerpunkt: Experimentelles-Design, Datenanalyse, Publikation
  • 10/05 - 10/14: Studium der Bioinformatik/Abschluss: Promotion
Julian Musshoff, Alisa Walda, Philipp Kazzer
Julian Musshoff, Alisa Walda, Philipp Kazzer
Vortrag: Di 4.3

Vortrag Teilen

14:30 - 15:30
Di 5.3
Data Architecture Evolution and the Impact on Analytics
Data Architecture Evolution and the Impact on Analytics

This session looks at how adoption of open table formats by data warehouse database management vendors and advances in SQL are making it possible to merge siloed analytical systems into a new federated data architecture supporting multiple analytical workloads.

Target Audience: Data architect, enterprise architect, CDO, data engineer
Prerequisites: Basic understanding of data architecture & databases
Level: Advanced

Extended Abstract:
In the last 12-18 months we have seen many different architectures emerge from many different vendors who claim to be offering 'the modern data architecture solution' for the data-driven enterprise. These range from streaming data platforms to data lakes, to cloud data warehouses supporting structured, semi-structured and unstructured data, cloud data warehouses supporting external tables and federated query processing, lakehouses, data fabric, and federated query platforms offering virtual views of data and virtual data products on data in data lakes and lakehouses. In addition, all of these vendor architectures are claiming to support the building of data products in a data mesh. It's not surprising therefore, that customers are confused as to which option to choose.  

However, in 2023, key changes have emerged including much broader support for open table formats such as Apache Iceberg, Apache Hudi and Delta Lake in many other vendor data platforms. In addition, we have seen significant new milestones in extending the ISO SQL Standard to support new kinds of analytics in general purpose SQL. Also, AI has also advanced to work across any type of data. 

The key question is what does this all mean for data management? What is the impact of this on analytical data platforms and what does it mean for customers? What opportunities does this evolution open up for tools vendors whose data foundation is reliant on other vendor database management systems and data platforms? This session looks at this evolution and helps vendors realise the potential of what's now possible and how they can exploit it for competitive advantage.

  • The demand for data and AI
  • The need for a data foundation to underpin data and AI initiatives
  • The emergence of data mesh and data products
  • The challenge of a distributed data estate
  • Data fabric and how can they help build data products
  • Data architecture options for building data products
  • The impact of open table formats and query language extensions on architecture modernisation
  • Is the convergence of analytical workloads possible?

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

Mike Ferguson
Mike Ferguson
Vortrag: Di 5.3

Vortrag Teilen

14:30 - 15:30
Di 6.3
World Café Generative Künstliche Intelligenz (GenAI)
World Café Generative Künstliche Intelligenz (GenAI)

Auf kaum einem anderen Thema gibt es unterschiedlichere Sichtweisen als auf Generative Künstliche Intelligenz (GenAI): Für die einen ist es beeindruckende angewandte Mathematik und ein netter Baustein für moderne IT-Lösungen. Für die anderen steht GenAI kurz vor eigenem Bewusstsein und automatisiert die Tätigkeit der meisten Wissensarbeiter.

Anhand provozierender Thesen diskutieren wir die Bedeutung von GenAI im World Café Format und erschließen das Wissen der Teilnehmer.

Die gemeinsame Basis dafür liefert ein kurzer Impulsvortrag.

Zielpublikum: Data & Analytics und BI Professionals
Voraussetzungen: Bereitschaft zum Austausch mit anderen, Neugier
Schwierigkeitsgrad: Basic

Dr. Gero Presser ist Mitgründer und Geschäftsführer der Dataciders GmbH, einem IT-Dienstleistungsunternehmen mit Fokus auf Data & Analytics und über 500 Mitarbeitern in Deutschland. Alle Dataciders eint die Vision, dass niemand jemals wieder schlechte Entscheidungen treffen muss.
Dr. Presser hat Informatik studiert, zu Entscheidungstheorie promoviert und ist u. a. im Vorsitz des TDWI Roundtable Ruhrgebiet, Dozent an der Hochschule Hamm-Lippstadt und Organisator der Meetup-Gruppe 'Business Intelligence & Analytics Dortmund' mit über 1.400 Mitgliedern.
Er ist leidenschaftlicher Skifahrer und glücklicher Familienmensch.

Gero Presser
Gero Presser
Vortrag: Di 6.3

Vortrag Teilen

14:30 - 15:30
Di 7.3
Die extra harten Kopfnüsse 4.0 – mit T-SQL geknackt
Die extra harten Kopfnüsse 4.0 – mit T-SQL geknackt

In dieser Vortragsreihe aus kleinen Knobelspielen haben wir schon den Rubik's Cube entzaubert, Sudokus gelöst (und erstellt) und Daten abgefragt, die NICHT in der Tabelle stehen ... und das alles mit reinem SQL. Dieses Jahr zaubern wir mit dem SQL-Server. In einzelnen Demos zeige ich, wie Datenbankobjekte wie von Geisterhand erscheinen oder verschwinden, wie sich Daten ohne sichtbaren Befehl 'wie von selbst' verändern. It's magic ...

Zielpublikum: Entwickler, Datenbankexperten, Neugierige aller Fachrichtungen
Voraussetzungen: Grundkenntnisse in einem beliebigen SQL-Dialekt sind hilfreich (aber nicht zwingend vorausgesetzt)
Schwierigkeitsgrad: Advanced

Extended Abstract:
Teilnehmer haben die freie Wahl: 60 Minuten lang zurücklehnen, staunen und verzaubern lassen ... oder mitknobeln und dem Geheimnis auf die Spur kommen. Warum laufen Abfragen ohne Quellcodeänderung plötzlich dramatisch schneller/langsamer? Wie erklärt man Phänomene, die gegen die DML/DDL/DQL-Regeln verstoßen? Kann man mit reinem SQL wirklich Trickfilme zeichnen und abspielen? Ich zeige einige Tricks, die selbst erfahrene SQL-Entwickler staunen lassen. Alle Beispiele werden live vorgeführt, und den passenden Quellcode gibt es natürlich auch dazu.

Bei der arelium GmbH arbeitet der Wirtschaftsinformatiker als Projektleiter, SCRUM-Master oder T-SQL-Spezialist bei der Umsetzung komplexer DB-Projekte. Seit 2003 beschäftigt Torsten Ahlemeyer sich beruflich mit DB-Optimierungsaufgaben sowie ungewöhnlichen T-SQL-Queries. Auch SSAS, SSIS, SSRS, die Migration nach Azure und natürlich auch Power BI sind in seinem Fokus. Daneben gibt der Autor von Fachbeiträgen sein Wissen auch in Schulungen, Workshops und auf IT-Konferenzen weiter.

Torsten Ahlemeyer
Torsten Ahlemeyer
Track: Hands-On
Vortrag: Di 7.3

Vortrag Teilen

14:30 - 15:30
Di 8.3
Mit der Datenbank plaudern, statt sie über SQL abzufragen: was ist möglich, was ist sinnvoll?
Mit der Datenbank plaudern, statt sie über SQL abzufragen: was ist möglich, was ist sinnvoll?

Das erfolgreiche Abfragen der Datenbank kann nicht auf die Übersetzung unserer natürlichen Sprache in die Programmiersprache SQL oder relationale Algebra reduziert werden, sondern erfordert neben der Kenntnis des zugrunde liegenden Datenmodells und seiner konkreten technischen Umsetzung auch das Fachwissen im besonderen Kontext der jeweiligen Anwendung. In dem Vortrag werden Grenzen des Möglichen und des Sinnvollen aufgezeigt mit konkreten Beispielen in ORACLE SQL, sql.ai, SELECT AI, ChatGPT, RelaX u.v.m. 

Bojan Melias hat Informatik mit Vertiefungsgebiet Datenbanken studiert und arbeitet bei Oracle seit 27 Jahren. Seit 30 Jahren nutzt er täglich die Datenbank, seit 20 Jahren hält er Datenbanken- und Daten Management Vorlesungen an der Hochschule München, in denen er Studierenden beibringt, wie sie Ihre Gedanken als Datenbank-Abfragen formulieren, als SQL-Code oder Formeln des relationalen Kalküls bzw. der relationalen Algebra.

Standortdaten und Machine Learning – Ja, wo laufen sie denn hin?
Standortdaten und Machine Learning – Ja, wo laufen sie denn hin?

In der Analyse von Datenbeständen trifft man immer wieder auf Trends, die einen räumlichen Bezug haben oder geografische Muster bilden. Die Erkennung derartiger Muster – etwa Cluster, Hotspots/Coldspots, oder räumliche Korrelationen – und die Vorhersage solcher Trends erfordern spezielle Algorithmen. In dem Beitrag zeigen wir, wie einfach man mit Python und Oracle Machine Learning raumbezogene Daten aufbereiten, analysieren, und seine Prognosen auf Karten darstellen kann.

Hans Viehmann arbeitet als Director of Product Management in der Produktentwicklung bei Oracle. Mit seinem Team kümmert er sich um alle Oracle Technologien im Umfeld von Geodaten, sowie um die Produkte und Cloud Services im Bereich Graphenanalyse und Graphendatenbank.
Er arbeitet als Director of Product Management in der Produktentwicklung bei Oracle. Mit seinem Team kümmert er sich um alle Oracle Technologien im Umfeld von Geodaten, sowie um die Produkte und Cloud Services im Bereich Graphenanalyse und Graphendatenbank.

Bojan Milijas
Hans Viehmann
Bojan Milijas

Vortrag Teilen

Hans Viehmann

Vortrag Teilen

15:30 - 16:00
Pause
Kaffee & Ausstellung/Coffee & Exhibition
Kaffee & Ausstellung/Coffee & Exhibition

16:00 - 16:45
Di 1.4
Swiss Life: Weg zur modernen Data & Analytics Organisation
Swiss Life: Weg zur modernen Data & Analytics Organisation

Bei Unternehmen, wie Swiss Life, die nicht aus einem datenbasierten Geschäftsmodell entstanden sind, hat die Auswertungsmöglichkeit von Daten zugenommen. Im Swiss Life EKV-Bereich hat dies zu vielen einzelnen Lösungen in der Datenlandschaft geführt. Um den Umgang mit Daten zu harmonisieren, wurden Zielbilder für eine moderne Datenorganisation und -architektur entwickelt, die nun implementiert werden. In diesem Vortrag erfahren Sie mehr über die Datenstrategie sowie die Erfolge und Herausforderungen, die mit deren Implementierung verbunden sind.

Zielpublikum: Entscheidungsträger (die eine moderne data & analytics Organisation aufbauen wollen)
Voraussetzungen: Grundverständnis von Datenorganisationen, Data Governance und Datenplattformen
Schwierigkeitsgrad: Basic

Extended Abstract:
In 2023 wurde für das EKV-Geschäft der Swiss Life in Zusammenarbeit mit der Alexander Thamm GmbH eine neue Datenstrategie entwickelt, welche den Rahmen für den zukünftigen Umgang mit Daten setzt. Sie soll im Zielbild die historisch gewachsene, fragmentierte und intransparente Datenlandschaft durch eine moderne, cloud-native Datenarchitektur als 'single source of interpretation' ersetzen und gleichzeitig hohe Mehrfachaufwände in der Datenbeschaffung und -aufbereitung durch eine effiziente 'Hub & Spoke'-Organisation reduzieren. So sollen in Zukunft datengetriebene Geschäftsprozesse und Entscheidungsfindungen gefördert und innovative Lösungen ermöglicht werden. In diesem Vortrag möchten wir über die Entwicklung der Datenstrategie und getroffene Design-Entscheidungen berichten, auf das erste halbe Jahr der Umsetzung der Strategie zurückblicken und über die technischen und organisatorischen Erfolge und Herausforderungen, die hiermit verbunden sind, reflektieren.

Livia Kaiser-Auernheimer ist Beraterin für Datenstrategie und Data Science bei der Alexander Thamm GmbH und unterstützte Swiss Life bei der Entwicklung ihrer Datenstrategie. Sie begeistert sich für datengetriebene Lösungen und Entscheidungsfindungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/livia.kaiserauernheimer

Arne Steinkraus ist Leiter des Data & Analytics Hubs bei Swiss Life (EKV) Deutschland. Zudem hat er einen Lehrauftrag für statistisches Lernen an der TU Braunschweig. Er ist sowohl Data-Science- als auch Ökonometrie-begeistert.

Livia Kaiser-Auernheimer, Arne Steinkraus
Livia Kaiser-Auernheimer, Arne Steinkraus

Vortrag Teilen

16:00 - 16:45
Di 2.4
Don't focus on the AI hype – focus on value with ChatGPT
Don't focus on the AI hype – focus on value with ChatGPT

Mit mehr als 1000 Nutzern auf der Cloud-Datenplattform muss DKV Mobility den nächsten Evolutionsschritt zur Data Driven Company gehen.

DKV Mobility nutzt Frosty von Snowflake, um Business Value für Non-Developer zu generieren, statt dem AI-Hype zu folgen.

Der Use Case erläutert den Why/How/What-Ansatz von DKV Mobility auf dem Weg zur Implementierung von Business-Modellen, die Generative AI enthalten. Abschließend wird auf die Do's & Don'ts eingegangen.

Zielpublikum: Entscheider, Interessierte an Generative AI
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Mit einer voll ausgereiften Cloud-Datenplattform mit mehr als 1.000 Nutzern muss DKV Mobility den nächsten Evolutionsschritt hin zu einem datengesteuerten Unternehmen gehen.

Während sich andere Unternehmen auf den ChatGPT-Hype konzentrieren, nutzt DKV Mobility Frosty von Snowflake, um einen echten Business Value für Non-Developer im Unternehmen zu generieren.

Mit der richtigen Kombination aus Cloud-Datenplattform und Data-Governance-Konzept eröffnet Snowflake ein völlig neues Feld für die Nutzung definierter Business-Daten zur Generierung von Business Value. Der Use Case erläutert den Why/How/What-Ansatz von DKV Mobility auf dem Weg zur Implementierung von Business-Modellen, die Generative AI enthalten. Abschließend wird auf die Do's & Don'ts eingegangen.

Dr. Sönke Iwersen verantwortet seit mehr 15 Jahren Data & Analytics-Organisationen in verschiedenen Industrien (u.a. Telefónica, Handelsblatt, XING, Fitness First, HRS). Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/soenke.iwersen

Sönke Iwersen
Sönke Iwersen
Vortrag: Di 2.4

Vortrag Teilen

16:00 - 16:45
Di 3.4
Moderne Datenorchestration im Kontext der Automobilindustrie
Moderne Datenorchestration im Kontext der Automobilindustrie

Im Vortrag wird die praktische Umsetzung einer Architektur auf Basis des modern Technology Stack (Einsatz von: DBT, Databricks, Dagster) im Kontext der Automobilindustrie gezeigt. Hierbei wird besonderer Fokus auf ein modernes Orchestrationswerkzeug gelegt, welches am Markt noch nicht so bekannt ist. Es wird auch übergreifend auf den Gesamtkontext eines Enterprise-Unternehmens hinsichtlich Data Governance, Data Security und Data Mesh sowie die Nutzung mehrerer Cloud-Hyperscaler eingegangen.

Zielpublikum: Data Engineers, BI Specialists, Data Managers, BI Solution Architects, Cloud Engineers
Voraussetzungen: Basiswissen über modernes Datenmanagement, Data Warehousing und BI
Schwierigkeitsgrad: Advanced

Tim Grützner arbeitet in seiner aktuellen Rolle als Produktmanager für Data Platforms and Products übergreifend für die Realisierung einer Datenplattform auf Basis des modern Technology Stack und verantwortet eine Großzahl von BI- und Dateninitiativen für die Marke Volkswagen Nutzfahrzeuge und in der Volkswagen AG. Er ist seit ca. 10 Jahren für Volkswagen tätig und hatte verschiedene Rollen im Kontext Data Management wie z.B. Head of BI für VW Nutzfahrzeuge in der Vergangenheit inne.

Tim Grützner, Maximilian Vollmer, Sascha Kellner
Tim Grützner, Maximilian Vollmer, Sascha Kellner
Vortrag: Di 3.4

Vortrag Teilen

16:00 - 16:45
Di 4.4
Data Analyctics Escape Room
Data Analyctics Escape Room

Beim 'Data & Analytics Escape Room' sind analytische Fertigkeiten Schlüssel zum Erfolg. In diesem interaktiven Spiel bewältigen Teams von 3-6 Mitgliedern gemeinsam Daten-Herausforderungen. Nutzen Sie SQL für Spurensuche, konfigurieren Sie ML-Modelle für Hinweise und bereinigen Sie fehlerhafte Daten, um voranzukommen. Sind Sie bereit, Ihre analytischen Fähigkeiten in einem Rennen gegen die Zeit zu testen?

Zielpublikum: Data Analysts, Data Engineers, Data & Analytics Enthusiasts, Data Practioners, Data Scientists, ML Engineers
Voraussetzungen: SQL, Data Analysis, Python(basic)
Schwierigkeitsgrad: Advanced

Florian Dindorf ist Consultant bei b.telligent. Er arbeitet seit 7 Jahren im BI-Bereich. Erst als dualer Student und Entwickler in einem Handelsunternehmen und anschließend als Berater. Der Fokus liegt dabei im BI-Backendbereich und im Data Engineering mit einer Passion für den Modern Data Stack.

Lennart Dangers baut bei linkFISH Consulting GmbH Brücken zwischen fachlichen Anforderungen, Konzeption und technischer Umsetzung. Als Consultant für Business Intelligence und Data Analytics sind seine Schwerpunkte Advanced Analytics und Weiterentwicklung im Modern Data Stack.

Florian Dindorf, Lennart Dangers
Florian Dindorf, Lennart Dangers
Vortrag: Di 4.4

Vortrag Teilen

16:00 - 16:45
Di 5.4
Consumer-Driven Contract Testing for Data Products
Consumer-Driven Contract Testing for Data Products

Data Mesh is a decentralized approach to enterprise data management. A Data Mesh consists of Data Products, which can be composed to form higher-order Data Products. In order for a Data Mesh to scale, this composition needs to be safe and efficient, which calls for automated testing. In the Microservices architecture, scalably testing the interaction between services is sometimes achieved by an approach called Consumer-Driven Contract Testing. This session explores how this approach can be applied to the automated testing of Data Products.

Target Audience: Data Engineers, Data Scientists
Prerequisites: Basic knowledge of key concepts of Data Mesh, such as Data Products, as well as basic knowledge of Microservices architectural practices
Level: Advanced

Arif Wider is a professor of software engineering at HTW Berlin and a fellow technology consultant with Thoughtworks Germany, where he served as Head of Data & AI before moving back to academia. As a vital part of research, teaching, and consulting, he is passionate about distilling and distributing great ideas and concepts that emerge in the software engineering community. He is a frequent speaker at conferences, book author, and industry expert on topics around Data Mesh.

Arif Wider
Arif Wider
Vortrag: Di 5.4

Vortrag Teilen

16:00 - 16:45
Di 6.4
Logistik neu gelebt mit KI im Ladungsträgermanagement
Logistik neu gelebt mit KI im Ladungsträgermanagement

Für einen Kunden im Bereich des Ladungsträgermanagements entwickelte die ProCon-Experts einen Algorithmus, der mittels KI Vorschläge für mögliche Transportwege, zu wählende Partner und Umsatz- sowie Kostenkalkulationen innerhalb Europas erstellt. Mustererkennung und Bedarfsprognosen liefern Ansatzpunkte für Automatisierungen oder Optimierungen. Resultate sind nachhaltige und optimierte Routen, reduzierter Ressourcenaufwand und die Verbesserung des betriebswirtschaftlichen Ergebnisses.

Zielpublikum: Entscheider, Manager, Entwickler, IT-affine
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Der Kunde bietet umfangreiche Services in den Bereichen der Bereitstellung, Anlieferung, Abholung und Instandsetzung von Ladungsträgern (wie z. B. Europaletten, Gitterboxen, Euro-Plastik-Boxen) im europäischen Raum an. Des Weiteren ermöglicht das Pooling-Konzept des Kunden die mehrfache, branchenübergreifende und wesentlich nachhaltigere Nutzung von Ladungsträgern.

Bislang wurden die Disposition der Ladungsträger und die Organisation der Transporte mittels komplexer und zeitaufwendiger Prozesse manuell vorgenommen. Dies beinhaltete die Benutzung mehrerer, nicht miteinander verbundener Systeme, sowie eine Vielzahl von Abstimmungen mit den Partnern im Netzwerk. Die Qualität des Ergebnisses basierte einzig auf der langjährigen Erfahrung und dem Wissen des jeweiligen Mitarbeiters. Das schränkte die Wachstumsmöglichkeiten der Unternehmensgruppe signifikant ein. Die Gewinnmarge war, auch bei einem Wachstum, nahezu identisch. Skaleneffekte blieben weitestgehend aus.

Hauptgeschäft des Kunden ist die Vermietung von Ladungsträgern. Hierbei werden Bestellungen und Rückführungen von Kunden so miteinander verbunden, dass eine möglichst hohe Wiederverwendung erreicht wird. Die Kombination von Bestellungen und Rückführungen wird als Match bezeichnet und ist aufwendig manuell zu bilden gewesen. Zusätzlich sind noch Transportrouten, Abhol- und Anlieferungszeitpunkte zu planen sowie Verfügbarkeiten mit den Partnern abzustimmen.

Im Best-Match-Projekt wurden alle Planungsschritte inkl. Restriktionen durch eine selbst entwickelte Künstliche Intelligenz (KI) miteinander kombiniert. Ergebnis war die Ausgabe von Vorschlägen für zu bildende Matches, die Auswahl von Transportpartnern und die Berechnung von optimierten Routen, Umsätzen und Kosten basierend auf aktuellen und historischen Daten.

Im Tagesgeschäft bedeutet dieser Umstieg auf KI-unterstützte Prozesse folgende Performancesteigerung: Die KI berechnet aus den vorliegenden Aufträgen ca. 180.000 Match-Vorschläge innerhalb von 5 Minuten, wo die Mitarbeiter vorher nur eine niedrigere dreistellige Anzahl pro Tag erstellten. Die Ergebnisse inkl. Empfehlungen zur Sicherung von Lagerbeständen, Kundenzufriedenheit, Fahrstreckenminimierung, Profit und mehr werden für die Mitarbeiter visuell aufbereitet und können mittels Filtern und Sortierungen für den jeweiligen Zweck einfach eingeschränkt werden. Der ausgewählte Vorschlag wird folgend in das ERP-System übernommen und weiterverarbeitet. Zusätzlich wird das anonymisierte Auswahlverhalten mittels Machine Learning getrackt, um wiederkehrende Transporte zu erkennen, automatisiert im System umzusetzen und den Mitarbeitern Kapazitäten für komplexere und neue Anfragen zu geben.

Dr. Roxana-Adela Chira arbeitet als Managing Consultant bei der ProCon-Experts. Das Studium der Physik und Astrophysik wirkte katalysierend auf ihren Umgang und die Nutzung von Daten. In ihrem weiteren Berufsleben spezialisierte sie sich auf die Bereiche Data Management und Data Science, führte interessante Datenprodukte ein und übernahm vermehrt Projektleitungs- und Management-Aufgaben; bis hin zur Leitung der Daten-Abteilung.

Roxana-Adela Chira
Roxana-Adela Chira
Vortrag: Di 6.4

Vortrag Teilen

16:00 - 18:00
Di 7.4
Limitiert Agile BI Clinic: Besucher fragen – Coaches antworten
Agile BI Clinic: Besucher fragen – Coaches antworten

Sind in deinem BI-Projekt agile Ansätze in der Praxis weniger erfolgreich als erwartet? Dann ist die Agile BI Clinic genau das Richtige für dich. Diese Session unterscheidet sich von traditionellen Vorträgen und Workshops. Sie bietet dir als Konferenzteilnehmer:in die einzigartige Chance, innerhalb von 25 Minuten deine spezifischen Fragen und Herausforderungen direkt mit einem erfahrenen Agile BI Coach zu diskutieren. Erhalte maßgeschneiderte Lösungen für deine Projekte und meistere deine BI-Herausforderungen!

Max. Teilnehmendenzahl: 30

Zielpublikum: Projektleiter, Product Owner, Scrum Master, BICC-Leiter, BI-Entwickler
Voraussetzungen: Voranmeldung via https://www.picktime.com/7af70961-09ac-458a-b5c9-82fa2ffd78f1 . Der größte Nutzen für dich entsteht, wenn du ein konkretes Problem oder eine spezifische Fragestellung rund um die agile Arbeit im BI bzw. Datenumfeld hast.
Schwierigkeitsgrad: Basic

Extended Abstract:
Du stehst vor deinem ersten Business Intelligence (BI)- oder Data Warehousing (DWH)-Projekt, welches du agil abwickeln möchtest? Oder aber du steckst bereits mitten drin und irgendwie will das mit der Agilität im BI- und Datenkontext nicht so richtig klappen? Dann ist die Agile BI Clinic genau richtig für dich.

In der Agile BI Clinic geht es während 25 Minuten nur um dich und deine persönlichen Herausforderungen rund um Agilität in BI-Projekten bzw. dem agilen Arbeiten mit Daten im Allgemeinen. Egal ob du eher einen IT-Background hast oder deine Wurzeln im Controlling sind - in der Agile BI Clinic findet sich ein Coach, der oder die zu dir passt. Deswegen ist es auch wichtig, dass du dir im Vorfeld der Durchführung einen der begehrten Coaching-Termine reservierst! 
https://www.picktime.com/7af70961-09ac-458a-b5c9-82fa2ffd78f1

In der Agile BI Clinic bist du genau richtig, wenn du z.B. zu folgenden Themen eine Frage oder besondere Herausforderung hast (Liste nicht abschließend!):

  1. 'Agile funktioniert vielleicht für generelle Softwareentwicklung, aber nicht für BI-Teams' - Bedenken bezüglich der Anwendbarkeit agiler Methoden auf BI-Teams.
  2. 'Agile funktioniert möglicherweise bei BI-Teams in kleineren Unternehmen, aber nicht in einem Unternehmensumfeld' - Herausforderungen bei der Skalierung agiler Methoden in größeren Organisationen.
  3. 'Wir haben Agile BI in unserem Team versucht, aber es war nicht mit unserer Unternehmenskultur kompatibel' - Schwierigkeiten bei der Integration agiler Methoden in bestehende Unternehmenskulturen.
  4. 'Wir können nicht zwei Jahre lang in zweiwöchigen Iterationen arbeiten und dabei das große Ganze nicht aus den Augen verlieren' - Herausforderungen bei der langfristigen Planung und Aufrechterhaltung der strategischen Ausrichtung in agilen BI-Projekten.
  5. 'Ich würde gerne agiler arbeiten, aber mein Team hat keinen Bock.' – Wie kann agile BI das Team stärken?
  6. 'Ich sehe keinen Sinn darin, meine Arbeitsweise zu verändern.' – Wie kann ich persönlich in einem agilen Umfeld wachsen?
  7. 'Ich habe das Gefühl, die agile Transformation macht mir nur mehr Arbeit.' – Wie verlieren wir die Angst vor der Agilen Transformation?
  8. Agil und strategisch passen für mich nicht zusammen.' – Wie wir, anstatt nur Feuer zu löschen, Fortschritt durch unsere Arbeit erzielen.

Im Eingangsbereich zur Agile BI Clinic stehen dir verschiedene Informationstafeln rund um die Agile BI City (www.agilebi.city) zur Verfügung, auf welchen du dich über verschiedene Aspekte rund um die agile Abwicklung von BI-Vorhaben informieren kannst. Ergänzend dazu liegt Fachliteratur verschiedener Autoren aus, u.a. die Bücher der Agile BI Coaches. Dieser Bereich steht dir während der gesamten Öffnungszeit der Agile BI Clinic zur freien Verfügung.

Andrea Weichand ist Autorin des Buchs 'Agile Datenkompetenz: Reporting-Prozesse mit und ohne Excel gestalten'. Als ehemalige Controllerin und aktive Business-Intelligence-Expertin unterstützt sie seit 2007 Unternehmen und Einzelpersonen dabei, Datenprodukte und Datenstrategien umzusetzen. Aus diesen Erfahrungen hat sie die NewDataWork-Prinzipien abgeleitet und aufgeschrieben, die neben technischen auch auf kreative und agile Veränderungen abzielen.

Gianna Neeser arbeitet als Senior Consultant Data & Analytics bei der IT-Logix AG. Im Studium hat sie ihr Interesse an Daten entdeckt und beschäftigt sich heute mit der Entwicklung von Data Warehouses. Sie unterstützt Organisationen bei der Erhebung und Analyse von BI-spezifischen Anforderungen, der Durchführung von Projekten als Agile BI Coach in Entwicklerteams sowie dem Enablement der Fachanwender:innen. Gianna investiert sich zudem als «TDWI Young Gun» aktiv in die BI-Community.

Raphael Branger ist Autor des Buchs 'How to succeed with Agile Business Intelligence' sowie Co-Autor des Buchs 'Self-Service BI & Analytics'. Er arbeitet als Principal Consultant Data & Analytics bei der IT-Logix AG. Er hilft Organisationen, ihre Anforderungen rund um Daten und 'Analytics' zu erheben und umzusetzen. Er ist zugleich Stratege, Architekt, Requirements Engineer, Agile Coach aber auch Entwickler. Dadurch bringt er eine ganzheitliche Sicht in seine Projekte ein.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/raphael.branger

Andrea Weichand, Gianna Neeser, Raphael Branger
Andrea Weichand, Gianna Neeser, Raphael Branger
Track: Hands-On
Vortrag: Di 7.4

Vortrag Teilen

16:00 - 16:45
Di 8.4
GEO-Analytics – Räumliche Analyse digitaler Zwillinge in der Cloud
GEO-Analytics – Räumliche Analyse digitaler Zwillinge in der Cloud

Das Streckennetz der Deutschen Bahn unterliegt im Betrieb und im Management mannigfaltigen Auflagen. Um eine einen zielgerichteten und schonenden Einsatz der begrenzten Ressourcen zu ermöglichen, werden das Streckennetz und relevante Einflussfaktoren digitalisiert.
Dazu werden digitale Zwillinge mithilfe von Oracle Spatial erzeugt und diese dann räumlich zueinander in Beziehung gesetzt, um so die zu berücksichtigenden Auflagen entlang des Streckennetzes der Deutschen Bahn zu ermitteln. Anhand dieser Ergebnisse kann ein genauerer und effektiverer Einsatz von Streckenmanagement-Aktivitäten geplant werden.
Im Vortrag wird anhand des obigen Business Case gezeigt, wie aus einer Reihe von Services unter Einsatz von Oracle Spatial in einer Cloud-basierten Lösung interaktive Karten und geo-analytische Funktionen erzeugt und genutzt werden.

  • Mitglied des Teams Geo. Datamanagement. Service & Consulting (GDSC) der DB-Systel GmbH, Standort Frankfurt am Main
  • Themenverantwortlicher Geodaten und Locational Intelligence der DOAG
  • Mitglied DOAG Delegiertenversammlung Data Analytics
  • Skillset:
    • 30 Jahre Datenbanken
    • 27 Jahre Business Intelligence Systeme
    • 17 Jahre Geodatenmanagement
    • 17 Jahre schienengebundene Infrastruktur
Sven Bosinger
Sven Bosinger

Vortrag Teilen

16:45 - 17:15
Pause
Kaffee & Ausstellung/Coffee & Exhibition
Kaffee & Ausstellung/Coffee & Exhibition

17:15 - 18:00
Di 1.5
ESG als Digitalisierungstreiber? Nachhaltigkeit auch bei ESG
ESG als Digitalisierungstreiber? Nachhaltigkeit auch bei ESG

Das ESG-Reporting adressiert in wesentlichen Teilen das Risikomanagement der Geschäftstätigkeit und die Nachhaltigkeit im Sinne einer dauerhaften und schonenden Nutzung der eingesetzten Ressourcen. Dabei zeigt sich jedoch in aktuellen Projekten, dass diese Schwerpunkte beim Aufsetzen eines ESG-Berichtswesens selbst zum Teil nicht berücksichtigt werden, sodass Individuallösungen oder Insellösungen entstehen, um schnell den gesetzlichen Anforderungen gerecht zu werden. ONTRAS zeigt, dass Nachhaltigkeit bei Digitalisierung anders aussehen kann.

Zielpublikum: Zielgruppe sind Personen, die sich zum einen fachlich mit dem Thema ESG oder den Initiativen darum beschäftigen, und zum anderen Personen, die analytische Architekturen in Organisationen betreuen.
Voraussetzungen: Grundverständnis für Analytics
Schwierigkeitsgrad: Basic

Extended Abstract:
Das Environment, Social, Governance-(ESG)-Reporting adressiert in wesentlichen Teilen das Risikomanagement der Geschäftstätigkeit und die Nachhaltigkeit im Sinne einer dauerhaften und schonenden Nutzung der eingesetzten Ressourcen. Dabei zeigt sich jedoch in aktuellen Projekten, dass diese Schwerpunkte beim Aufsetzen eines ESG-Berichtswesens selbst zum Teil nicht berücksichtigt werden, sodass Individuallösungen oder Insellösungen entstehen, um irgendwie schnell den gesetzlichen Anforderungen gerecht zu werden.

Nun haben viele Unternehmen bereits seit Jahren in Business-Intelligence-Architekturen investiert und hier großes Know-how aufgebaut, sodass die Themen der Wiederverwendbarkeit geschaffener Strukturen und damit einhergehend eine Risikominimierung beim Aufsetzen und Betreiben einer Reporting-Lösung genauso im Mittelpunkt stehen sollten, um weiteren Nutzen aus den Digitalisierungsbemühungen im Berichtswesen ziehen zu können. Im Folgenden zeigt ein konkretes Projektbeispiel auf, dass ESG idealerweise als Bestandteil existierender analytischer Architekturen aufgefasst wird und auch, dass die Herausforderungen im Berichtswesen nicht erst seit ESG auch in der Datenbeschaffung liegen.

ONTRAS startete 2019 in das Projekt: 'Berichtswesen Energie- und Umweltmanagement', das nun auch Teil des ESG-Berichtswesens wird. Ausgehend von einer Vielzahl manueller Prozesse und qualitätsseitig zunächst nur begrenzt tragfähiger Daten wurde im Projektverlauf innerhalb der existierenden analytischen Architektur bei ONTRAS eine effiziente, qualitätsgesicherte und für Fachanwender nachvollziehbare Berichtlösung geschaffen. Diese bietet eine vor allem für vielseitige Anforderungen wie Berichte für ESG oder auch Zertifizierungen nutzbare Oberfläche, um den Verantwortlichen alle relevanten Informationen direkt nutzbar zur Verfügung zu stellen. Hervorzuheben ist dabei die Sicherstellung der Datenqualität über eine idealerweise direkte Quellenanbindung, aber auch notwendigerweise Optimierung manueller Datenlieferungen, Validierungs- und Freigabeprozesse zur Verbesserung einer jeden Möglichkeit des Dateninputs und eine weitestgehend hochgradige automatisierte Verarbeitung. Dieser Beitrag zeigt den Ausgangspunkt des Projektes, Herausforderungen und deren Lösungen im Prozess, sodass nachvollziehbar ist, wie die entstandenen Ergebnisse in nun transparenten Informationsflüssen den Anwendern Sicherheit bei der Nutzung der berichteten Werte geben.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/sonja_wiedemann

Philipp Seidel ist als Teamleiter im Bereich Oberflächen sowie erfahrener Projektleiter für Business Intelligence und Analytics bei der Marmeladenbaum GmbH. Er betreut Projekte von der Anforderungsanalyse und Konzeption bis zur Umsetzung von Oberflächen und beherrscht mehrere Werkzeuge alternativer Hersteller wie beispielsweise Microsoft, MicroStrategy oder auch Pentaho. Branchenseitig hat er umfassende Erfahrungen in den Branchen Logistik, Energie sowie Banken und Versicherungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/philipp_seidel

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt. 

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/claudia_koschtial

Sonja Wiedemann, Philipp Seidel, Claudia Koschtial
Sonja Wiedemann, Philipp Seidel, Claudia Koschtial

Vortrag Teilen

17:15 - 18:00
Di 2.5
Building an AI Center of Excellence at Austrian Power Grid
Building an AI Center of Excellence at Austrian Power Grid

In this presentation, Pascal will provide a comprehensive overview of the foundational strategies deployed in establishing the AI Center of Excellence at APG. He will give practical insights into the many challenges and the strategic solutions implemented to ensure the Center's success. Further, the session will delve into the intricate interdependencies among AI, analytics, coding, and data excellence - critical components that surface during the development of robust AI and data capabilities.

Target Audience: Strategists, project/program managers, corporate development, research and innovation, CIO/CEO/CTOs, lead data scientists, managers
Prerequisites: Basic knowledge of AI, analytics and data management are a plus, but not necessary
Level: Basic

Pascal Plank is the Head of the AI Center of Excellence at Austrian Power Grid, where he leads the Data Driven Utility Program. He drives company-wide data and AI projects to shape the digital grid of the future. Before APG, Pascal developed key AI strategies and revamped digital innovation management at ÖBB. In his spare time, he teaches machine learning at the University of Applied Sciences Technikum Vienna, imparting practical insights to aspiring data science students.

Pascal Plank
Pascal Plank
Vortrag: Di 2.5

Vortrag Teilen

17:15 - 18:00
Di 3.5
DWH vs. Data Mesh – ein Streitgespräch
DWH vs. Data Mesh – ein Streitgespräch

Im Konflikt zwischen traditionellem Data Warehouse und moderner BI geht es um mehr als Buzzwords! Und diesen Konflikt werden Andreas und Artur live auf der Bühne austragen!

Ist ein dezentraler Ansatz mit Datenprodukten wirklich ein Fortschritt oder nicht doch vielmehr unrealistisches Marketing, das keinen Mehrwert bringt? Ist jemand, der weiterhin auf ein zentrales und verwaltetes Data Warehouse besteht, wirklich von gestern? Oder sind die ganzen Konflikte bald dank KI ohnehin überflüssig?

Zielpublikum: Datenarchitekten, Modellierer und allgemein Leute, die Daten ernst nehmen
Voraussetzungen: Buzzword wie Data Mesh, Data Vault, Stern-Schema und Co. zu kennen, ist sicher von Vorteil, denn Insider-Sprüche gehören zu so einem Nerd-Battle dazu
Schwierigkeitsgrad: Advanced

Extended Abstract:
Im Stil von Pro-/Contra-Debatten werden wir den immer währenden Kampf zwischen zentralem und dezentralem Datenmanagement-Ansatz austragen.

Dabei geht es weniger ums Gewinnen, sondern darum aufzuzeigen, welche Debatten bei Entscheidungen geführt werden und was sinnvolle und weniger sinnvolle Argumente sind. Hoffentlich werden wir dabei den einen oder anderen Zuschauern auch den Spiegel vorhalten und für Aha-Effekte sorgen.

Fachlichkeit kommt dabei natürlich nicht zu kurz, denn auch wenn es bei Entscheidungen nicht immer nur um Technik geht, so ist die sachliche Auseinandersetzung damit absolut unersetzlich, um sich weiterzuentwickeln.

Ob Data Mesh alle Probleme löst, wissen wir danach vermutlich immer noch nicht, aber immerhin haben wir gute Argumente, was im konkreten Einsatz dafür oder dagegen sprechen könnte.

Andreas Peter ist als Data Architect bei Bosch im Bereich Datenmodellierung, Datenstrategie und Semantische Modellierung.

Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe. 
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld. 

Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.

Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.

Andreas Peter, Artur König
Andreas Peter, Artur König
Vortrag: Di 3.5

Vortrag Teilen

17:15 - 18:00
Di 4.5
Erneuerbare Energiegemeinschaften: Erfolg durch Datenanalyse
Erneuerbare Energiegemeinschaften: Erfolg durch Datenanalyse

Die EU-Richtlinie für erneuerbare Energien ermöglicht den direkten nachbarschaftlichen Stromhandel, z.B. von PV-Überschüssen. Ziel solcher erneuerbaren Energiegemeinschaften (EEG) ist die Optimierung der sog. Eigendeckung. Das bedingt eine Verhaltensanpassung, etwa beim Laden von Elektroautos. Hierzu müssen die Mitglieder gut über Überschussmengen und -zeiten informiert sein. Der Beitrag stellt eine Datenanalyselösung vor, aktuell in zwei Pilot-EEGs im Einsatz. Themen sind Aufbereitung und Visualisierung der Zeitreihendaten sowie Prognosen.

Zielpublikum: Interessierte Bürger, Datenanalysten, Datenarchitekten
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Die EU-Richtlinie über erneuerbare Energien (RED II) ermöglicht die Gründung sogenannter erneuerbarer Energiegemeinschaften (EEG). Konkret geht es um Stromhandel in der Nachbarschaft, beispielsweise von Überschüssen aus PV-Anlagen, die nicht an Energiekonzerne, sondern direkt an Nachbarn verkauft werden. Durch das Entfallen eines Zwischenhändlers ergeben sich Preisvorteile, sowohl beim Einspeisen als auch beim Bezug.

In Deutschland ist die Entwicklung noch schleppend aufgrund der großen bürokratischen Hürden, aber auch hier ist das Thema im Kommen. In Österreich ist man schon weiter, Smart Meter Rollout, vereinfachte Verfahren und Anreize wie Rabatte auf die Netznutzung haben dazu geführt, dass in der Alpenrepublik bereits Hunderte solcher EEGs in Betrieb sind.

Ziel einer EEG ist es, möglichst viel Energie innerhalb der Gemeinschaft zu verbrauchen, und zwar genau zu der Zeit, in der sie (beispielsweise durch Photovoltaik) erzeugt wird. Hierzu müssen die Mitglieder gut über Überschussmengen und -zeiten informiert sein. Kann man das Laden von Elektroautos, Warmwassererzeugung etc. in diese Zeiten verlegen, muss weniger externer Strom zugekauft werden. Das gleiche gilt im Kleinen natürlich auch für einzelne Haushalte (ohne Energiegemeinschaft).

Der Beitrag stellt eine Datenanalyselösung für erneuerbare Energiegemeinschaften vor, die aktuell in zwei EEGs im Pilotbetrieb verwendet wird. Behandelt wird die Datenaufbereitung, ein Dashboard zur Analyse der Energieüberschüsse und der Fremddeckung, sowie eine KI-basierte Vorhersagekomponente. Es ist geplant, die Lösung als Open Source weiteren Energiegemeinschaften zugänglich zu machen.

Prof. Dr. Torsten Priebe ist Dozent für Data Analytics an der Fachhochschule St. Pölten und leitet dort die Forschungsgruppe Data Intelligence. Zuvor war er in leitenden Positionen bei verschiedenen Beratungsunternehmen tätig. Sein Doktorat erwarb er 2005 an der Universität Regensburg mit einer Dissertation über semantische Technologien zur Integration von strukturierten und unstrukturierten Daten. Seit August 2023 ist er außerdem Gründer und Obmann der Energiegemeinschaft Ratzersdorf.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/torsten.priebe

Christian Hofmann ist Gründer und Obmann der Energiegemeinschaft Göttweigblick, einer der größten erneuerbaren Energiegemeinschaften in Österreich. Mittlerweile hat der Pionier der österreichischen Energiewende über ein Dutzend weitere Energiegemeinschaften bei der Gründung unterstützt. Darüber hinaus ist er als selbstständiger Coach und Digitalisierungsexperte tätig.

Torsten Priebe, Christian Hofmann
Torsten Priebe, Christian Hofmann
Vortrag: Di 4.5

Vortrag Teilen

17:15 - 18:00
Di 5.5
Stichwort Data Fabric – zwischen Vision und Pragmatismus
Stichwort Data Fabric – zwischen Vision und Pragmatismus

Eine Data Fabric soll den Zugriff auf die verteilten Daten im Unternehmen vereinfachen oder überhaupt erst ermöglichen. Die Vorstellungen, wie eine Data Fabric aussieht und was Anbieter unter dem Label verkaufen, klaffen oft weit auseinander.

Wie sind aktuelle Konzepte und Angebote am Markt einzuordnen? Welche Wege gibt es, die Data Fabric und die damit verbundenen Versprechen für mich Realität werden zu lassen? Der Vortrag soll ein Verständnis über die Bedeutung und eine Einordnung von Lösungen und Konzepten ermöglichen.

Zielpublikum: CDO, CIO, Verantwortliche Data & Analytics, Datenarchitekten, IT-Architekten
Voraussetzungen: Grundlegende Kenntnisse zu Datenarchitekturen und Datenmanagementkonzepten
Schwierigkeitsgrad: Advanced

Extended Abstract:
Real-time-, Business- oder Logical-Data-Fabric. Marktforschungsunternehmen und Technologieanbieter streiten sich über die Deutungshoheit der Data Fabric und arbeiten damit häufig an der Situation der Kunden vorbei. Was ist wirklich wichtig, welche Komponenten bringen mich wirklich weiter und wie wirken sich aktuelle Trends wie Data Mesh und LLMs auf das Konzept aus, um endlich die Herausforderungen eines modernen, analytischen Datenmanagements zu bewältigen.

Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einstieg bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Peter_Baumann

Peter Baumann
Peter Baumann
Vortrag: Di 5.5

Vortrag Teilen

17:15 - 18:00
Di 6.5
AI Platforms to the rescue!
AI Platforms to the rescue!

GenAI ist in aller Munde, und Use Cases schießen aus dem Boden. Die Herausforderung: Compliance, Betriebsreife oder Testen sind alles andere als egal und dabei häufig komplex. AI Platforms to the rescue!

Klassisches Platform Engineering hilft dabei: AI-Plattformen verbergen die technische Komplexität und ermöglichen so den Use-Case-Experten, sich auf die Umsetzung der fachlichen Innovationen zu konzentrieren, anstatt sich mit den zugrunde liegenden technischen Details auseinandersetzen zu müssen. Wir beleuchten, wie eine Plattform für Generative AI aussehen kann und welche Building Blocks sie benötigt.

Zielpublikum: Data Engineer, Decision Maker, AI Engineer
Voraussetzungen: None
Schwierigkeitsgrad: Basic

Extended Abstract:
Wir berichten aus der Praxis von Beispielen für Plattformen in Enterprise-Umfeldern, die wir entwickelt haben.

Dabei diskutieren wir, wie eine Plattformstrategie nicht nur die technische Umsetzung vereinfacht, sondern auch ein Ökosystem für Innovation schafft, das Zusammenarbeit fördert, Wiederverwendbarkeit erhöht und letztendlich die Zeit bis zur Markteinführung drastisch verkürzt.

Wir gehen neben technischen Bestandteilen insbesondere darauf ein, welche fachlichen Bausteine für die Umsetzung von Use Cases essenziell sind:

  • Ein Testframework, in dem Anwender einfach Testfälle schreiben können, um die fachliche Qualität der generierten Antworten zu überwachen und sicherzustellen
  • Bausteine für einfache Datenintegration und -verknüpfung

Sonja Wegner ist Lead Software Architect und Business Unit Director bei der QAware. Ihre aktuellen Schwerpunkte liegen im Design und der Implementierung komplexer Systeme und Software-Architekturen. Seit einiger Zeit beschäftigt sie sich besonders mit dem Einsatz Generativer AI im Enterprise-Kontext und der Integration von AI-Bausteinen in komplexe Systeme. Sie teilt ihre Erfahrungen hierzu gerne und regelmäßig bei verschiedenen Konferenzen.

Sonja Wegner
Sonja Wegner
Vortrag: Di 6.5

Vortrag Teilen

17:15 - 18:00
Di 8.5
Green Coding
Green Coding

Hast du gewusst, dass du als Developer aktiv beim Thema Umwelt mitwirken kannst? Es gibt viele Möglichkeiten unnötigen Ressourcenverbrauch einzuschränken. Das Schönste dabei: es ist einfach und kann eine Verbesserung der Laufzeiten und eine Kostenersparnis mit sich bringen.
Nach einem kurzen Überblick über das Thema Green-IT gehen wir auf zentrale Punkte aus dem Bereich Green Coding ein und zeigen typische Fallen, die es zu vermeiden gilt. Abgerundet wird das durch einige Messwerte, die zeigen, dass das richtige Vorgehen wirklich einen Unterschied macht.

Hast du gewusst, dass du als Developer/Data Analyst/Data Engineer aktiv beim Thema Umwelt mitwirken kannst? Nein, es ist hier nicht damit gemeint, dass zuhause der Strom-/Heizverbrauch optimiert werden soll. Vielmehr geht es darum, auf den Carbon Footprint zu achten, der bei der Arbeit mit Software entsteht.
Unnötiger Energieverbrauch lauert in Softwareentwicklung und Analytics an allen Ecken und Enden. Zum Beispiel geht man davon aus, dass ca. 10% des Energiebedarfs im IT-Bereich allein durch Datenübertragung verursacht werden. CPU-Last – Berechnungen, Abfragen aus Datenbanken, das Ausführen von Software tragen nochmal deutlich mehr zum Carbon Footprint der IT bei.
Dabei gibt es viele Möglichkeiten unnötigen Ressourcenverbrauch einzuschränken. Die Wahl der „richtigen“ Programmiersprache und die Optimierung von Datenbankzugriffen sind nur ein kleiner Teil davon. Von Daten- und Datenbankarchitektur über Persistenz und Schnittstellenmanagement bis hin zum Thema KI-Tools bieten wir Anregungen, um den Carbon Footprint der eigenen Arbeit möglichst gering zu halten. 
Du bist als Berater bei Deinem Kunden? Es liegt in Deiner Verantwortung, ihm aufzuzeigen, dass er der Gesellschaft mit Green Coding einen Dienst erweist und gleichzeitig auch noch Geld sparen kann.
Nach einem kurzen Überblick über das Thema Green-IT gehen wir auf zentrale Punkte aus dem Bereich Green Coding ein und zeigen typische Fallen, die es zu vermeiden gilt. Abgerundet wird das durch einige Messwerte, die zeigen, dass das richtige Vorgehen wirklich einen Unterschied macht.

  • Andreas Möller Wirtschaftsinformatiker
  • Spezialisierung: Green Coding und Clean Code mit PL/SQL und Oracle APEX
  • Erfahrung: 14 Jahre Consulting für PL/SQL und APEX
  • Zertifizierung: OCP für PL/SQL, ISTQB zertifizierter Tester
  • Meine Leidenschaft ist das Refactoring von Legacy Systemen. Es gibt so viele Möglichkeiten, Dinge einfacher, wartbarer und übersichtlicher zu machen. Eine methodische Herangehensweise für das Entwicklerteam zu finden ist meine Herausforderung.
  • Spezialisierung: Data Solutions, Green Coding, Performance, Coaching
  • Erfahrung: 30 Jahre SQL, PLSQL, Oracle Apex, JavaScript, etc.
  • Meine Leidenschaft sind alle Dinge, die mit Daten zu tun haben. Datenanalysen, Datenbanken, Performance, Softwareentwicklung und natürlich User Interface, damit die Anwender die schönen Sachen auch gut benutzen können. Vor 15 Jahren kam Green IT, vor 2 Jahren Green Coding dazu.
Andreas Möller, Arne Hattendorf
Andreas Möller, Arne Hattendorf

Vortrag Teilen

18:15 - 19:15
KeyDi2
SPECIAL KEYNOTE
SPECIAL KEYNOTE

Weitere Informationen zu dieser Keynote folgen in Kürze.

Track: Keynote
Vortrag: KeyDi2

Vortrag Teilen

19:15 - 22:00
Welcome
Data and Drinks
Data and Drinks

Genieße kühle Drinks und kleine Snacks, während du wertvolle Kontakte knüpfst und den ersten Messetag revue passieren lässt!

Vortrag: Welcome

Vortrag Teilen

08:00 - 09:00
Pause
Frühstück & Registrierung/Breakfast & Registration
Frühstück & Registrierung/Breakfast & Registration

09:00 - 10:00
Mi 1.1
Creating Data Transparency with the Support of LLMs and AI
Creating Data Transparency with the Support of LLMs and AI

Data Transparency is a basic need of every data worker. It is crucial to find the right data in a limited amount of time to keep the time-to-market of data and analytical products short. However, documenting and classifying data manually can be cumbersome due to the vast amount of data. In this session, we present the approach MediaMarktSaturn has taken to use LLMs and other AI models in combination with a data catalog to establish a high level of data transparency in a semi-automated way.

Target Audience: Chief Data Officers, Data Governance Managers, Data Strategists, Data Engineers, Data Scientists, Subject Matter Experts
Prerequisites: Basic knowledge of Data Catalogs and LLMs
Level: Basic

Extended Abstract:
Data Transparency is a basic need of every data worker. It is crucial to find the right data in a limited amount of time to keep the time-to-market of data and analytical products short. But with the ever-growing amount of data, it gets more and more difficult to keep up a suitable level of data transparency. In this session, we present the approach MediaMarktSaturn has taken to use LLMs and Open Source Data Catalogs to establish a high level of data transparency in a semi-automated way. With this approach, it is possible to keep the manual work at a suitable level and manage data transparency in an efficient way. Moreover, we will outline how this approach is integrated into the overall Data Governance and Data Architecture.

Dieter Berwald is Competency Lead and Product Owner at MediaMarktSaturn Technology, where he focuses on advanced analytics and data catalog applications. He currently leads projects aimed at entity recognition in large cloud data lakes, managing data access, and leveraging metadata for enhanced data utilization.

Engin Özsoy is Senior Technical Program Manager at MediaMarktSaturn Technology.

Dr. Christian Fürber ist Gründer und Geschäftsführer der Information Quality Institute GmbH (iqinstitute.de), einem spezialisierten Beratungsunternehmen für Data-Excellence- und Data-Management-Lösungen. Vor der Gründung von IQI im Jahr 2012 war er in verschiedenen Positionen im Datenmanagement der Bundeswehr tätig, wo er eine der ersten Data-Governance-Initiativen in Europa konzipierte und umsetzte. Christian und sein Team haben diverse Datenprojekte und -strategien für bekannte Unternehmen verschiedener Branchen erfolgreich umgesetzt und ihnen dabei geholfen, erheblichen Mehrwert aus ihren Daten zu ziehen. Neben seiner Tätigkeit bei IQI ist Christian auch Autor und Redner auf Konferenzen und organisiert den TDWI-Themenzirkel 'Data Strategy & Data Governance'.

Dieter Berwald, Engin Özsoy, Christian Fürber
Dieter Berwald, Engin Özsoy, Christian Fürber

Vortrag Teilen

09:00 - 10:00
Mi 2.1
From Zero to Data Hero: Data Literacy als Held:innenreise
From Zero to Data Hero: Data Literacy als Held:innenreise

Die Held:innenreise ist das Grundschema guter Geschichten. Star Wars, Harry Potter, Pretty Woman - sie orientieren sich alle an dieser Erzählstruktur, die Menschen in ihren Bann zieht. Wir erklären am Beispiel 'Der Herr der Ringe' entsprechend, in welchen Schritten sich der Erwerb von Datenkompetenz für Organisationen und Individuen vollzieht, geben praktische Methoden und Vorlagen als Hilfsmittel an die Hand und zeigen am Ende konkret auf, wie Sauron mit besserer Datenkompetenz die Schlacht um Mittelerde hätte gewinnen können.

Zielpublikum: Alle, die mit Daten arbeiten wollen oder müssen, Führungskräfte und Abteilungsleiter:innen, Entscheider:innen auf C-Level, HR
Voraussetzungen: 1-2 Jahre Berufserfahrung, grundsätzliches Business-Vokabular und Verständnis von Abläufen, Prozessen und dem Einsatz von Daten; Offenheit/erste Erfahrungen bzgl. moderner Methoden (Design Thinking, Agile, Canvas etc).
Schwierigkeitsgrad: Advanced

Extended Abstract:
Der Erwerb von Data Literacy lässt sich an den klassischen Stationen einer Held:innenreise nachvollziehen, die wir anhand von Tolkiens 'Der Herr der Ringe' kurz skizzieren: Vom Ruf des Abenteuers über das Finden eines Mentors sowie Begegnungen mit Freunden und Feinden, schwierigen Bewährungsproben bis hin zum großen Höhepunkt und schließlich zu Belohnung und Rückkehr an den Ausgangsort. 

Doch warum profitieren Organisationen und Individuen davon, wenn sie die 12 Stationen kennen, die den Weg zur Datenkompetenz beschreiben? Ganz einfach: Die zwangsläufigen Höhen und Tiefen einer solchen Literacy-Reise können so besser vorbereitet und begleitet werden. Wenn wir das Schema verstehen, wissen wir, wo Motivation am besten wirkt, wann es Unterstützung durch Dritte braucht und wo Hindernisse und demotivierende Faktoren schon im Vorfeld beseitigt werden müssen. Mit dem Grundschema des Data-Literacy-Erwerbs können Fortschritte besser eingeordnet und die Lernreise strukturiert geplant werden. 

Die im Vortrag vorgestellten Hilfsmittel in Form von Methoden, Vorlagen und Tools dienen dazu, zunächst die individuelle Kompetenz zu erheben und Entwicklungspotenziale zu identifizieren sowie im Anschluss nutzer:innenzentriert einen individuellen Lernplan aufzustellen, der sich an den tatsächlichen Bedürfnissen der Lernenden ausrichtet und die Bedürfnisse in konkrete Lernformate überführt - für ein strukturiertes Vorgehen und messbare Ergebnisse. So werden die Lernenden für die echte Praxis vorbereitet und können das Gelernte auch sofort anwenden.

Dr. Ramona Greiner studierte Philosophie, Kunstgeschichte und Literatur. Seit 2017 arbeitet sie als Digital Analytics & Data Ethics Consultant bei FELD M in München. Dort leitet sie internationale Beratungsprojekte, hält Vorträge und Design-Thinking-Workshops. Sie ist Autorin mehrerer Fach- und Sachbücher, unterrichtet Business & Society an der Munich Business School und ist Co-Leiterin der AG Künstliche Intelligenz des Think Tanks D64 - Zentrum für Digitalen Fortschritt e.V.

Dr. Matthias Böck promovierte in Bioinformatik und Machine Learning und arbeitet seit 2013 als Data Scientist im Bereich Data Product bei der Münchner Unternehmensberatung FELD M. Dort ist er Technischer Leiter für Projekte aus den Bereichen Advanced Analytics und Maschinelles Lernen. Er hält Design-Thinking-Workshops und arbeitet mit Universitäten an Forschungsprojekten. Neben diesen Feldern beschäftigt er sich mit dem Thema Data for Good und dessen Einsatz in der Praxis.

Ramona Greiner, Matthias Böck
Ramona Greiner, Matthias Böck
Vortrag: Mi 2.1

Vortrag Teilen

09:00 - 12:10
Mi 3.1
Data Architecture to Support Analytics & Data Science
Data Architecture to Support Analytics & Data Science

Supporting analytics and data science in an enterprise involves more than installing open source or using cloud services. Too often the focus is on technology when it should be on data. The goal is to build multi-purpose infrastructure that can support both past uses and new requirements. This session discusses architecture principles, design assumptions, and the data architecture and data governance needed to build good infrastructure.

Target Audience: BI and analytics leaders and managers; data architects; architects, designers, and implementers; anyone with data management responsibilities who is challenged by recent changes in the data landscape
Prerequisites: A basic understanding of how data is used in organizations, applications and platforms in the data ecosystem, data management concepts
Level: Advanced

Extended Abstract:
The focus in our market has been on acquiring technology, and that ignores the more important part: the landscape within which this technology exists and the data architecture that lies at its core. If one expects longevity from a platform then it should be a designed rather than accidental architecture. 

Architecture is more than just software. It starts with uses, and includes the data, technology, methods of building and maintaining, governance, and organization of people. What are design principles that lead to good design and data architecture? What assumptions limit older approaches? How can one modernize an existing data environment? How will this affect data management? This session will help you answer these questions.

Outline - Topics covered:    

  • A brief history of data infrastructure and past design assumptions
  • Categories of data and data use in organizations
  • Differences between BI, analysis, and data science workloads
  • Data architecture
  • Data management and governance processes
  • Tradeoffs and antipatterns

Mark Madsen works on the use of data and analytics for decision-making and organizational systems. Mark worked for the past 25 years in the field of analytics and decision support, starting with AI at the University of Pittsburgh and robotics at Carnegie Mellon University.

Mark Madsen
Mark Madsen
Vortrag: Mi 3.1

Vortrag Teilen

09:00 - 10:00
Mi 4.1
Rocking the World of Airline Operations using Data, AI & OR
Rocking the World of Airline Operations using Data, AI & OR

Learn how Lufthansa Group is leveraging AI in the sky - and how you could apply the same concepts to your business. Lufthansa Group and Google Cloud developed a cloud native application that pulls data from operational systems to the cloud for analysis by artificial intelligence and operations research for optimizing flight operations. It balances crew availability, passenger demand, aircraft maintenance status etc. Recommendations are given to Operations Control for final checks and implementation.

Target Audience: People with interest in how to apply data driven optimization of their businesses. Data Engineers, Project Leads, and Decision Makers
Prerequisites: Interest in optimizing operational processes using data. A basic understanding of managing data coming from a diverse set of operational applications
Level: Advanced

Extended Abstract:
Imagine you are an airline OpsController responsible for running the operations of an airline and you just learned that an aircraft that was supposed to leave for Frankfurt in 30 minutes has to stay on the ground longer due to a minor repair. What do you do now? Passengers have booked connecting flights from Frankfurt, otherwise hotel accommodations might become necessary. Wait for the repair and possibly delay connecting flights as well? Is such a delay okay for the crews or will some exceed their permitted working hours? Is a replacement aircraft available? If so, is there a crew for it? And what about...  

Such a small issue can trigger a cascade of thighs to consider and this can quickly exceed human capabilities in their complexity. There are more potential matches of chess possible than protons in the universe. And airline operations is an even harder problem. Highly experienced people can solve situations to a certain extent based on their wealth of experience. But wouldn't it be better if optimal decisions across multiple business processes (which still can affect punctuality and passengers) were proposed to the person in the OpsControl Center with the support of an AI?

Lufthansa Group has addressed this problem and, together with Google Cloud, created a data platform for its operational data from core business processes. This data foundation is used as input for AI models to calculate future alternative scenarios from the airline's perspective. These are calculated using optimizers that Google contributes to the project. At runtime, in addition to the operational data, a set of airline-specific business rules together with a cost function, which is also the responsibility of the airline, are given to the so-called 'Solver'.

When a request is made, several scenarios are calculated in parallel. These differ in their respective configurations and their results are summarized and the best scenarios are displayed to the person in OpsControl as a proposal for evaluation via a specially created user interface. The person in OpsControl can then transfer the necessary changes back to the operational systems for implementation in the physical world. It is very important to note that today and for the foreseeable future a human being has the final say regarding the use of AI-generated proposals.

The application presented here optimizes across different business units simultaneously and avoids the common occurrence of local optimizations that contradict each other and may have to be resolved manually. The solution is in use at Swiss Intl. Airlines, a Lufthansa Group airline. After 18 months, the use of this technology resulted in CO2 emission savings of 7,400 tons per year through reduced fuel consumption, which is equivalent to approximately 18 Boeing 777 flights between Zurich and New York City. These savings will increase significantly when the application is rolled out to the other airlines in the Lufthansa Group.

In this presentation, Christian Most and Andreas Ribbrock will explain the use case. They will also show how the Lufthansa Group uses the cloud as a real-time data integration platform to prepare data from operational systems, each of which does exactly what it is supposed to do but is not designed to process data from other systems. The challenges posed by this approach will also be described. As well as the opportunities offered by 'serverless' technologies, since the project team does not have to worry about infrastructure.

Christian Most is a technology leader at Deutsche Lufthansa, focusing on innovation and the application of cutting-edge technologies in the airline industry. With a deep understanding of cloud computing, artificial intelligence, and data analytics, he drives Lufthansa's digital transformation initiatives.

Christian Most, Andreas Ribbrock
Christian Most, Andreas Ribbrock
Vortrag: Mi 4.1

Vortrag Teilen

09:00 - 10:00
Mi 5.1
Private Equity Reporting neu gedacht (... und gemacht)
Private Equity Reporting neu gedacht (... und gemacht)

AssetMetrix hat die bisher genutzte Reporting-Lösung für Private-Equity-Berichte komplett auf eine moderne, datengetriebene Technologie umgestellt.
Dazu wurden über 200 verschiedene Elemente identifiziert, die flexibel zu Berichten kombinierbar sein müssen. Diese Charts, Texte, Grafiken und Tabellen sollten zudem kundenspezifische Layoutanforderungen sowie I18N berücksichtigen.
In diesem Beitrag erklären wir die Anforderungen, gehen auf die Umsetzung ein und ziehen ein Resümee.

Zielpublikum: Projektleiter, CIO, Head of Reporting, Head of Controlling
Voraussetzungen: Grundsätzliches Interesse an automatisiertem Reporting
Schwierigkeitsgrad: Basic

Extended Abstract:
AssetMetrix nutzte für die Reporterzeugung vor Projektbeginn eine auf Microsoft Office basierende Softwarelösung. Aufgrund steigender quantitativer und qualitativer Anforderungen sollte der Reporterstellungsprozess auf eine moderne, datengetriebene Technologie gehoben werden. 

Nach einer umfassenden Analyse hat AssetMetrix dazu über 200 verschiedene Elemente identifiziert, die flexibel in einer Reportinglösung kombinierbar sein müssen. Diese Charts, Texte, Grafiken und Tabellen mit fachlichen Private-Capital-Inhalten sollten zudem kundenspezifische Layoutanforderungen berücksichtigen.

Der einzelne Report muss sich dabei als homogenes Ganzes verhalten, in Sekunden produziert werden können und optisch den hohen Ansprüchen institutioneller Investoren gerecht werden.

Die Verwendung einer Pixel-perfekten Lösung, in der jeder Report kundenindividuell aus den verfügbaren Reporting-Elementen zur Laufzeit konfiguriert werden kann, war eine zentrale Anforderung an die Lösung.

Weiterhin müssen zur Laufzeit Schriftarten und -größen sowie Stylevorgaben (Tabellenlayouts, Header/Footer, Coverpages) aus einer Konfigurationsdatenbank gelesen werden und in die Berichterstellung einfließen. Alle Reporting-Elemente müssen außerdem auf die gewählte Berichtsprache (DE, EN, ES, FR, JP etc.) reagieren und neben entsprechenden Übersetzungen statischer und dynamischer Texte auch Zahlen- oder Datumsformate integrieren.

Hinzu kommen weitere Anforderungen bzgl. kundenindividueller Spezialreports (sog. One-Pager), die für jedes, in einem Fonds enthaltene Investment einzelne Berichtsteile automatisch wiederholen und mit eigenen Kapitelstrukturen ausstatten. Diese dynamischen Berichtsteile müssen sich ebenso nahtlos in die regulären Kundenreports integrieren lassen wie alle anderen Berichtselemente.

  • Große Zeitersparnis und deutlich reduzierte Fehleranfälligkeit durch automatisierte Berichterstellung
  • Wiederverwendbarkeit der Reporting-Elemente
  • Vereinheitlichung des Erstellungsprozesses für alle Kunden
  • Erweiterung des Funktionsspektrums (z. B. One-Pager)
  • Selbstdokumentation durch neue Metadaten
  • Problemlose Reproduzierbarkeit von Reports 
  • Hohe Akzeptanz dank anwenderfreundlichem Setup

In diesem Beitrag erklären wir die Anforderungen, gehen auf die Umsetzung mit Jaspersoft ein und ziehen ein Resümee.

Dr. Johannes Held berät bei der PRODATO umfänglich zu den Themen Datenstrategie und Datenwertschöpfung. Seine Kernthemen dabei sind Berichts- und Datenstrategielösungen. Dabei legt er seinen Fokus auf eine Umsetzung mittels Datenvirtualisierung sowie den Einsatz der moderne NoSQL-Datenbank Couchbase.
Er ist diplomierter Informatiker und promovierte an der FAU zum Thema Datenqualität für Testdaten.

Michael Hoffmann leitete das Projekt zur Einführung einer modernen Private-Capital-Reportinglösung in der Asset Metrix GmbH. Seit 2019 verantwortet er dort das Data Enrichment, das Reporting und die Reportingportale. Zuvor war er 12 Jahre bei einer großen KVG tätig und verantwortete zuletzt das Reporting, das Datenmanagement sowie das Performance- und Risikocontrolling. Herr Hoffmann hält einen M. Sc. in Praktischer Informatik sowie ein Diplom in Wirtschaftsinformatik.

Johannes Held, Michael Hoffmann
Johannes Held, Michael Hoffmann
Vortrag: Mi 5.1

Vortrag Teilen

09:00 - 10:00
Mi 6.1
Von der Analytics-Idee zum Dashboard mit Business-Mehrwert
Von der Analytics-Idee zum Dashboard mit Business-Mehrwert

Wie kann man eigentlich schnell Analytics-Ideen in einer Organisation umsetzen und auch den Mehrwert für das Business heben? Dieser zentralen Frage gehen wir anhand eines Blueprint-Vorgehens aus der Telekommunikationsbranche am Beispiel von 1&1 Versatel auf den Grund. Vom Geschäftsmodell ausgehend betrachten wir konkrete Use-Cases aus dem Analytics-Umfeld. Hier geht es nicht nur um 'Rapid Prototyping', sondern auch darum, wie man Menschen damit erreicht.

Zielpublikum: Data Engineer, Data Scientist, Decision Makers
Voraussetzungen: Grundkenntnisse, Erfahrung mit Daten und geschäftlichen Zusammenhängen
Schwierigkeitsgrad: Basic

Extended Abstract:
Wie kann man eigentlich schnell Analytics-Ideen in einer Organisation umsetzen und auch den Mehrwert für das Business heben? Dieser zentralen Frage gehen wir anhand eines Blueprint-Vorgehens aus der Telekommunikationsbranche am Beispiel von 1&1 Versatel auf den Grund. Vom Geschäftsmodell ausgehend betrachten wir konkrete Use-Cases aus dem Analytics-Umfeld. Wie kann man diese im 'Rapid Prototyping'-Ansatz mit den Stakeholdern diskutieren und in Form von Dashboard-Prototypen bereitstellen. Daten, analytische Lösungen und Dashboards machen zusammen nicht den Unterschied - es sind die Menschen, die diese Erkenntnisse nutzen, damit man wirklich etwas verändert.

Dr. Stephan Hausberg hat Mathematik und Betriebswirtschaftslehre an der TU Dortmund studiert. Nach einer Promotion über ein Thema in der Theorie partieller Differenzialgleichungen und einer Anwendung in der Biomathematik hat er sich auf Datenthemen fokussiert. Im Moment leitet er ein Expertenteam im Datenbereich der 1&1 Versatel. Hier geht es um die Modellierung von Fragestellungen rund um den Glasfaserausbau und wie man datenbasiert Mehrwerte generiert.

Stephan Hausberg
Stephan Hausberg
Vortrag: Mi 6.1

Vortrag Teilen

09:00 - 12:10
Mi 7.1
Hackathon Data Analytics – Logistikdaten
Hackathon Data Analytics – Logistikdaten

Die Session soll einen Rahmen geben, um unterschiedliche Analyseansätze & -Tools kennenzulernen, sowohl durch das eigene Umsetzen wie auch Impulse anderer Teilnehmer:innen. 
Dazu wollen wir uns in diesem Hackathon mit verschiedenen Logistik-Daten beschäftigen. Dabei sollen die Teilnehmenden gerne das Tool verwenden, in dem sie sich wohlfühlen, oder eines, das sie gern ausprobieren möchten. 
Die Referenten geben eine Einleitung, beantworten Fragen zu den Daten und leisten bei allgemeinen analytischen Fragestellungen Hilfestellung.

Zielpublikum: Alle, die Spaß an der Datenanalyse haben
Voraussetzungen: Mindestens Grundwissen und erste Erfahrungen in der Datenanalyse; Interesse an Datenanalyse und Austausch dazu
Schwierigkeitsgrad: Basic

Extended Abstract:

Zielsetzung
Dieser Hackathon soll den Teilnehmer:innen die Möglichkeit geben, in lockerer Atmosphäre unterschiedliche Stärken verschiedener Analyse-Technologien bzw. -Tools und -Methodiken kennenzulernen und sich von anderen inspirieren zu lassen.

Tools
Die Teilnehmenden entscheiden selbst, mit welchen Tools sie arbeiten. Das können sowohl Technologien sein, die sie gut kennen & beherrschen, wie auch Tools, die sie gern schon immer einmal ausprobieren wollten. 

Daten
Dazu stellen wir verschiedene Datensätze aus der Logistik bereit, die vielfältige Analyseansätze zulassen (z.B. zeitliche, räumliche, finanzielle Fragestellungen), die wir gut kennen und bei denen wir entsprechend toolagnostische Hilfestellungen anbieten können. Geplant haben wir, Datensätze über Kraftstoffpreise und Containerverkehr anzubieten, die durch Routing-fähige Shapefiles, soziodemografische Daten und ggfs. weitere Daten ergänzt werden können. Die Datenbereitstellung erfolgt wahlweise über flache Dateien oder über Snowflake. 

Ablauf
Der Ablauf sieht nach kurzer Vorstellung & Einführung ins Thema eine Explorationsphase vor, in welche die Teilnehmer:innen die Daten kennenlernen können. Anschließend findet ein kurzer Austausch über die gewonnenen Erkenntnisse statt, woraufhin alle Teilnehmer:innen eine Fragestellung formulieren sollen, die sie im weiteren Verlauf des Hackathons bearbeiten. Auf Wunsch unterstützen wir gern beim Finden einer geeigneten Fragestellung. Nach gemeinsamer Pause können die Teilnehmer:innen in die Bearbeitung der Fragestellungen gehen, die wir bei Bedarf gern technisch oder fachlich unterstützen. Nach einer weiteren Kaffeepause können die Ergebnisse kurz & knackig präsentiert werden, und gemeinsam wählen die Teilnehmer:innen eine:n Gewinner:in aus, wobei in diesem Format keinesfalls der Wettbewerb im Vordergrund stehen soll.

Benjamin Schalk arbeitet als Principal Consultant bei The Information Lab in Hamburg und berät Kund:innen mit Fokus auf technische Fragen der Business Intelligence - über Strategie- und Infrastrukturfragen, zur Datenhaltung, -Verarbeitung und Analyse.

Moritz Schirmböck arbeitet ebenfalls als Principal Consultant bei The Information Lab in Hamburg und berät Kund:innen mit Fokus auf fachliche Mehrwerte, um derenGeschäft  weiterzuentwickeln & Werte zu generieren.

Benjamin Schalk, Moritz Schirmböck
Benjamin Schalk, Moritz Schirmböck
Track: Hands-On
Vortrag: Mi 7.1

Vortrag Teilen

09:00 - 10:00
Mi 8.1
Ein Data Warehouse mit Data Vault – Toolauswahl und Einbettung ins Unternehmen
Ein Data Warehouse mit Data Vault – Toolauswahl und Einbettung ins Unternehmen

Mit Data Warehouse Automation (DWA) wird die Entwicklung radikal beschleunigt. Doch vor der Nutzung eines solchen Werkzeugs steht die Auswahl, und ein solcher Prozess dauert. Je nach Firma und Kultur zwischen 2 Monaten und 2 Jahren. Die DDVUG hat hier mit dem Portal dwa-compare.info die Möglichkeit geschaffen, diesen Prozess radikal zu beschleunigen. Hier stellen wir die Basis für diesen Vergleich vor und geben Hinweise, wie eine schnelle Toolauswahl aussehen kann.
Die Erfahrung zeigt, dass die beschleunigte Entwicklung nicht unbedingt dazu führt, dass neue Daten schneller bereitgestellt werden. Andere Themen, die man bisher nebenbei erledigt hat, erweisen sich nun als zeitkritische Hindernisse. Viele von diesen Themen liegen außerhalb des eigenen Einflussbereichs. Darum ist es angebracht, sich mit den Schnittstellen des DWH zu beschäftigen und sich Gedanken zur Einbettung ins Unternehmen zu machen.
Getreu dem Tagesmotto ‚Alles in einem Tag zum Mitnehmen‘ widmen wir uns hier also in kompakter Form um die folgenden Themen:

  • Willibald als ideale Sammlung der gängigen Datenprobleme
  • Toolauswahl mit dem Vergleich auf Basis der Willibald-Daten von dwa-compare.info
  • Schnittstellen mit dem Data Warehouse: Einbettung und Erwartungsmanagement im Unternehmen

Torsten Glunde ist ein unabhängiger Analyst und Berater, der sich auf Data-Warehouse- und Data-Vault-Lösungen, Datenbanktechnologien und Datenmodellierung spezialisiert hat. Er ist Gründer und Geschäftsführer der Alligator Company GmbH - ein Beratungsunternehmen, das seine Kunden bei der Implementierung von Data-Vault- und DBT-Datenlösungen für ihre Datenprodukte unterstützt. Seit letztem Jahr ist er auch Mitglied des Vorstandes der DDVUG e.V.
Als Anhänger agiler Methoden und Automatisierung im Data Warehousing mit über 20 Jahren Berufserfahrung veröffentlicht er Artikel und Vorträge auf Konferenzen zu den Themen Datenmanagement-Strategien, Modellierung von Data Vault, Datenarchitektur sowie Agile Workbench für Datenbanken.

Christian Hädrich ist BI-Spezialist und unterstützt seit über 20 Jahren Unternehmen bei der Entwicklung von dispositiven Anwendungen und Data Warehouses. Durch seinen Mainframe-Hintergrund ist er häufig bei großen Unternehmen wie Versicherungen und Banken tätig. Neben der Implementierung liegt der Schwerpunkt seiner Arbeit in der Architektur- und Prozessberatung. Seit 8 Jahren beschäftigt er sich intensiv mit den Themen DWH-Automatisierung und Data Vault. Er ist Mitglied im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V.

Michael Müller ist seit mehr als 20 Jahren im BI-Bereich tätig. Seine Schwerpunkte liegen in den Bereichen Datenmodellierung und Datenarchitektur sowie Data Vault, DWH-Automatisierung und Einbettung von BI im Unternehmen. Derzeit ist er im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V. tätig.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/michael.mueller

Torsten Glunde, Christian Hädrich, Michael Müller
Torsten Glunde, Christian Hädrich, Michael Müller
Vortrag: Mi 8.1

Vortrag Teilen

10:00 - 10:30
Pause
Kaffee & Ausstellung/Coffee & Exhibition
Kaffee & Ausstellung/Coffee & Exhibition

10:30 - 11:15
Mi 1.2
Change Management als Motor für Data Governance
Change Management als Motor für Data Governance

Der DKV setzt seit über drei Jahren eine ambitionierte Datenstrategie mit umfassendem Data-Governance-Ansatz um. 
Dieser Wandel zeigt beachtliche Fortschritte in der Data-Governance-Organisation, jedoch bleibt der Change in den Köpfen der Belegschaft in Teilen aus.
Um den Wandel zu beschleunigen, implementiert der DKV ein auf Kommunikation ausgerichtetes Change Management. In diesem Vortrag werden der bisherige Change-Management-Prozess sowie die gesammelten Erkenntnisse im Kontext des Data-Governance-Programms beleuchtet.

Zielpublikum: Data Governance Practitioners, Data Governance Managers, Data Strategists, Project Leaders, Change Manager
Voraussetzungen: Grundkenntnisse von Data Governance
Schwierigkeitsgrad: Advanced

Extended Abstract:
Mit seiner ambitionierten Datenstrategie verfolgt der DKV seit über drei Jahren einen umfassenden Data-Governance-Ansatz: Von Beginn an wurde eine Data-Governance-Organisation über alle Datendomänen hinweg aufgesetzt. Dies umfasst die Einführung und die Rollen Data Owner, Domain Owner und Data Steward. Zudem müssen die Mitarbeitenden in den Aufgaben, die mit diesen Rollen einhergehen, intensiv geschult und trainiert werden. Zuletzt gilt es, den Datenkatalog zu implementieren und zu pflegen sowie ein effizientes Datenqualitätsmanagement zu etablieren. 
Blickt man heute auf den Stand der Umsetzung, stellt man fest, dass die DG-Organisation, das Datenqualitätsmanagement und der Datenkatalog einen bemerkenswerten Umfang angenommen haben - jedoch fehlt es zum Teil am notwendigen Data-Governance-Mindset innerhalb der Belegschaft. So ist das DG-Programm noch nicht vollständig in den Arbeitsalltag integriert und Data Stewards nehmen ihre Aufgaben nicht immer mit dem notwendigen Nachdruck wahr. Darüber hinaus laufen einige datengetriebene Projekte an der DG-Organisation vorbei. Somit steht der DKV vor der Herausforderung, das Verständnis für und den Mehrwert von Data Governance weiter zu schärfen und zu fördern.
Dem begegnet der DKV damit, ein auf Kommunikation ausgerichtetes Change Management durchzuführen. So vollzog die DG-Organisation zunächst eine Reihe von Workshops, um eine geeignete Kommunikationsstrategie zu erarbeiten. Diese wurden in einem Kommunikationsplan in Form von zielgruppenspezifischen Formaten ausgearbeitet.
Der Vortrag bilanziert zum einen die Erfahrungen der letzten Jahre bis zur Diagnose des verbesserungswürdigen Data-Governance-Mindsets und die Entscheidung hin zum Change Management. 
Der Vortrag bilanziert zunächst die Erfahrungen der ersten drei Jahres bis zur Diagnose des verbesserungswürdigen Data-Governance-Mindsets. Im Hauptteil wird die Entscheidung zum Change Management diskutiert und der folgende Change-Prozess, dessen Ergebnisse sowie Anwendung von Change-Management-Tools im Kontext des Data-Governance-Programms vorgestellt. 

In ihrer Rolle als Head of Data Governance & Enterprise Reporting beim DKV ist Anja Binder eine treibende Kraft der DKV-Datenstrategie. Ihr Fokus liegt darauf, durch wirksame Data Strategy & Governance-Initiativen die Datenqualität und -sicherheit voranzutreiben und sicherzustellen. Sie unterstützt das Team aktiv bei der effektiven Nutzung von Daten und bringt langjährige internationale Erfahrung in Datenanalyse, Masterdata Management sowie Management- und Strategiefragen ein.

Dr. Matthias Platzer ist Berater mit Fokus auf Datenstrategie, Data Governance und Change Management. Er konnte bereits Erfahrungen mit Kunden aus verschiedenen Branchen sammeln, wie bspw. ÖPNV oder Mobilitätsdienstleistungen.
Seine Beratungsleistung zeichnet sich durch einen ganzheitlichen Ansatz aus, der den Menschen in den Mittelpunkt stellt und somit Data Strategy & Governance-Initiativen zu einem nachhaltigen Erfolg führt.
Dabei stützt er sich auf Projekterfahrungen, die sich über die gesamte Datenwertschöpfungskette erstrecken.

Anja Binder, Matthias Platzer
Anja Binder, Matthias Platzer

Vortrag Teilen

10:30 - 11:15
Mi 2.2
Data Driven meets Change – moderne Datenkultur bei congstar
Data Driven meets Change – moderne Datenkultur bei congstar

Unternehmen setzen auf den Wandel zur Data Driven Company. Dieser Pfad birgt mehr als nur technologische Herausforderungen. Es ist wichtig, auch die Menschen, ihre Bedürfnisse und Ängste bei der Transformation zur Data Driven Culture zu verstehen. In diesem Vortrag erfahren Sie nicht nur, wie Sie diesen Change gut begleiten, sondern auch wie die congstar GmbH ihre Systeme modernisieren und dabei die Fachseiten erfolgreich mitnehmen konnte. Und wie sie damit eine bahnbrechende Datenkultur schuf.

Zielpublikum: Project Leader, Product Owner, Decision Makers, Developers
Voraussetzungen: Grundkenntnisse
Schwierigkeitsgrad: Basic

Janine Ellner ist als Lead Consultant für OPITZ CONSULTING Deutschland GmbH im Bereich Analytics tätig. Hier liegt ihr Schwerpunkt auf der ganzheitlichen Betreuung des Kunden. Dies umfasst die Analyse von Anforderungen, die Unterstützung bei fachlichen Fragestellungen sowie die Weiterentwicklung von DWH-Systemen. Ihr besonderes Interesse gilt Data-Culture-Themen sowie innovativen Technologien und modernen Analytics-Werkzeugen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/janine.ellner

Sebastian Pospiech ist Lead Consultant für OPITZ CONSULTING Deutschland GmbH im Bereich Analytics. Seine Schwerpunkte liegen in der Planung und Durchführung von agil gestalteten Analytics-Projekten. Er ist überzeugt davon, dass datengetriebene Kulturen in Organisationen dabei helfen können, effizientere, nachhaltigere und bessere Produkte und Dienstleistungen zu erzeugen, da es Menschen und Abteilungen auf einer sachlichen Ebene in den gegenseitigen kreativen und sachlichen Austausch bringt.

Janine Ellner, Sebastian Pospiech
Janine Ellner, Sebastian Pospiech
Vortrag: Mi 2.2

Vortrag Teilen

10:30 - 11:15
Mi 4.2
Mesh Dich nicht ein! Vom klassischen DWH zum agilen Data Mesh
Mesh Dich nicht ein! Vom klassischen DWH zum agilen Data Mesh

Nicht noch ein Vortrag über die organisatorischen Herausforderungen von Data Mesh als dezentrale Daten-Architektur. In diesem Vortrag wird es konkret. Wir sprechen über einen möglichen Migrationspfad aus der klassischen DWH-Welt hin zu einer domänengetriebenen, dezentralen Data-Mesh-Architektur. Dabei wird es etwas technisch, aber insbesondere lösungsorientiert. Wir zeigen eine Best-Practice-Architektur mit Microsoft Fabric, mit der den o.g. Herausforderungen begegnet werden kann. Spoiler Alert: Komplett ohne zentrale Strukturen geht es nicht!

Zielpublikum: Geschäftsführer, BI-Analysten, IT-Verantwortliche
Voraussetzungen: Grundlegendes Know-how über Data Mesh und DWH-Architekturen
Schwierigkeitsgrad: Basic

Extended Abstract:
Wenn es um Architekturen zur analytischen Nutzung von Daten geht, ist Data Mesh in aller Munde. Data Mesh basiert dabei im Wesentlichen auf vier Grundprinzipien:

  1. Domain Ownership
    Mehr Verantwortung in die Fachbereiche! Daten sollen dezentralisiert da verwaltet werden, wo mit ihnen gearbeitet wird. 
  2. Data as a Product
    Daten müssen als Produkte verstanden und in den Fachabteilungen als solche angeboten werden. Die Nutzer der Daten werden als Kunden betrachtet.
  3. Self Service Data Platform
    Teams sollen möglichst einfach Daten teilen und nutzen zu können.
  4. Federated Computational Governance
    Datenprodukte sollen miteinander interagieren und sich ergänzen können, um eine ganzheitlichere Sicht zu ermöglichen.

Diese vier Grundprinzipien spielen bei der Transformation zu einer Data-Mesh-Architektur eine wichtige Rolle. Die Architektur muss am Ende den o.g. vier Grundprinzipien entsprechen, die technische Umsetzung wird sich daran messen lassen müssen. Die grundsätzlichen Vorteile von Data Mesh als dezentrale Lösung wurden bereits ausgiebig diskutiert, wie sieht es aber mit der konkreten technischen Umsetzung aus?

Nicht nur organisatorisch, sondern auch technisch muss ein Umdenken im Unternehmen im Umgang mit Daten stattfinden. Dies erfordert neben Zeit und Ausdauer eine ebenso sorgfältige Vorbereitung und Planung. Organisatorische Änderungen müssen mit technischen Änderungen oftmals einhergehen und vorangetrieben werden. 

In diesem Vortrag zeigen wir eine mögliche technische Lösungsarchitektur sowie einen dazugehörigen Migrationspfad von einem klassischen DWH hin zu einer agilen Data-Mesh-Architektur. Wir zeigen am Beispiel von Microsoft Fabric, wie sich zentrale Verantwortlichkeiten für Software durch den Einsatz moderner Cloudservices reduzieren lassen und wie gleichermaßen eine einheitliche Plattform zum Austausch der Datenprodukte aufgebaut werden kann. Anhand eines Best-Practice-Beispiels zeigen wir, weshalb zentrale Strukturen unserer Überzeugung nach in bestimmten Bereichen essenziell sind und wie sich diese trotzdem schlank halten und einfach betreiben lassen. Die Lösungsarchitektur stützt sich dabei auf einen hybriden Ansatz, der übergangsweise den Parallelbetrieb des DWH und des Data Mesh vorsieht.

Matthias Jung verantwortet den Bereich Data Management bei der ORDIX AG mit ca. 80 Mitarbeitern und ist seit 25 Jahren als Berater tätig. Technologisch liegt sein Schwerpunkt dabei im Datenbankumfeld sowie in der Konzeption belastbarer und skalierbarer Daten-Architekturen.

Kwang-Il Son ist Senior Chief Consultant im Bereich BI & Reporting. Mit mehr als 15 Jahren branchenübergreifender Erfahrung als Consultant und Data Engineer verfügt er über ein tiefes Fachwissen im Umfeld Data Warehouse und BI. Er verantwortet zudem die ORDIX interne Weiterentwicklung von Data-Management-Themen im Cloud-Umfeld.

Wolfgang Kettler leitet das Team BI & Reporting bei der ORDIX AG. Er verfügt über 12 Jahre Erfahrung im Bereich der Architektur komplexer Daten-Plattformen und BI-Anwendungen. Als Senior Chief Consultant berät er Kunden in den oben genannten Themenfeldern. In den letzten Jahren lag sein Fokus insbesondere auf der Migration bestehender On-premise-Lösungen auf moderne, skalierbare Cloud-Lösungen auf Microsoft Azure.

Matthias Jung, Kwang-Il Son, Wolfgang Kettler
Matthias Jung, Kwang-Il Son, Wolfgang Kettler
Vortrag: Mi 4.2

Vortrag Teilen

10:30 - 11:15
Mi 5.2
Das Fachdatenmodell im Zentrum des Reportings
Das Fachdatenmodell im Zentrum des Reportings

Ein leicht verständliches Datenmodell bildet in der apoBank die Basis, um Mitarbeitern im Self-Service die Möglichkeit zu geben, ohne tiefe IT-Kenntnisse schnell Reports und Datenausleitungen zu erstellen. Flankierend zum Datenmodell wurde zudem ein Data-Governance-Tool eingeführt, welches es den Mitarbeitern ermöglicht, sich über Daten, Zuständigkeiten und Datenflüsse zu informieren. So entstehen im Reporting-Alltag große Mehrwerte bei gleichzeitiger Ausrichtung der kompletten Architektur an den Vorgaben der BCBS239 und MaRisk.

Zielpublikum: Fachanwender Finanzindustrie, Data Governance Manager, DWH-Verantwortliche, Data Manager, BI-Analysten
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Daten spielen in vielen Unternehmen eine zunehmend zentrale Rolle. Dies betrifft sowohl die interne Steuerung als auch Entscheidungen über Maßnahmen für die Ausrichtung des Vertriebs. Dabei werden die Daten im Sinne der klassischen Business Intelligence in Reports und Ad-hoc-Abfragen, aber auch im Umfeld der Advanced Analytics mit Algorithmen der Künstlichen Intelligenz genutzt.

Ziel der Datenbereitstellung muss es mehr und mehr sein, auch Mitarbeiter ohne tiefe (technische) Kenntnisse der Datenmodellierung in die Lage zu versetzen, Auswertungen zu erstellen und Daten ohne Hilfe von Datenexperten zu nutzen. Dies ist aber auf Grund der zum Teil komplexen Datenmodelle und fehlender Beschreibungen der Daten für Fachanwender nur sehr schwer möglich. In dieser Hinsicht unterscheiden sich Banken kaum von anderen Unternehmen. In Banken kommt jedoch hinzu, dass regulatorische Vorgaben der BCBS239 und der MaRisk fordern, dass es eine ausgeprägte Data Governance für insbesondere jene Daten gibt, die für die Risikosteuerung verwendet werden. Es muss also in der gesamten Architektur neben den eigentlichen Daten insbesondere auch die Erfassung von Metadaten, Zuständigkeiten und Data Lineage adressiert werden.

Die Deutsche Apotheker und Ärztebank e.G. (apoBank) arbeitet seit einigen Jahren an der Implementierung und Erweiterung des 'Fachlichen Datenmodells' sowie den flankierenden regulatorischen Maßnahmen. Der Anspruch des Datenmodells im Sinne der 'Abbildung der Fachsprache der Bank' ist sehr herausfordernd, schafft aber enorme Potenziale bei der Befähigung der Banker, eigenständig Reports und Analysen auf den Daten zu erstellen. Da das Kernbanksystem heute ein eher technisches Datenmodell besitzt, war der Weg der Harmonisierung und Transformation der Daten in die Fachsprache komplex. Ziel des Datenmodells ist es, historisierte und materialisierte Tabellen zu erschaffen, die schnell und performant abgefragt werden können. Dazu wurde auf der einen Seite darauf geachtet, dass die Entitäten und Attribute des Datenmodells exakt in der Sprache der Fachanwender benannt wurden, gleichzeitig aber möglichst wenig Joins bei Abfragen benötigt werden. Zudem werden umfangreiche Metadaten erfasst, damit die Nutzung der Daten nicht zu unterschiedlichen Interpretationen führt. Der eigentliche Zugriff erfolgt dann mit gängigen Reportingtools und einfacher SQLs. Alle Informationen rund um das Datenmodell werden im Data-Governance-Tool dataspot. vorgehalten. Die Mehrwerte dieses Ansatzes zeigten sich bereits sehr schnell nach der Einführung der ersten Versionen des fachlichen Datenmodells mit seinen Metadaten.

Die Nutzung von dataspot. als integraler Bestandteil der Data-Warehouse-Architektur begann Mitte 2023. Dataspot. wird sukzessive mit den relevanten Informationen aus dem Data Warehouse und den umliegenden Systemen um die Metadaten zu Datenquellen, Data Lineages und Datenverwendungen sowie organisatorische Zuständigkeiten ergänzt. Diese orientieren sich zu Beginn an den Vorgaben der BCBS239 und MaRisk, sollen aber dauerhaft auf andere Datenbereiche ausgeweitet werden.

Das Data-Governance-Tool dataspot. wurde innerhalb von wenigen Monaten eingeführt. Startpunkt war die Durchführung eines Proof of Concepts anhand von konkreten praktischen Beispielen. Im Zentrum der Betrachtung standen: 

  • Erfassung und Pflege von Metadaten 
  • Verwaltung und Visualisierung der fachlichen und technischen Data Lineage 
  • Fachliche Modellierung von Data-Dictionary-Objekten und grafische Darstellung 
  • Erstellung und Pflege von Rollen & Verantwortungen 

Nach der Entscheidung für dataspot. erfolgte der Aufbau der Data-Excellence-Organisation und die Einführung der Software nach der dataspot.-Blueprint-Methode. Diese beinhaltet sowohl den unternehmensweit geschaffenen Metadatenstandard für die apoBank als auch die Modellierungsvorgaben (Sprache, Umfang, Granularität, ...) für die Datenmodelle: 

  • Welche Arten von Metadaten (technische, fachliche, Governance-Metadaten) werden erfasst? 
  • Welche Metadatenmodelle und Elemente werden gepflegt und von wem? 
  • Wie hängen die Metadatenmodelle zusammen? Welche Zusammenhänge werden modelliert? 
  • Wie werden die Informationen so plakativ mit dem Fachlichen Datenmodell des DWH verbunden, damit der Anwender das Tool auch in der Praxis als Mehrwert im täglichen Reportingumfeld nutzt?

Ein besonderes Augenmerk wurde zudem auf die Anbindung von technischen Metadaten aus dem Data Warehouse und den angebundenen Quellsystemen gelegt, denn nur wenn die Aktualisierung automatisch erfolgt, kann gewährleistet werden, dass die vorgehaltenen Modelle auch aktuell sind. Die Verbindung der fachlichen mit den technischen Datenmodellen ist dann die zentrale Voraussetzung für eine durchgängige End-to-End-Lineage. Ebenfalls im Fokus standen die Transformationen im Metadaten-Tool: Um die vertikale und horizontale Lineage gut unterscheiden zu können, wurden 12 verschiedene Stereotype für die Arten der Mappings definiert. Diese determinieren die notwendigen Workflows zur Erfassung von Freigabe von Änderungen, die ebenfalls konfiguriert wurden.

Insgesamt bildet das Data Warehouse mit dem Fachlichen Datenmodell in Kombination mit dataspot. und den darin enthaltenen Metadaten-Beschreibungen nun eine Basis, apoBanker schrittweise in Eigenverantwortung an die richtigen und relevanten Daten zu bringen und in Zukunft konform zu regulatorischen Anforderungen Erweiterungen in der Architektur zu implementieren.

Dr. Peter Westerkamp studierte Wirtschaftsinformatik in Münster und arbeitet seit mehr als 15 Jahren für verschiedene Banken im Umfeld von BI- und AI-Systemen. Bei der apoBank leitet er die Abteilung 'Smart Data Services' und ist als Projektleiter verantwortlich für die Erweiterung des Data Warehouses und die Umsetzung der Data Governance auf Basis der MaRisk- und BCBS239-Vorgaben.

Ruth Greive ist Referentin für Data Analytics in der apoBank und verfügt über mehr als 10 Jahre Erfahrung im Bereich Datenmanagement. Ihr Themenschwerpunkt liegt im Bereich Data Governance und dort insbesondere auf dem Fachlichen Datenmodell. Mit diesem will sie Fachkolleg:innen die Möglichkeit geben, selber Reports zu erstellen und Daten auszuwerten.

Peter Westerkamp, Ruth Greive
Peter Westerkamp, Ruth Greive
Vortrag: Mi 5.2

Vortrag Teilen

10:30 - 11:15
Mi 6.2
Self-Service Reloaded: Dank Knowledge-Graph zur SSBI-Kultur
Self-Service Reloaded: Dank Knowledge-Graph zur SSBI-Kultur

Woran scheitern viele SSBI-Projekte? Immer wieder an der überbrodelnden Komplexität der Daten, der Prozesse und manchmal der Tools. Da kommt ein Konzept, das seit 2012 bekannt ist, wie gerufen: Knowledge-Graphs! Wie können solche Wissens-Datenbanken uns bei der Etablierung von SSBI helfen? Wie baut man sich solch ein System auf? Und was bringt das Ganze dann eigentlich? 
In dieser Session zeige ich, wie man sich einen ersten Knowledge-Graph-Prototyp mit KNIME und weiterer OS-Software aufbaut, einsetzt und betreibt.

Zielpublikum: Anwender und Stakeholder aller Level aus Business & Daten
Voraussetzungen: Erste Berührungspunkte mit SSBI und GPTs
Schwierigkeitsgrad: Advanced

Extended Abstract:
In diesem interaktiven Hands-On-Vortrag 'Self-Service Reloaded: Dank Knowledge-Graph zur SSBI-Kultur' werden die Teilnehmer eine praktische Einführung in den Aufbau und die Nutzung eines Knowledge-Graphs für Self-Service Business Intelligence (SSBI) erhalten.

Der Vortrag beginnt mit einer kurzen Einführung in die Problematik von SSBI-Projekten, die oft an der Komplexität von Daten, Prozessen und Tools scheitern. Anschließend wird erläutert, wie Knowledge-Graphs als Lösungskonzept diese Herausforderungen überwinden können, indem sie ein umfassendes Verständnis des Unternehmenskontexts ermöglichen.

Im Hauptteil des Vortrags werden die Schritte zum Aufbau eines Knowledge-Graph-Prototyps mit KNIME und anderen Open-Source-Tools detailliert erklärt. Die Teilnehmer werden lernen, wie man Daten aus verschiedenen Quellen integriert, Beziehungen zwischen den Daten modelliert und Interaktionsmöglichkeiten implementiert, um den Knowledge-Graph intuitiv zu nutzen.

Durch eine praktische Demonstration werden die Teilnehmer Schritt für Schritt durch den Prozess geführt und haben die Möglichkeit, das Erlernte direkt umzusetzen. Dabei werden sie selbst einen einfachen Knowledge-Graph-Prototyp erstellen und verschiedene Analyse- und Abfragefunktionen ausprobieren können.

Abschließend werden die potenziellen Nutzen eines Knowledge-Graphs für SSBI-Projekte diskutiert, einschließlich effizienterer Datennutzung, verbesserte Zusammenarbeit und fundiertere Entscheidungen. Die Teilnehmer werden ermutigt, das Gelernte in ihren eigenen Projekten anzuwenden und so die SSBI-Kultur in ihren Organisationen zu stärken.

Durch diese praktische und interaktive Herangehensweise werden die Teilnehmer befähigt, das Konzept des Knowledge-Graphs besser zu verstehen und direkt anzuwenden, um ihre eigenen SSBI-Projekte voranzutreiben.

In den letzten 16 Jahren spezialisierte sich Philipp Baron Freytag von Loringhoven auf die Unterstützung von Unternehmen bei der Entwicklung effektiver Werbekampagnen mithilfe von Daten und Marketing-Analytics. Er leitete internationale Marketing- und Data-Teams für Start-ups und Unternehmen. Als Freelancer hilft er Firmen bei einer Nutzung ihrer Daten, die zu weiterem Marketing- und Sales-Erfolg führt. Philipp möchte durch und dank Daten wieder bessere, interessantere Werbung sehen. Werbung, die begeistert, die anspricht. Deshalb betreibt er seit 2020 auch den Podcast Dataengage, um mehr Menschen den Zugang zu Daten, Technologie und Marketing zu ermöglichen.

Philipp Baron Freytag von Loringhoven
Philipp Baron Freytag von Loringhoven
Vortrag: Mi 6.2

Vortrag Teilen

10:30 - 11:15
Mi 8.2
Align with Willibald towards an Ensemble Logical Datamodel
Align with Willibald towards an Ensemble Logical Datamodel

The ELM approach is a new way to get the business requirements analysis for your data warehouse and data architecture and a perfect fit to model your Data Vault.

This presentation will mimic the 6 steps needed to guide Samen- und Pflanzenhandel Willibald from their business case towards an Ensemble Logical Model – the ELM approach. Each of the 6 steps can be seen as a small part of the combined journey of business and IT as described in the ELM approach. When the Willibald case came available, we applied our ELM approach and, apart from mimicking workshops, used all our templates as a guide towards a Data Vault model based upon the Willibald business and not upon the available source systems.   

The ELM approach consists of a series of 2-4 workshops with the business people and using templates to discover the Core Business Concepts – that is what is important for the organization – and their relationships. All of the 6 steps will also communicate and document what is important for the organization from a non-technical perspective and help to understand the Ensemble Logical model fit to implement the Data Vault. 

If you ever asked yourself How can I get the business user to actively involved? How do I get requirements about which data should be integrated? And how should it be done from a business perspective?

Well, you will find answers here.

Remco Broekmans is the vice president of international programs for Genesee Academy. He works in Business Intelligence and Enterprise Data Warehousing as a trainer, facilitator, advisor and speaker with a focus on modeling and architecture including Ensemble and Data Vault modeling. He works internationally and is based in the Netherlands.
Specialties: Information Management and Modeling, Ensemble Modeling, Data Vault Modeling, Agile Data Warehousing, Education and Business Development

Remco Broekmans
Remco Broekmans
Vortrag: Mi 8.2

Vortrag Teilen

11:25 - 12:10
Mi 1.3
Warum Datenprodukte einen Datenmarktplatz brauchen!
Warum Datenprodukte einen Datenmarktplatz brauchen!

Viele Unternehmen befassen sich mit den Mehrwerten von Datenprodukten und möchten diese heben. Gleichzeitig starten nur die wenigsten Organisationen auf der grünen Wiese - oft existieren bereits organisatorische, prozessuale und architektonische Rahmenparameter. Ein Datenmarktplatz bietet die Chance, die wesentlichen Anforderungen des Datenproduktansatzes zu erfüllen, ohne umfassende Adaptionen des Bestands zu erfordern. Der Vortrag stellt diese Chancen dar und gibt Impulse für die Etablierung eines Datenmarktplatzes in Bestandsorganisationen.

Zielpublikum: Data Engineers, Datenproduktmanager, Datennutzer, Datenstrategen, Datenarchitekten, Enterprise-Architekten, Data Owner, Chief Data Officer
Voraussetzungen: Grundlegendes Verständnis der Herausforderungen von gewachsenen Datenlandschaften wie Datentransparenz, Datenteilung, Data Governance heterogene technologische Bebauung, Schnittstellenumfang etc.
Schwierigkeitsgrad: Basic

Steffen Kandler studierte Wirtschaftsinformatik an der Technischen Hochschule Mittelhessen. Seit seinem Berufseinstieg im Jahr 2014 arbeitet er als Berater in verschiedenen Rollen im Data & Analytics-Kontext wie beispielsweise als Data Engineer und Solutionarchitect mit Schwerpunkten im Data Management und Data Visualization. Seit 2019 berät er Unternehmen unterschiedlicher Branchen und Größenordnungen bei der Entwicklung und Etablierung passgenauer und ganzheitlicher Datenstrategien mit allen zugehörigen Facetten wie Organisation, Governance, Architektur und Technologie.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/steffen.kandler

Christoph Oberhokamp studierte Informatik an der Universität Paderborn. Seit seinem Berufseinstieg arbeitet er als Berater in verschiedenen Rollen im Data & Analytics-Kontext. Seit 2014 entwickelt er ganzheitliche Datenstrategien für Unternehmen und Konzerne unterschiedlichster Branchen und Größenordnungen. Hierbei stand eine passgenaue Ausrichtung stets im Vordergrund, d.h. die Anpassung der Ambitionen, angestrebten Veränderungen sowie Umsetzungsgeschwindigkeiten an die jeweiligen Gegebenheiten.

Steffen Kandler, Christoph Oberhokamp
Steffen Kandler, Christoph Oberhokamp

Vortrag Teilen

11:25 - 12:10
Mi 2.3
Daten sind Chefsache: Revolutionieren Sie Ihr Unternehmen
Daten sind Chefsache: Revolutionieren Sie Ihr Unternehmen

In einer Welt, in der Daten den Unterschied zwischen Marktführern und Nachzüglern bestimmen, stellt Feliks Golenko die Frage: Wie werden Daten zur Chefsache? Dieser Vortrag zeigt, wie eine datenzentrierte Führungskultur den Kern jedes erfolgreichen Unternehmens bildet. Der Vortrag zeigt, wie agile BI-Prozesse und effektive Datenstrategien nicht nur die Leistung steigern, sondern auch nachhaltige Transformationen ermöglichen, und bietet Einblicke in die Umsetzung für nachhaltiges Wachstum.

Zielpublikum: CEOs, Founder, Führungskräfte, BI-Verantwortliche und alle, die interessiert sind, Daten in den Mittelpunkt ihrer Geschäftsstrategie zu stellen
Voraussetzungen: Ein grundlegendes Verständnis von Geschäftsprozessen und die Offenheit, bestehende Datenstrategien zu hinterfragen
Schwierigkeitsgrad: Advanced

Extended Abstract:
Die Umwandlung von Daten in strategische Entscheidungen ist eine Kunst, die jede Führungskraft beherrschen muss. Feliks Golenko, mit mehr als drei Jahrzehnten Erfahrung an der Schnittstelle zwischen Technologie und Geschäftsstrategie, teilt seine Erkenntnisse darüber, wie man Daten in den Mittelpunkt der Unternehmensführung rückt. Der Vortrag beginnt mit der Bedeutung von Daten als Chefsache und wie diese Philosophie die Grundlage für eine erfolgreiche Unternehmenskultur bildet. Mit einer Mischung aus theoretischen Grundlagen und praktischen Beispielen zeigt Feliks, wie Prozesse für Design und Entwicklung etabliert, neue Steuerungsprozesse eingeführt und BI-Verantwortliche ermächtigt werden können, eine zentrale Rolle in der Transformation zu spielen. Die Teilnehmer erhalten Einblicke in die 'Value of Knowing'-Workshops und lernen, wie schnell erzielte Ergebnisse die Performance und Positionierung ihres Unternehmens nachhaltig verbessern können.

Feliks Golenko, CEO von MultiBase, verbindet über 35 Jahre Datenexpertise mit unternehmerischer Vision. Sein Fokus: Unternehmen durch datengetriebene Entscheidungen zu stärken. Mit einem Hintergrund in Analytics, Business Intelligence und Artificial Intelligence hat er MultiBase zu einem Unternehmen geführt, unter dessen Dach mehr als 1.500 Projekte erfolgreich umgesetzt wurden, und damit die transformative Kraft von Daten in der Geschäftsstrategie unter Beweis gestellt.

Feliks Golenko
Feliks Golenko
Vortrag: Mi 2.3

Vortrag Teilen

11:25 - 12:10
Mi 4.3
Was ist ein Datenprodukt wirklich?
Was ist ein Datenprodukt wirklich?

Alle reden zwar über Datenprodukte. Aber wenn man genau hinschaut, gibt es keine einheitliche Definition. Ist ein Dashboard ein Datenprodukt? Ist ein Datensatz ein Datenprodukt? Gehört die Pipeline auch dazu? Ist ein Datenprodukt immer eine Tabelle? Oder doch eher ein Schema? Wir wollen versuchen, die eine Definition zu finden. Dabei betrachten wir Datenprodukt-Beispiele aus unterschiedlichen Perspektiven, bspw. Data Product Owner, Developer, Data Scientist, Business etc. Unsere Findings werden dich total überraschen.

Zielpublikum: Alle, die mit Datenprodukten zu tun haben
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Dr. Simon Harrer ist Senior Consultant bei INNOQ. Er ist Softwareentwickler im Herzen, der sich mittlerweile der dunklen Seite, nämlich der Welt der Daten, zugewandt hat. Er hat datamesh-architecture.com mit ins Leben gerufen und das Data-Mesh-Buch von Zhamak Dehghani ins Deutsche übersetzt. Aktuell entwickelt er ein für alle Data-Mesh-Initiativen hilfreiches Werkzeug, den Data Mesh Manager.

Wolfgang Epting ist Datenenthusiast und hilft SAP-Kunden, maximalen Mehrwert aus ihren Daten zu schöpfen. Er verantwortet das SAP Data & Analytics Portfolio technisch in Mittel- und Osteuropa. Er ist Keynote Speaker und berät Kunden lösungsorientiert in allen Fragen rund um Datenmanagement und Datenstrategien.

Simon Harrer, Wolfgang Epting
Simon Harrer, Wolfgang Epting
Vortrag: Mi 4.3

Vortrag Teilen

11:25 - 12:10
Mi 5.3
Data Architecture in the Cloud – Challenges and Opportunities
Data Architecture in the Cloud – Challenges and Opportunities

About 15 years ago, the finance sector pioneered data and analytics with developments like central Data Warehousing solutions and the establishment of BICC organizations. Recently, innovation has shifted towards public cloud and industries like automotive, significantly transforming the landscape. The finance sector, encountering similar challenges, is actively navigating the transition to the cloud. This presentation aims to highlight industry shifts in data management, addressing challenges and opportunities for the finance sector.

Target Audience: Everyone, who is interesting about the further development of data architecture for finance sector
Prerequisites: No prerequistes
Level: Basic

Dr. Xuanpu Sun currently serves as the Lead IT Architect for Data & Analytics at Landesbank Baden-Württemberg (LBBW). He possesses extensive research experience in the fields of Business Intelligence, Big Data, and Data Analysis. Throughout his career, he has worked in various industries, including manufacturing, banking, and automotive. His previous positions include the Lead Data Architect role at Mercedes-Benz AMG and the Bausparkasse Schwäbisch Hall.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Xuanpu_Sun

Xuanpu Sun
Xuanpu Sun
Vortrag: Mi 5.3

Vortrag Teilen

11:25 - 12:10
Mi 6.3
Governance for Low-Code & Self-Service-Platforms @ Müller
Governance for Low-Code & Self-Service-Platforms @ Müller

The successful establishment of low-code and self-service platforms in enterprises is not a guaranteed. Seamless collaboration among departments, management, IT, and security is crucial. The Müller Service Group has effectively tackled this challenge through the implementation of a governance framework. In this session, we will share best practices and insights from our journey towards successful governance. We will use the Microsoft Power Platform as a case study within the presentation as an example of a low-code platform at Müller.

Target Audience: Decision Makers, project leaders, IT-managers, IT-architects, data analysts, Chief Data Officers (CDOs), Chief Information Officers (CIOs), responsible individuals in Data & Analytics
Prerequisites: Basic Knowledge
Level: Basic

Extended Abstract:
In this session, we will first introduce the foundational framework crucial for the successful operation of a low-code platform, particularly within the context of the Microsoft Power Platform. Subsequently, we will delve into a detailed examination of opportunities and risks associated with operating such a platform, emphasizing the strategic significance of governance.

An additional emphasis during the presentation highlights the central role of IT in operating low-code and self-service platforms. Managers and domain experts will gain valuable insights with practical tips on successfully convincing and engaging their IT in the benefits of the low-code concept. This session provides a comprehensive overview of the potentials and challenges of low-code and self-service platforms. 

Join us as we explore the transformative potential of this governance approach for Low-Code & Self-Service-Platforms.

For over 5 years, Deepak Sahu has been a software engineer at Mueller Service GmbH. With 13 years of experience, he crafts robust code for critical applications. As a Microsoft-certified expert, his focus spans Manufacturing Systems, Warehouse Automation, and financial instruments. Architecting and leading 'The Replay Software' showcases his prowess in optimizing Agile workflows. Proficient in ERP integration, web, desktop apps, and Azure DevOps, he excels in CI/CD processes. Establishing a Microsoft Power Platform Onboarding Center and proactive incident management underscore his commitment. His structured project management using Clarity PPM ensures quality and risk assessment.

Dominik Wuttke serves as the Principal Team Lead for Digitalization & Data Science at Marmeladenbaum GmbH. His expertise spans Predictive Analytics, Microsoft Power Platform, and Data Engineering. Having successfully delivered numerous projects in sectors such as medical technology, insurance, and energy, Dominik Wuttke combines leadership with technical prowess. As a seasoned lecturer, he shares his comprehensive knowledge at key conferences, solidifying his position as a principal team lead in the industry.

Florian Rappelt designs and develops innovative solutions in his role as Senior Power Platform Architect. With a focus on governance, he shapes efficient processes. Through training initiatives, he empowers users and establishes an active Maker community. His passion lies in maximizing the utilization of the Power Platform.

Deepak Sahu, Dominik Wuttke, Florian Rappelt
Deepak Sahu, Dominik Wuttke, Florian Rappelt
Vortrag: Mi 6.3

Vortrag Teilen

11:25 - 12:10
Mi 8.3
Data Vault 2.0 in der Praxis: Erfolgreiche Implementierung und Lösungsansätze
Data Vault 2.0 in der Praxis: Erfolgreiche Implementierung und Lösungsansätze

Seit bald einem Jahrzehnt setzen wir bei Scalefree erfolgreich Data Vault 2.0 in unterschiedlichsten Umgebungen um. Für uns steht außer Frage, dass Data Vault 2.0 eine bewährte Methode ist, die selbst in speziellen Situationen Lösungen bereitstellen kann. In diesem Vortrag möchten wir anhand einiger Szenarien verdeutlichen, dass auch Ihr Projekt von den Vorteilen des Data-Vault-Konzepts profitieren kann.

Tim Kirschke verfügt über einen Bachelor-Abschluss in angewandter Mathematik und ist seit Anfang 2021 als Senior BI Consultant bei Scalefree tätig. Sein Fachgebiet liegt insbesondere im Design und der Umsetzung von Business-Intelligence-Lösungen, wobei er sich auf die Methodik Data Vault 2.0 konzentriert. Zu seinen Expertise-Schwerpunkten zählen Automatisierungslösungen, wie dbt, Coalesce oder Wherescape.

Tim Kirschke
Tim Kirschke
Vortrag: Mi 8.3

Vortrag Teilen

12:20 - 13:10
KeyMi
KEYNOTE: Digitale Verantwortung: Transparenz über Funktionalitäten und potenzielle Wirkweisen von KI-Anwendungen
KEYNOTE: Digitale Verantwortung: Transparenz über Funktionalitäten und potenzielle Wirkweisen von KI-Anwendungen

Kunden, Investoren und Analysten erwarten, dass entlang der gesamten Wertschöpfungskette nachhaltig agiert wird. Das Verständnis der Inhalte für mögliche technologische Wirkweisen und die veränderte Risikolandschaft mit Blick auf Chancen und Risiken digitaler Technologien rücken in den Vordergrund. Vertrauen, Verantwortung, Transparenz und Exzellenz sind Erfolgsfaktoren. Integration dieser Aspekte, haben langfristig positiven auf das Geschäftsmodell und finanziellen Erfolg. KI-Governance, ein methodologisch erweitertes Risiko Management sowie KI-Ethik Reifegrad Bestimmung ermöglichen, künftige und vorhandene Maßnahmen zu verstehen, zu priorisieren und auf den Kontext auszurichten.

Manuela Mackert ist langjährige Chief Compliance Officier bzw. Business Executive mit umfassender Erfahrung in der ICT Industrie.
Unter anderem hat sie sich als Vordenkerin im Bereich der digitalen Ethik seit 2017 mit künstlicher Intelligenz (KI) und den damit verbundenen ethischen Notwendigkeiten auseinandergesetzt. Sie war Initiator der Digital Ethics Initative Deutsche Telekom Group: mit einem multidisziplinären Expertenteam in enger Zusammenarbeit mit den Business Verantwortlichen hat sie die KI-Richtlinien der Deutschen Telekom entwickelt, sie operativ umgesetzt und ein internes und externes KI-Ethik-Ökosystem aufgebaut. Fokus war die Gestaltung und erfolgreiche Umsetzung der unternehmerischen Digital-Verantwortung (KI-Governance & Vorbereitung auf die Anforderungen der KI-Regulierung bei kritischer Infrastruktur). 

Manuela Mackert ist Wegbereiterin für neue, innovative Geschäftsmodelle und erkennbare Erfolge bei der digitalen Verantwortung hinsichtlich KI. 
Zur Zeit ist Manuela als Berater des Top-Managements in einer komplexen und sich ständig verändernden globalen Landschaft und einem beispiellosen Risikoumfeld tätig. Sie verfügt über nachweisliche Erfahrung in der Entwicklung und Führung interdisziplinärer Teams, um deren Potenzial für Innovation, Wandel, beschleunigtes Wachstum und Wertschöpfung freizusetzen. 

Manuela Mackert
Manuela Mackert
Track: Keynote
Vortrag: KeyMi

Vortrag Teilen

13:10 - 14:40
Pause
Mittagessen & Ausstellung/Lunch & Exhibition
Mittagessen & Ausstellung/Lunch & Exhibition

15:20 - 16:20
Mi 1.4
Daten-Exzellenz in Konzernstrukturen – Vorprojekt und Umsetzung bei EWE
Daten-Exzellenz in Konzernstrukturen – Vorprojekt und Umsetzung bei EWE

Daten Exzellenz bei EWE wurde über ein Vorprojekt motiviert, um die Datenverfügbarkeit und – Qualität im Konzern zu erhöhen. Im Vortrag wird das Vorgehen und die detaillierte Vorgehensweise des sich anschließenden Daten Exzellenz-Projekts, die Bedeutung des Rollenmodell in einer virtuellen Datenorganisation zur effektiven Umsetzung, sowie die notwendigen Ergebnisartefakte präsentiert. Er richtet sich an Fachleute, Entscheidungsträger und Interessierte, die Einblicke in Strategien, Maßnahmen zur Steigerung im Umgang mit Daten gewinnen möchten.

Zielpublikum: Fachleute, Entscheidungsträger und Interessierte
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Der Vortrag beleuchtet das Konzernprojekt "Daten Exzellenz" des Energieversorgers EWE, das auf die ganzheitliche Optimierung dreier wesentlicher Dimensionen abzielt: Geschäftsprozesse & Use Cases, Datenmanagement und Technische Systeme. Die Präsentation hebt die dringende Notwendigkeit dieser Maßnahmen im Energieversorgungssektor hervor, um die Herausforderungen der modernen datengetriebenen Landschaft zu bewältigen.
Im Fokus stehen die detaillierte Vorgehensweise des Projekts, das Rollenmodell der virtuellen Datenorganisation zur effektiven Umsetzung, sowie die erzeugten Ergebnisartefakte. Durch die Betrachtung eines exemplarischen Use Cases werden die konkreten Auswirkungen und Mehrwerte des Projektes aufgezeigt. Die Zuhörer erhalten Einblicke in die strategischen Entscheidungen, methodischen Ansätze und technologischen Lösungen, die EWE auf dem Weg zur Datenexzellenz umsetzt.
Der Vortrag vermittelt somit nicht nur einen Überblick über den Projektaufbau, sondern auch konkrete Einblicke in die Umsetzung auf operativer Ebene. Er richtet sich an Fachleute, Entscheidungsträger und Interessierte, die Einblicke in erfolgreiche Strategien und Maßnahmen zur Steigerung im Umgang mit Daten gewinnen möchten.

Thomas Richter ist seit 2002 in unterschiedlichen Funktionen im EWE-Konzern aktiv. Er hat Entwicklungsteams aufgebaut, Großprojekte verantwortet und widmet sich neben strategischen Fragestellungen und Trends nunmehr dem Thema: Daten Exzellenz. 

Alina Robbers ist seit 2021 für das Team IT-Strategie & IT-Performance Management bei EWE, einem Energiedienstleister im Nordwesten Deutschlands tätig. Dabei beschäftigt sie sich mit Themen rund um den Bereich der strategischen IT-Planung mit dem derzeitigen Schwerpunkt auf der Frage, wie der EWE-Konzern datenexzellent wird.

Jens Walter ist IT-Innovationsmanager und Business Partner IT in der Konzern IT der EWE AG, einem Energiedienstleister im Nordwesten Deutschlands. Nach dem Studium der Physik stieg er früh in die IT ein. IBM (Greenock, Schottland) folgte Siemens (München), bei der er ebenfalls im Bereich Innovation in weltweiter Verantwortung tätig war.
Das Thema Daten interessiert ihn auf der strategischen Seite seit 2013, um die Herausforderungen der Energiewende zu bewältigen.

Sven Niedermeier ist IT-Portfoliomanager bei der EWE NETZ GmbH, einem der größten Verteilnetzbetreiber in Deutschland. Als Elektroingenieur befasste er sich eingehend mit dem Ausbau von Verteilnetzen in Mittel- und Niederspannung sowie deren Simulation und Berechnung. Hierdurch wuchs seine Begeisterung für Daten, was zu seinem Wechsel in die IT führte. Seit 2020 führt er das IT-Portfolio bei EWE NETZ und arbeitet daran mit, sein Unternehmen datenexzellent werden zu lassen.

Thomas Richter, Alina Robbers, Jens Walter, Sven Niedermeier
Thomas Richter, Alina Robbers, Jens Walter, Sven Niedermeier

Vortrag Teilen

15:20 - 16:20
Mi 2.4
Panel: Data Culture
Panel: Data Culture

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt. 

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/claudia_koschtial

Claudia Koschtial
Claudia Koschtial
Vortrag: Mi 2.4

Vortrag Teilen

15:20 - 16:20
Mi 3.4
Die Helm AG macht sich fit für die Daten-Zukunft
Die Helm AG macht sich fit für die Daten-Zukunft

Auch für die weltweit tätige Helm AG gewinnt der moderne Umgang mit Daten zunehmend an Bedeutung. Der Vortrag beschreibt, wie das Unternehmen Daten als wesentliche Informationsquelle und als Basis für Entscheidungen etabliert und sichergestellt wird, dass alle Nutzenden die notwendigen Informationen zur richtigen Zeit erhalten. Die Herausforderungen bestehen dabei vielmehr darin, moderne Arbeitsweisen in Bezug auf Daten einzuführen. Technisch wurde bei der Umsetzung auf moderne, automatisierte und skalierende Komponenten gesetzt.

Zielpublikum: ArchitektInnen, Geschäftsführung, C-Level, Abteilungs-/Bereichsleitung, Product Owner, BICC-Leitung
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced

Extended Abstract:
Es begann mit der Vorstellung vier unterschiedlicher BI-Tools. Die HELM AG, ein traditionsreiches Hamburger Familienunternehmen mit über 120-jähriger Geschichte, gehört heute zu den weltweit größten Chemie-Marketingunternehmen und sichert mit mehr als 100 Niederlassungen, Verkaufsbüros und Beteiligungen in über 30 Ländern durch spezifische regionale Kenntnis den Zugang zu den wichtigsten Märkten. Kein Wunder also, dass ein zeitgemäßer Umgang mit den Daten des Unternehmens eine Voraussetzung für den Erfolg der HELM AG darstellt. Dieser war jedoch mit den aktuellen Werkzeugen nur noch schwer in Einklang zu bringen. Zuerst wurde das Problem bei der aktuellen BI-Lösung gesucht., aber während der Vorstellung der möglichen Kandidaten identifizierte die Helm AG zusammen mit dem Data Strategy & Analytics-Experten areto die tatsächlichen Probleme, und es wurde allen Beteiligten schnell klar, dass die Herausforderungen nur zu bewältigen waren, wenn die Helm AG das Thema Analytics ganzheitlich betrachten und umsetzen würde Im Folgenden hielt areto eine maßgeschneiderte Workshopserie mit unterschiedlichen Beteiligungen seitens der Helm AG ab.

Mittels Data Strategy Workshops wurde die Vision und die Erwartungen des Unternehmens an einen modernen, analytischen Umgang mit Daten geklärt und ein grundsätzlicher Fahrplan für die Zukunft festgelegt. Die Umsetzung sollte Use Case-bezogen erfolgen, und so wurde mit dem Bereich “Chemicals” in weiteren Workshops über die relevanten Use Cases gesprochen, die dann als Backlog dokumentiert wurden. Gleichzeitig entwickelte areto auf Basis der identifizierten Anforderungen eine Architekturempfehlung, die dann intensiv diskutiert und letztendlich so umgesetzt wurde. Auf in die Zukunft mit dem Projekt “Flux”! Mit “Flux” schafft die Helm AG die Basis für die zentrale Daten- und Analytics-Plattform, die nun sukzessiv auf alle Bereiche des Unternehmens ausgeweitet wird. Das allseits präsente Thema “Data Mesh” wird in diesem Kontext zwar diskutiert, aber in einer für die Helm AG angepassten Variante eingesetzt. Die Umsetzung des Projektes “Flux” erfolgt in einzelnen Abschnitten (“Waves”), die jeweils separat geschätzt wurden. Die technische Umsetzung erfolgte agil an Scrum angelehnt. SAP und Salesforce sind und waren die wichtigsten Datenquellen. SAP befand sich auf dem kritischen Pfad des Projektes, da wegen des parallelen Rollouts von SAP auf andere Regionen wenig internes Personal unterstützen konnte. Mit Microsoft Azure und Snowflake wurden leistungsfähige und skalierende Komponenten gewählt. Die Automatisierung der Datenbewirtschaftung erfolgt über die Azure Data Factory (inkl. der SAP-Anbindung) und den Datavault Builder. Analysen und Dashboards werden über PowerBI implementiert.

Till Sander weist eine über 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/till.sander

Aykan Eryigit, Till Sander
Aykan Eryigit, Till Sander
Vortrag: Mi 3.4

Vortrag Teilen

15:20 - 16:20
Mi 4.4
World Café Data Management
World Café Data Management

Gordon Witzel startete im Jahr 2007 bei der SAP als BW-Berater. Hier unterstütze er internationale Kunden bei der Architektur und Implementierungen von SAP BW und SAP BWA.
2015 wechselte er in das SAP Data Warehouse Produktmanagement der SAP SE und hat hier basierend auf Anforderungen der Kunden mit der Entwicklung neue Features definiert, priorisiert und zur Umsetzung gebracht. Bei diversen nationalen und internationalen Events präsentiert Gordon zu den Themen SAP BW und SAP Data Warehouse Cloud und stellt die SAP Data Warehouse Produkte in Hands-On Workshops vor.
Weiterhin unterstütze er bei Definition der SAP Data Warehouse Strategie und begleitete die erfolgreiche Einführung der SAP BW bridge als Teil der SAP Data Warehouse Cloud im Jahr 2021. Seit 2022 ist Gordon Principal Presales Expert für das Data Warehouse Portfolio der SAP.

Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. Im Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Matthias Stemmler das Technologie Presales Team der SAP Deutschland SE. Ab April 2016 war er in der Rolle des „Platform Architect“ tätig und unterstützte die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) beim Scoping, der Auswahl sowie Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.
Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.

Harry Enns war nach seinem Betriebswirtschaftsstudium mit Schwerpunkt Informatik an der Fachhochschule Niederrhein (Mönchengladbach) 1999 zunächst als Berater mit dem Fokus auf Business Intelligence-Projekte im SAP Umfeld tätig, bevor er 2011 zu INFOMOTION wechselte. Dort verantwortet er seitdem den Bereich SAP BW/HANA und dessen Weiterentwicklung, außerdem leitet Herr Enns seit 2012 den INFOMOTION Standort Saarbrücken. Mitte 2017 trat er als Partner in die Geschäftsleitung von INFOMOTION ein und entwickelt gesamtverantwortlich das SAP Portfolio.

Markus Ganser startete 1999 bei Bitburger als ABAP-Entwickler und in der Modulbetreuung im MM. Im Laufe der nächsten Jahre war er zusätzlich verantwortlich, für die Betreuung und Entwicklung von SAP Business Workflows und die Einführung der SAP Supplier Relationship Management (SRM).
Im Jahre 2005 wechselte er in das Themengebiet Analytics und übernahm die Betreuung des SAP Business Warehouses (SAP BW). Dort war er die Provisionierung, die Modellierung der Daten und deren Bereitstellung zuständig (”vom Extraktor bis zur Query”).
Seit 2021 ist Markus Teamleiter ”SAP Analytics” und verantwortet und betreut mit zwei Mitarbeiterinnen die Themenkomplexe BW/4, SAC, DWC und Hana Modellierung in der Bitburger Braugruppe.

Gordon Witzel, Matthias Stemmler, Harry Enns, Markus Ganser
Gordon Witzel, Matthias Stemmler, Harry Enns, Markus Ganser
Vortrag: Mi 4.4

Vortrag Teilen

15:20 - 16:20
Mi 5.4
ESG und Daten – Auswirkung auf und Chancen für Versicherer
ESG und Daten – Auswirkung auf und Chancen für Versicherer

ESG bekommt für Versicherer eine immer größere Bedeutung. So spielt es bspw. beim Design neuer Produkte, Bewertung von Kunden, der Geldanlage, dem ethischen Umgang mit Daten und KI eine immer wichtigere Rolle. 
Welche Aspekte von ESG haben einen Einfluss auf Versicherer und wie können diese durch Daten und KI unterstützt werden.
Im Text werden Anwendungen für Enviromental, Social und Governance an konkreten Beispielen vorgestellt und eingeordnet.

Zielpublikum: ESG Interessierte
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Dr. Michael Zimmer ist Chief Data Officer der Zurich Gruppe Deutschland und Teil des internationalen Daten-Leadership-Teams. Hierbei verantwortet Herr Zimmer das Thema Daten und KI von der strategischen Ausrichtung, über die tatsächliche Ownerschaft bis hin zur Umsetzung konkreter KI-Anwendungen oder Datenarchitekturen. Er hat über Agilität von Datenarchitekturen promoviert und war vor seiner Zeit bei Zurich mehr als 13 Jahre in der Beratung tätig. Er ist Herausgeber und Autor diverser Bücher und unter anderem TDWI Germany Fellow, männlicher Alliierter der Woman Leaders in Data & Analytics (WLDA) sowie Mitglied der Arbeitsgruppe Ethical AI der deutschen Aktuarsvereinigung.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei:  https://www.sigs.de/autor/michael.zimmer

Michael Zimmer
Michael Zimmer
Vortrag: Mi 5.4

Vortrag Teilen

15:20 - 16:20
Mi 6.4
Self-Service-BI & Analytics-Diskussions-Panel
Self-Service-BI & Analytics-Diskussions-Panel

Nachdem das Buch zum Themenzirkel Self-Service & Analytics Ende 2023 veröffentlicht wurde, kommen die Herausgeber und Autoren zusammen, um die dort formulierten Themen offen zu diskutieren und praktische Erfahrungen einzuordnen.
Von der Definition des Self-Service über die Planung, Implementierung und dauerhafte Umsetzung in einer Organisation ist hier alles dabei.

Zielpublikum: Interessierte am Self-Service, Business Intelligence & Analytics
Voraussetzungen: Interesse an Daten
Schwierigkeitsgrad: Advanced

Extended Abstract:
Über drei Jahre wurde das Thema Self-Service BI & Analytics im TDWI-Themenzirkel ausführlich und aus verschiedenen Perspektiven diskutiert. Dabei sind persönliche Praxiserfahrungen genauso eingeflossen wie die Auseinandersetzung mit Definitionen und Standards.

Das Wissen aus dem Themenzirkel wurde Ende 2023 in einem TDWI-Buch veröffentlicht, was kein allgemeingültiges Regelwerk darstellt, aber viele Perspektiven und Erfahrungen wiedergibt. Es gibt acht Kernthesen, was Self-Service ausmacht, und Beiträge zu den Bereichen Planung, Umsetzung und Betrieb des Self-Service, die wiederum selbst verschiedene Themen umfassen.

Die Autoren und Herausgeber kommen in München zusammen, um die Themen zusammen und mit dem Publikum zu diskutieren.

Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe. 
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld. 

Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.

Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.

In den letzten 16 Jahren spezialisierte sich Philipp Baron Freytag von Loringhoven auf die Unterstützung von Unternehmen bei der Entwicklung effektiver Werbekampagnen mithilfe von Daten und Marketing-Analytics. Er leitete internationale Marketing- und Data-Teams für Start-ups und Unternehmen. Als Freelancer hilft er Firmen bei einer Nutzung ihrer Daten, die zu weiterem Marketing- und Sales-Erfolg führt. Philipp möchte durch und dank Daten wieder bessere, interessantere Werbung sehen. Werbung, die begeistert, die anspricht. Deshalb betreibt er seit 2020 auch den Podcast Dataengage, um mehr Menschen den Zugang zu Daten, Technologie und Marketing zu ermöglichen.

Raphael Branger ist Autor des Buchs 'How to succeed with Agile Business Intelligence' sowie Co-Autor des Buchs 'Self-Service BI & Analytics'. Er arbeitet als Principal Consultant Data & Analytics bei der IT-Logix AG. Er hilft Organisationen, ihre Anforderungen rund um Daten und 'Analytics' zu erheben und umzusetzen. Er ist zugleich Stratege, Architekt, Requirements Engineer, Agile Coach aber auch Entwickler. Dadurch bringt er eine ganzheitliche Sicht in seine Projekte ein.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/raphael.branger

Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe (HKA). Dort vertritt er u. a. die Bereiche Business Intelligence und Projektmanagement im Fachgebiet Informatik. Den Bachelor-Studiengang 'Data Science' an der HKA hat er maßgeblich mitgestaltet. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Uwe_Haneke

Artur König, Philipp Baron Freytag von Loringhoven, Raphael Branger, Uwe Haneke, Thomas Zachrau
Artur König, Philipp Baron Freytag von Loringhoven, Raphael Branger, Uwe Haneke, Thomas Zachrau
Vortrag: Mi 6.4

Vortrag Teilen

15:20 - 17:35
Mi 8.4
Hands-On-Workshops "Data Warehouse Automation (DWA) am Beispiel von Samen- und Pflanzenhandel Willibald"
Hands-On-Workshops "Data Warehouse Automation (DWA) am Beispiel von Samen- und Pflanzenhandel Willibald"

Nach Durchsicht von dwa-compare.info und einer ersten Bewertung bildet sich ein Favorit heraus. Jetzt wäre es schön, wenn man das DWA-Tool einmal selbst bedienen könnte.
Nun, hier haben vier Hersteller etwas vorbereitet. Auf Basis der Daten vom Samen- und Pflanzenhandel Willibald kann man am eigenen Rechner mit einem der Werkzeuge durch die Schichten gehen und so ein ganzes Data Warehouse erstellen. Das funktioniert übrigens genauso wie eine Koch-Show im Fernsehen. Mit ‚wir haben da schon mal etwas vorbereitet‘ muss jeweils nur ein Teil ergänzt werden. So kann man repetitive Arbeiten weglassen und doch die komplette Arbeitsweise darstellen. Ein schneller Weg zum ersten Tool-Verständnis.

Voraussetzungen: 

  • Kein technisches oder SQL-Know-how benötigt. Eigener Laptop mit Chrome oder Edge (sollte es sich um einen über Security Policies stark eingeschränkten Browser handeln, bitte beim eigenen IT-Support nachfragen, ob der Zugriff auf cloudshare erlaubt ist).
  • Kopfhöreranschluss (3.5 mm) Optional: eigener Kopfhörer

Mit 20 Jahren Berufserfahrung, davon 14 im Consulting, bringt Carsten Schweiger eine tiefe Expertise im Bereich Business Intelligence und Data Warehousing mit. Nach seinem Wirtschaftsinformatik-Studium bei HP leitete er zahlreiche Projekte als Requirements Engineer, Architekt und Entwickler. Als Coach begleitete er über 25 Teams und Führungskräfte in die Agilität. Im Datavault Builder Team schafft er die Synergie aus DWH-Automatisierung und Agilität.

Jörg Stahnke ist seit mehr als 25 Jahren im DWH-Umfeld tätig. Seine Schwerpunkte liegen in den Bereichen Datenmodellierung und Datenarchitektur sowie Data Vault, DWH-Automatisierung und Performanceoptimierung.
Bereits in seinem ersten DWH im Jahr 1998 hat er Automatisierungsansätze genutzt. Seitdem hat ihn der Automatisierungsgedanke nicht mehr losgelassen. Während in den Anfangsjahren „nur“ Code generiert wurde, hat er die Automatisierung in seinen Kundenprojekten auf immer mehr Projektschritte ausgedehnt. Heute automatisiert er mit dem DVG von crossnative alle Projektschritte von der Idee über Entwicklung, Test, Dokumentation bis hin zum produktiven Betrieb.

Lasse Wiedemann berät erfolgreich Kunden aus der Finanzdienstleistungsbranche zu DWH, ELT- und BI-Fragestellungen. Mit seinem tiefen Verständnis für Data Management und Erfahrungen mit Cloud Technologien, hat er eine große Bandbreite an Projekten erfolgreich abgeschlossen. Als Management Consultant ist er bei crossnative für den Bereich Data Management verantwortlich.

Jonas De Keuster is VP Product Marketing at VaultSpeed. He had close to 10 years of experience as a DWH consultant in various industries like banking, insurance, healthcare, and HR services, before joining the company. This background allows him to help understand current customer needs and engage in conversations with members of the data industry.

Paul has been working in BI and Data Warehousing for over 25 years with almost 20 of those years spent delivering data warehouse solutions with WhereScape’s software across a broad range of database technologies and utilising a range of different Data Warehouse methodologies. Whilst certified in Dimensional Modelling, Data Vault and Data Vault 2.0 Paul wholeheartedly embraces a pragmatic rather than dogmatic approach to building a Data Warehouse that is driven by a passion for ensuring that the customer gets what they need, when they need it.

Carsten Schweiger, Jörg Stahnke, Lasse Wiedemann, Jonas De Keuster, Paul Watson-Gover
Carsten Schweiger, Jörg Stahnke, Lasse Wiedemann, Jonas De Keuster, Paul Watson-Gover
Vortrag: Mi 8.4

Vortrag Teilen

16:20 - 16:50
Pause
Kaffee & Ausstellung/Coffee & Exhibition
Kaffee & Ausstellung/Coffee & Exhibition

16:50 - 17:35
Mi 1.5
How to increase data literacy in a large corporation
How to increase data literacy in a large corporation

This presentation gives an overview on the concept of Boehringer Ingelheims Data Science Academy. The Academy aims at providing data literacy to all data users and leaders. It also provides upskilling opportunities for experts in the domain. Besides the general setup, I will give an overview on the founding of the Academy. Furthermore important learnings and our further development are shown.

Target Audience: Anyone who wants to increase data literacy in their company and learn and discuss about the setup of a Data Science Academy
Prerequisites: None
Level: Basic

2011 PhD in Physics
2012-2019 Risk manager in various positions (R+V, Wiesbaden)
2020-2021 Data Scientist (R+V, Wiesbaden)
2021-now Data Science Academy Manager (Boehringer Ingelheim, Ingelheim)

Marius Hilt
Marius Hilt

Vortrag Teilen

16:50 - 18:30
Mi 2.5
CDXP©xData Culture: Ausbildungsstandard als Awareness-Bildung
CDXP©xData Culture: Ausbildungsstandard als Awareness-Bildung

Effektiver Umgang mit Daten erfordert organisationales Know-how, nicht nur in der IT. Fehlt jedoch grundlegendes Wissen in Fachbereichen, fehlt auch das Verständnis für umfassendes Datenmanagement. Im interaktiven Vortrag besprechen wir die Themen des 'Certified Data Excellence Professional (CDXP)'-Lehrplans. Dabei zeigen wir den erforderlichen Wissensstandard für professionelles Datenmanagement und erörtern, wie eine offizielle Ausbildung mit Zertifizierung die Entwicklung einer Data Culture im Unternehmen unterstützen kann.

Zielpublikum: Führungskräfte, Data-Governance-Verantwortliche, Ausbildungsverantwortliche, Wissensmanager:innen
Voraussetzungen: Interesse an Datenkultur
Schwierigkeitsgrad: Basic

Extended Abstract:
In diesem interaktiven Vortrag diskutieren wir über die einzelnen Themengebiete des 'Certified Data Excellence Professional (CDXP)'-Lehrplans. Wir zeigen, welchen Wissensstandard alle haben sollen, die mit Daten professionell arbeiten sollen und wollen. Wir erarbeiten gemeinsam, welche Unterstützung durch einen offiziellen Ausbildungsstandard samt Zertifizierung bei der Entwicklung einer Data Culture im Unternehmen entsteht.

Brigitte Lutz ist ADV-Vorstand und Data-Governance-Koordinatorin der Stadt Wien.

Brigitte Lutz, Frank Pörschmann
Brigitte Lutz, Frank Pörschmann
Vortrag: Mi 2.5

Vortrag Teilen

16:50 - 17:35
Mi 3.5
Von der Standortbestimmung zur Best-of-Breed-Datenplattform
Von der Standortbestimmung zur Best-of-Breed-Datenplattform

Babymarkt.de wollte sich noch stärker als bisher auf den Kunden fokussieren und brauchte dafür eine entsprechende Datengrundlage. Ein Audit zeigte die Schwächen der historisch gewachsenen existierenden Dateninfrastruktur auf. Ausgehend von den erfolgversprechendsten Use Cases wurde daher eine neue Best-of-Breed-Datenplattform in der Cloud konzipiert und implementiert. In diesem Vortrag stellen wir die gemachten Erfahrungen vor und geben Tipps für Unternehmen, die sich in einer ähnlichen Situation befinden.

Zielpublikum: Manager im Datenbereich, Datenarchitekten, Datenstrategen
Voraussetzungen: Grundkenntnisse in Datenmanagement und -organisation
Schwierigkeitsgrad: Basic

Jan Friedemeyer begleitet babymarkt.de bereits seit vielen Jahren und verantwortet aktuell die Bereiche Projektmanagement, Pricing, ERP und BI. In dieser Funktion deckt er ein breites Spektrum an relevanten Themen ab und treibt unter anderem die Modernisierung der Dateninfrastruktur aktiv voran.

Mike Kamysz wird durch die Kombination aus technischer Expertise und seiner Erfahrung im Management Consulting zum idealen Sparringspartner für den Aufbau einer datengetriebenen Organisation.
Zuletzt leitete er das Analytics Engineering & BI Team bei DEPT, mit welchem er branchenübergreifend die Implementierung moderner Datenplattformen betreute. Diese Arbeit setzt er nun bei The Data Institute fort.

Jan Friedemeyer, Mike Kamysz
Jan Friedemeyer, Mike Kamysz
Vortrag: Mi 3.5

Vortrag Teilen

16:50 - 17:35
Mi 4.5
Erfolgreiche Projekte: die entscheidenden Best Practices
Erfolgreiche Projekte: die entscheidenden Best Practices

Welches sind die Schlüsselkomponenten erfolgreicher Analytics-Projekte? Sind Data Culture, Data Literacy, Data Mesh und Decision Intelligence echte Game-Changer? Erfolgreiche Analytics-Projekte setzen auf mehr als nur moderne Technologie und Hype-Themen - sie legen ihren Fokus auf:

  • Potenziale bei der Datenstrategie
  • Verbesserte Einbindung der Stakeholder
  • Etablierung von Vorgehensmethoden
  • Einführung einer Business-Analyse
  • Umsetzung der Data Governance

Der Vortrag zeigt, wie diese Methoden zusammenwirken und auch Ihr Projekt voranbringen.

Zielpublikum: Projektleiter, Data Manager, Datenarchitekten
Voraussetzungen: Analytics-Projekterfahrung und -Methodenkenntnisse
Schwierigkeitsgrad: Advanced

Extended Abstract:
Willkommen zu einem Vortrag über die Schlüsselkomponenten erfolgreicher Analytics-Projekte. Wir erkunden, warum technisches Know-how und erstklassige Werkzeuge alleine nicht genug sind und wie Sie Ihr nächstes Analytics- & Business-Intelligence-Projekt mit entscheidenden Best Practices auf ein neues Niveau heben können.

Auch im Jahr 2024 sind Hype-Begriffe wie Data Culture, Data Literacy, Data Mesh und Decision Intelligence allgegenwärtig. Sind dies echte Game-Changer?

Erfolgreiche Analytics-Projekte setzen auf mehr als nur modernste Technologie, hervorragende Tools und aktuelle Hype-Themen, um einen Business-Mehrwert hervorzubringen.

Dieser Vortrag behandelt erfolgreiche Projektaspekte aus den letzten 24 Monaten. Folgende Best Practices werden detaillierter besprochen:

  • Definition konkreter Potenziale in einer Datenstrategie:
    Wie können wir mit einem Blick aufs große Ganze das Unternehmen mit Analytics-Initiativen am besten voranbringen und proaktiv zukünftige Geschäftsanforderungen adressieren?
  • Verbesserung der Einbindung von Fachbereichen und Stakeholdern:
    Wie können wir den Dialog mit den Business-Experten und internen Kunden verbessern, von ihrem Wissen profitieren und ihren Vorstellungen weiter entgegenkommen?
  • Holistische Etablierung von Vorgehens- & Entwicklungsmethoden:
    Wie können uns strukturierte Vorgehensmodelle dabei helfen, nicht nur klare Entwicklungsziele zu formulieren und Fehler zu minimieren, sondern auch eine agile Flexibilität zu bewahren, um auf sich ändernde Anforderungen zeitnah reagieren zu können?
  • Einführung einer übergreifenden, integrierten Business- und Anforderungsanalyse:
    Wie können wir eine nachhaltige Lösung entwickeln, die sowohl den geschäftlichen Anforderungen als auch den individuellen Bedürfnissen der Stakeholder gerecht wird?
  • Frühe individualisierte Umsetzung von Data Governance und Change Management:
    Wie können wir frühzeitig eine maßgeschneiderte Umsetzung von Data Governance und Change Management sicherstellen, um eine reibungslose Integration in die bestehenden Strukturen und Prozesse zu gewährleisten?

In diesem Vortrag erfahren Sie, wie die Methoden ineinandergreifen. Ganz gleich, ob Sie auf der Suche nach einem klaren Leitfaden für Ihr nächstes Projekt oder nach neuen Impulsen für laufende Initiativen sind - im Vortrag finden sich neue Anregungen.

Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Juli 2022 ist er Geschäftsführer bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/klausdieter.schulze

Peer M. Carlson ist Principal Consultant bei b.telligent und seit vielen Jahren im Bereich Business Intelligence & Analytics tätig. Sein Interesse gilt insbesondere Datenarchitekturen, Datenmodellierung, Data Vault, Requirements Management und agilen Methoden. Er unterstützt sowohl die fachlichen Anwender als auch die technischen Entwickler beim übergreifenden Verständnis der Projektanforderungen. Peer M. Carlson ist Mitgründer der Deutschsprachigen Data Vault User Group (DDVUG).

Klaus-Dieter Schulze, Peer M. Carlson
Klaus-Dieter Schulze, Peer M. Carlson
Vortrag: Mi 4.5

Vortrag Teilen

16:50 - 17:35
Mi 5.5
Viridium goes Data Driven – Risk Management als Treiber
Viridium goes Data Driven – Risk Management als Treiber

Der Vortrag schildert die Transformation der Viridium zum datengetriebenen Versicherer, getrieben durch das Risikomanagement. Er beleuchtet die vielfältigen Aspekte dieser Reise - von der Einbindung der Menschen und Automatisierung über den Einsatz von KI und Analytics bis hin zur Entwicklung der IT- und Daten-Infrastruktur. Diese organische Entwicklung zeigt, wie eine ganzheitliche Datenintegration in allen Unternehmensbereichen echten Mehrwert schafft, und stellt den Weg der Viridium als Modell für die Branche dar.

Zielpublikum: Data Decision Makers, Data Leaders, Data Strategists, Change Agents, Data Architects, Project Leader, Citizen Data People
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced

Extended Abstract:
In meinem Vortrag stelle ich die umfassende Transformation der Viridium zum datengetriebenen Versicherungsunternehmen vor, eine Entwicklung, die maßgeblich durch das Risikomanagement initiiert und vorangetrieben wurde. Ich werde beleuchten, wie wir durch die Einbindung unserer Mitarbeiter, die Nutzung von Automatisierungstechnologien, Künstlicher Intelligenz und Analytics sowie durch den Ausbau unserer IT- und Dateninfrastruktur eine tiefgreifende Veränderung in unserer Unternehmenskultur erreicht haben.

Ein Schlüsselaspekt meines Vortrags ist die Erläuterung, was es wirklich heißt, datengetrieben zu arbeiten. Ich werde darlegen, dass dies über die reine Anwendung von KI hinausgeht und die allumfassende Nutzung von Daten in sämtlichen Unternehmensbereichen einschließt. Dies ermöglicht es uns, operative Prozesse zu verbessern, datenbasierte Entscheidungen zu treffen und unsere Arbeitsabläufe zu standardisieren.

Im Fokus steht dabei die Anfangsphase unseres datengetriebenen Risikomanagements, die von manuellen Prozessen und einem begrenzten Zugang zu Rohdaten geprägt war. Die Einführung der Programmiersprache R führte zu einer effektiven Automatisierung und Analyse unserer Daten, wodurch wir die Arbeitsqualität verbessern und neue strategische Wege einschlagen konnten.

Die Errichtung einer robusten Analytics-Infrastruktur und Einführung der Daten-Virtualisierung markierte einen weiteren wesentlichen Schritt. Diese Maßnahmen verbesserten die Nutzung, Sicherheit und Governance unserer Daten. Zudem ermöglichte die Integration verschiedener Datenquellen und Systeme eine flexiblere und effizientere Datenverarbeitung.

Die Erweiterung unserer Tool-Palette um Python und andere Entwicklungsumgebungen förderte die interne Zusammenarbeit und den Austausch im Unternehmen. Wir erkannten zudem die Bedeutung der Einbindung aller Mitarbeiter in den datengetriebenen Prozess und boten entsprechende Schulungen an, um eine breite Akzeptanz und Nutzung unserer Analytics-Plattform zu erreichen.

Zum Abschluss meines Vortrags werde ich unsere zukünftigen Pläne vorstellen, die darauf abzielen, unsere datengetriebenen Prozesse weiterzuentwickeln und zu verfeinern. Wir streben danach, eine unternehmensweite Datenkultur zu schaffen und zu fördern. Die Einführung von Power BI und die geplante Integration von Julia in unsere Plattform zeigen unser Bestreben, alle Mitarbeiter einzubeziehen und unsere Position als datengetriebenes Unternehmen zu stärken.

Insgesamt zeigt dieser Vortrag auf, wie Viridium durch eine organische Entwicklung und die ganzheitliche Integration von Daten in sämtlichen Unternehmensbereichen nicht nur effizienter und innovativer wurde, sondern sich auch als Vorbild in der Versicherungsbranche etabliert hat.
 

Mit Fundamenten in Actuarial Science, Computer Science und Wirtschaftswissenschaften ist Dr. Jan-Hendrik Weinert ein Datenstratege und Experte für Risk Analytics, der sich dafür einsetzt, eine Kultur der datengetriebenen Entscheidungsfindung in der Finanz- und Versicherungsbranche voranzutreiben. Als Architekt der unternehmensweiten Analytics-Plattform und eines Datenvirtualisierungslayers der Viridium Gruppe fördert er die unternehmensweite, dezentrale Zusammenarbeit mit Daten und beschleunigt die Entwicklung hin zu einem datengetriebenen Versicherer. Sein Engagement trägt dazu bei, die Lücke zwischen Technologie und Geschäftswelt zu schließen.

Jan-Hendrik Weinert
Jan-Hendrik Weinert
Vortrag: Mi 5.5

Vortrag Teilen

16:50 - 17:35
Mi 6.5
On Track to Tomorrow: Harnessing Telematic Data
On Track to Tomorrow: Harnessing Telematic Data

In this presentation, we delve into the strategic adoption of our Digital Twin in the rail industry, exploring the motivations behind its implementation. We examine the diverse data streams generated by rail assets and share insights into overcoming challenges posed by external providers.
We will outline the meticulous process of implementing our Digital Twin, emphasizing the technical challenges encountered and conquered in this journey.

Target Audience: Data Engineers, Predictive Maintenance, Data Quality
Prerequisites: Basic understanding of data structures, knowledge of basic cloud services
Level: Advanced

Extended Abstract:
In this insightful presentation, we delve into the profound shift in rail operations ushered in by the implementation of our digital twin. We begin by addressing the fundamental question: Why should we embrace digital twins in the rail industry? Unpacking the strategic advantages and transformative potential, we elucidate the compelling reasons for integrating digital twins into rail asset management.

Next, we scrutinize the wealth of data generated by our rail assets, unveiling the multifaceted nature of telematic insights. By understanding the intricate web of information produced, we lay the groundwork for harnessing these data streams to optimize rail operations and enhance decision-making.

We will explore the intricacies of implementation. We take a closer look at the methodology employed in introducing digital twins to our rail infrastructure, offering insights into the practical aspects and considerations that shaped our approach.

Lastly, we tackle the technical challenges head-on, shedding light on the hurdles encountered during the implementation journey. By elucidating these obstacles, we not only provide a realistic view of the digital twin landscape but also offer valuable insights for industry peers navigating similar paths.

Join us in this engaging session as we navigate the complex terrain of digital twins and telematic data, uncovering the transformative power that awaits the rail industry on its journey to a smarter and more efficient future.

Patrik Lengacher joined SBB Cargo in the Analytics and Operations Research team. From the beginning he was keen to leverage the existing data and to mature the data driven approach within SBB Cargo. Patrik developed prototypes for major projects such as a data centred approach to demand management. Currently Patrik is responsible for the data ingestion, warehousing and operation streams. His goal is to create a unified data landscape with an easy access to data and reports for all employees. As part of this development Patrik is leading the IoT and Digital Twin stream. Patrik graduated from ETH Zürich with a master's degree in mathematics and is a lecturer for Data Engineering at the University of Applied Sciences and Arts Northwestern Switzerland (FHNW).

Patrik Lengacher
Patrik Lengacher
Vortrag: Mi 6.5

Vortrag Teilen

16:50 - 18:30
Mi 7.5
BI-Exzellenz: mit User-Enablement zur Datenakzeptanz
BI-Exzellenz: mit User-Enablement zur Datenakzeptanz

Entdecken Sie in diesem interaktiven Workshop, wie Sie Ihre Daten und Datenprodukte aus ihrem Schattendasein heben können. Wir beleuchten Herausforderungen, Erfolgsgeschichten und Best Practices zum Thema User-Enablement und bringen in einer interaktiven Diskussion weitere Problemstellungen und Lösungsansätze der Teilnehmer:innen zusammen. Treten Sie ein in die Zukunft von Business Intelligence, wo Daten(-produkte) nicht nur existieren, sondern aktiv genutzt und geschätzt werden!

Zielpublikum: Product Owner, BICC-Leiter:innen, BI-Expert:innen, Data Analyst:innen, Business Analyst:innen
Voraussetzungen: Grundverständnis von Business Intelligence, bestenfalls Erfahrungen mit oder Fragen zu User-Enablement
Schwierigkeitsgrad: Basic

Extended Abstract:
Schaffen es Ihre Daten nicht zu den Fachanwender:innen oder stecken Ihre aufwendig entwickelten Reports im Schattendasein? Entdecken Sie im interaktiven Workshop 'BI-Exzellenz: mit User-Enablement zur Datenakzeptanz' die Schlüssel, um Akzeptanz für Ihre Daten und Datenprodukte zu schaffen. Wir setzen an bei der Frage, warum Daten und Datenprodukte oft ungenutzt bleiben, und beleuchten, welche Hürden das BI-Team daran hindern könnten, sie freizugeben.

Von der Identifikation von Herausforderungen über Erfolgsgeschichten bis hin zu praktischen Best Practices und Lösungsansätzen bietet dieser Workshop Ihnen einen umfassenden Einblick in die Welt des User-Enablements. Inwiefern fördern Themen wie Schulungen, Verantwortlichkeiten, Feedback-Schleifen, internes Marketing und Kommunikation das User-Enablement? Bringen Sie Ihre Erfahrungen, Ideen und Problemstellungen mit und profitieren Sie von den Inputs der anderen Workshopteilnehmer:innen. Nutzen Sie die Gelegenheit für interaktive Diskussionen und den Austausch bewährter Methoden und lernen, wie Sie die Akzeptanz von Daten und Datenprodukten in Ihren Organisationen verbessern können.

Gianna Neeser arbeitet als Senior Consultant Data & Analytics bei der IT-Logix AG. Im Studium hat sie ihr Interesse an Daten entdeckt und beschäftigt sich heute mit der Entwicklung von Data Warehouses. Sie unterstützt Organisationen bei der Erhebung und Analyse von BI-spezifischen Anforderungen, der Durchführung von Projekten als Agile BI Coach in Entwicklerteams sowie dem Enablement der Fachanwender:innen. Gianna investiert sich zudem als «TDWI Young Gun» aktiv in die BI-Community.

Eva-Maria Kopf hat sich bereits in ihrem Masterstudium 'Business Intelligence & Analytics' mit Themen wie Storytelling beschäftigt. Als Consultant Data & Analytics bei der IT-Logix AG unterstützt sie Organisationen in der Bereitstellung von Daten ebenso wie in der Entwicklung und Umsetzung entscheidungstreibender BI-Reportings und dem Enablement von Fachanwender:innen. Eva-Maria investiert sich zudem als «TDWI Young Gun» aktiv in die BI-Community.

Gianna Neeser, Eva-Maria Kopf
Gianna Neeser, Eva-Maria Kopf
Track: Hands-On
Vortrag: Mi 7.5

Vortrag Teilen

17:45 - 18:30
Mi 1.6
Resilienz im Data Warehousing – Lehren aus der Pandemie
Resilienz im Data Warehousing – Lehren aus der Pandemie

Über zwei Jahre hat die Corona-Pandemie die Kassenärztliche Vereinigung Westfalen-Lippe (KVWL) vor gewaltige Herausforderungen gestellt. Quasi über Nacht mussten Impfzentren für Millionen von Impfungen aufgebaut und betrieben werden. Auch das DWH-Team war von Anfang an involviert und musste täglich auf neue Anforderungen reagieren. Über Monate war das Impf-Geschehen im Mittelpunkt der Öffentlichkeit. Dieser Vortrag zeigt, welche Maßnahmen geholfen haben, um dem immensen und sich immer wieder verändernden Bedarf gerecht zu werden.

Zielpublikum: BI-Entwickler:innen, DB-Entwickler:innen, Projektleiter:innen, alle Interessierten
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Im Rahmen der Corona-Krise musste die Kassenärztliche Vereinigung Westfalen-Lippe (KVWL) zahlreiche neue Aufgaben erfüllen. Quasi über Nacht mussten Test- und Impfzentren aufgebaut und betrieben werden. Auch das DWH-Team der KVWL war von Anfang an involviert und musste täglich auf neue Anforderungen zur Verarbeitung und zum Reporting der Impfdaten in der Region Westfalen-Lippe reagieren. 

Die KVWL betreibt seit 2014 ein klassisches Data Warehouse, das von einem cross-funktionalen Team von der Administration über den Betrieb bis zur BI-Entwicklung in enger Abstimmung mit den Fachbereichen betreut wird. Die bestehenden technischen und organisatorischen Strukturen haben während der Pandemie dazu beigetragen, auf die anstehenden neuen Herausforderungen zu reagieren. Durch das hohe Interesse der Öffentlichkeit und der Politik an den Daten war neben der schnellen Umsetzung der Reporting-Anforderungen die Datenqualität ein wichtiger Faktor.

Der Vortrag geht auf die folgenden Fragen ein: Welche Kriterien lassen sich heranziehen, um die Resilienz eines DWH oder eines Teams zu beurteilen? Welche Faktoren tragen dazu bei, auf ständig wechselnde Anforderungen zu reagieren? Welchen Einfluss haben die gewonnenen Erkenntnisse aus dem Projekt zur Bekämpfung der Corona-Pandemie auf zukünftige Projekte?

Alessandro Hüttermann ist studierter Statistiker, der bei der KVWL die Abteilung Strategische Datenanalyse leitet. In seiner zweiten Rolle als fachlicher Leiter des Data Warehouse widmet er sich der Optimierung von Datenprozessen und treibt die datenbasierte Entscheidungsfindung voran. Während der Corona-Pandemie war er fachlich für die Prozesse, die Analyse und das Reporting der von den Impfzentren und mobilen Teams bereitgestellten Daten verantwortlich.

Anne Schlebusch ist seit 30 Jahren als Entwicklerin, Team- und Projektleiterin im Geschäftsbereich 'IT & Digital Health' der KVWL tätig. Seit 2012 ist sie als technische Projektleiterin des Data Warehouse dafür zuständig, die Weiterentwicklung und den Ausbau des DWH voranzutreiben. Während der Corona-Pandemie war sie technisch verantwortlich für die Prozesse, die Auswertung und das Reporting der Daten, die von den Impfzentren und mobilen Teams zur Verfügung gestellt wurden.

Alessandro Hüttermann, Anne Schlebusch
Alessandro Hüttermann, Anne Schlebusch

Vortrag Teilen

17:45 - 18:30
Mi 3.6
Automatisierte Data-Vault-Modellierung macht den Unterschied
Automatisierte Data-Vault-Modellierung macht den Unterschied

In einer Case Study wird gezeigt, wie die Schweizer Biomed AG mit Yotilla, einer Lösung mit einem neuartigen DWH-Automatisierungsansatz, die DWH-Entwicklung trotz eingeschränkt verfügbarer Ressourcen ermöglicht und beschleunigt hat. Der neue Ansatz automatisiert basierend auf einem fachlich orientierten Conceptual Model die logische und physische Data-Vault-Datenmodellierung, sodass das DWH ohne Data-Vault-Know-how erstellt und genutzt werden kann. Im Vortrag werden die Herausforderungen und der Kundennutzen des neuen Ansatzes vorgestellt.

Zielpublikum: Verantwortliche Data & Analytics, BI- und DWH-Manager
Voraussetzungen: Data-Warehouse-Grundwissen
Schwierigkeitsgrad: Basic

Extended Abstract:
Die Entwicklung eines Data Warehouse ist aufwendig und zeitraubend. Der Fachkräftemangel und beschränkte Ressourcen sind eine große Herausforderung, besonders im Mittelstand.

Data-Warehouse-Automatisierungslösungen können die Entwicklung beschleunigen und setzen dabei meist auf Data-Vault-Modellierung. Während das physische Data-Vault-Modell vollständig automatisiert wird, ist das logische Data-Vault-Modell manuell zu erstellen oder auf Basis eines generierten Vorschlags zu überarbeiten. Somit ist weiterhin eine ausgeprägte technische Expertise und Data-Vault-Know-how erforderlich.

Die Schweizer Biomed AG hat mit Yotilla einen neuen Ansatz verfolgt und konnte so ausgehend von einem fachlich orientierten konzeptuellen Modell (Conceptual Model) sowohl die physische als auch die logische Datenmodellierung vollständig automatisieren. In der Folge ist weniger Data-Vault-Know-how erforderlich.

Durch diesen Ansatz entsteht eine Vielzahl weiterer Automatisierungsmöglichkeiten: So kann z. B. die Business-Logik als Teil des Conceptual Model definiert und deren Implementierung ebenfalls vollständig automatisiert werden.

Eine besondere Herausforderung bei der Biomed AG war, dass die Daten der Geschäftsobjekte aus vielen verschiedenen Quellen stammen, mit teilweise sich überschneidenden Daten.

Im Vortrag werden folgende Fragestellungen betrachtet:

  • Welche Vorteile hat der Ansatz?
  • Wie wird ein Source System Data Vault vermieden?
  • Wie kann Business-Logik ohne Kenntnisse des Data-Vault-Modells implementiert werden?
  • Welche Voraussetzungen müssen erfüllt sein?
  • Wie sind die Erfahrungen mit dem Ansatz bei der Biomed AG?
  • Welche Möglichkeiten bringt dieser Ansatz für die Zukunft?

Roland A. Vögeli hat über 26 Jahre Erfahrung in Core Development, Technologie- und Prozessberatung, Application Architecture, Enterprise Architecture und Data Warehousing. Als Experte und als verantwortlicher Manager macht er sich für den Ansatz Data Driven Organisation stark. Er hat über die Zeit auf verschiedenen Plattformen Data Warehouses aufgebaut. Als Enterprise Architect bei Biomed AG zeichnet er auch verantwortlich für das Enterprise Data Warehouse.

Reinhard Mense weist mehr als 20 Jahre Erfahrung im Bereich Business Intelligence und Data Warehousing auf. Als Mitbegründer und CTO baute er über mehr als 10 Jahre ein erfolgreiches BI-Beratungsunternehmen auf. Seine Leidenschaft gilt der DWH-Automatisierung, die in einer Ausgründung der Yotilla GmbH für die Entwicklung einer neuartigen DWH-Automatisierungslösung mündete. Als Product Owner verantwortet er heute die Entwicklung von Yotilla bei der Exasol AG.

Roland A. Vögeli, Reinhard Mense
Roland A. Vögeli, Reinhard Mense
Vortrag: Mi 3.6

Vortrag Teilen

17:45 - 18:30
Mi 4.6
Semantische Modellierung als Schlüssel
Semantische Modellierung als Schlüssel

Das 'Semantic Term and Model Repository' ist das zentrale Repository bei Bosch für Geschäftsglossare, Taxonomien und semantische Modelle. Das Repository ist gleichzeitig auch eine Plattform für die kollaborative Entwicklung von Glossaren und semantischen Modellen. Es basiert auf W3C-Standards wie RDF, RDFS, OWL und SHACL. Außerdem bietet es verschiedene Standardschnittstellen zur Integration anderer Tools und Anwendungen (z. B. SPARQL, GraphQL und REST).

Zielpublikum: Data Manager, Data Engineers, Data Analysts
Voraussetzungen: Grundlegende Erfahrung in Datenmodellierung und Data Management
Schwierigkeitsgrad: Advanced

Extended Abstract:
Im Rahmen eines Strategie-Projekts hat Bosch eine Methodik und einen Tool-Stack entwickelt, um mit semantischer Modellierung den Weg für ein industrialisiertes Datenmanagement zu bereiten. Das Bosch 'Semantic Term and Model Repository' ist das zentrale Repository bei Bosch für Geschäftsglossare, Taxonomien und semantische Modelle. Mit den Geschäftsglossaren und Taxonomien wird eine gemeinsame Sprache innerhalb der Bosch-Gruppe angestrebt, mit den semantischen Modellen werden konzeptionelle Datenmodelle auf Unternehmensebene als Bosch-weite Standards etablieren. Diese konzeptionellen Datenmodelle dienen als solide Ausgangsbasis für jede neue Datenanwendung, um die Datenintegration zu erleichtern und die Wiederverwendung bereits definierter Modelle zu fördern. Das Repository ist gleichzeitig auch eine Plattform für die kollaborative Entwicklung von Glossaren und semantischen Modellen. Es basiert auf W3C-Standards wie RDF, RDFS, OWL und SHACL. Außerdem bietet es verschiedene Standardschnittstellen zur Integration anderer Tools und Anwendungen (z. B. SPARQL, GraphQL und REST).

Andreas Peter ist als Data Architect bei Bosch im Bereich Datenmodellierung, Datenstrategie und Semantische Modellierung.

Andreas Peter
Andreas Peter
Vortrag: Mi 4.6

Vortrag Teilen

17:45 - 18:30
Mi 5.6
Cloud-Reporting in der Finanzwelt
Cloud-Reporting in der Finanzwelt

Die Finanzindustrie hat es bei der Einführung von Cloudlösungen schwerer als andere Branchen. In vielen Fällen dominieren Sorgen, mit der Einführung von Cloudtechnologien gegen bankrechtliche Vorgaben wie das Kreditwesengesetz oder gesetzliche Vorgaben der Bundesanstalt für Finanzdienstleistungen zu verstoßen. Dieser Sorgen sind sich Cloudanbieter bewusst und Lösungen wie Power BI oder Snowflake implementieren von Haus aus Features, um die Einführung von Cloudtechnologen im Einklang mit bankrechtlichen Vorgaben zu ermöglichen.

Zielpublikum: Projektleiter, Entscheidungsträger
Voraussetzungen: Wissen im Bankenumfeld
Schwierigkeitsgrad: Basic

Extended Abstract:
Cloudtechnologien sind in vielen Branchen auf dem Vormarsch. Die Finanzindustrie als stark reguliertes Gebiet hingegen hat es bei der Einführung von Cloudlösungen deutlich schwerer als andere Branchen. In vielen Fällen dominieren Sorgen, mit der Einführung von Cloudtechnologien gegen bankrechtliche Vorgaben wie das Kreditwesengesetz oder gesetzliche Vorgaben der Bundesanstalt für Finanzdienstleistungen (BaFin) zu verstoßen. Dieser Sorgen sind sich Cloudanbieter bewusst und Lösungen wie Power BI oder Snowflake implementieren von Haus aus Features, um die Einführung von Cloudtechnologen im Einklang mit bankrechtlichen Vorgaben zu ermöglichen. Im Vortrag stellen wir BaFin-Vorgaben und Features von Power BI und Snowflake gegenüber, die den Wechsel in die Cloud erleichtern. Des Weiteren gehen wir auf die speziell für den europäischen Markt angekündigte AWS-Lösung 'AWS European Sovereign Cloud' ein, die zusätzliche Sicherheit im Bereich der regulierten Industrien geben soll.

Dr. Ina Humpert ist Mathematikerin und als Beraterin bei der viadee IT-Unternehmensberatung tätig. Ihr Schwerpunkt ist Data Engineering auf SQL basierten Datenbanken im Bankenumfeld. Außerdem interessiert sie sich für Daten-Visualisierung unter anderem mit Power BI.

Marissa Quante ist Beraterin bei der viadee Unternehmensberatung AG. Ihr aktueller Schwerpunkt liegt im Bereich Data Warehousing, Data Engineering und Analytics im Bankenumfeld. Sie ist Snowflake Core zertifiziert und begeistert sich für die Themen Snowflake und Cloud.

Ina Humpert, Marissa Quante
Ina Humpert, Marissa Quante
Vortrag: Mi 5.6

Vortrag Teilen

17:45 - 18:30
Mi 6.6
Dashboard Karaoke – "get insights on point or cry trying"
Dashboard Karaoke – "get insights on point or cry trying"

Stell dir vor, du stehst im Rampenlicht, mit einem komplett unbekannten Dashboard vor dir und das musst du präsentieren - willkommen bei Dashboard Karaoke! 
Ob du es humorvoll und witzig angehst, ernsthaft und inhaltlich präzise bleibst oder sogar kreativ am Thema vorbeischlitterst, ist dabei nebensächlich.
Das Entscheidende bei Dashboard Karaoke ist, dass du das Publikum begeisterst. Mach dich bereit für eine unterhaltsame Lernerfahrung, die dich und deine Fähigkeiten, Daten zu präsentieren, auf eine unterhaltsame Probe stellen wird.

Zielpublikum: Jeder, der Daten präsentiert!
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

In den letzten 16 Jahren spezialisierte sich Philipp Baron Freytag von Loringhoven auf die Unterstützung von Unternehmen bei der Entwicklung effektiver Werbekampagnen mithilfe von Daten und Marketing-Analytics. Er leitete internationale Marketing- und Data-Teams für Start-ups und Unternehmen. Als Freelancer hilft er Firmen bei einer Nutzung ihrer Daten, die zu weiterem Marketing- und Sales-Erfolg führt. Philipp möchte durch und dank Daten wieder bessere, interessantere Werbung sehen. Werbung, die begeistert, die anspricht. Deshalb betreibt er seit 2020 auch den Podcast Dataengage, um mehr Menschen den Zugang zu Daten, Technologie und Marketing zu ermöglichen.

Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe. 
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld. 

Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.

Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.

Philipp Baron Freytag von Loringhoven, Artur König
Philipp Baron Freytag von Loringhoven, Artur König
Vortrag: Mi 6.6

Vortrag Teilen

17:45 - 18:30
Mi 8.6
Panel-Diskussion: Data Vault einführen und dauerhaft betreiben
Panel-Diskussion: Data Vault einführen und dauerhaft betreiben

Vortrag: Mi 8.6

Vortrag Teilen

19:00 - 20:30
TDWI
TDWI Verein – Mitgliederversammlung (geschlossene Veranstaltung für Mitglieder des TDWI e.V.)
TDWI Verein – Mitgliederversammlung (geschlossene Veranstaltung für Mitglieder des TDWI e.V.)

Vortrag: TDWI

Vortrag Teilen

08:00 - 09:00
Pause
Frühstück & Registrierung/Breakfast & Registration
Frühstück & Registrierung/Breakfast & Registration

09:00 - 09:45
Do 1.1
Wertexploration von Datenprodukten – Ein Praxisleitfaden
Wertexploration von Datenprodukten – Ein Praxisleitfaden

Maximierung des Wertes von Daten ist entscheidend für den Unternehmenserfolg. Der Vortrag führt die praxisorientierte Methode zur Ermittlung des Data Value von Datenprodukten ein und beleuchtet die Priorisierung ihrer Umsetzung. Unternehmen können hierdurch den Wert ihrer Daten identifizieren und entscheiden, welche Datenprodukte zuerst angegangen werden. Die Data Value Exploration stützt sich auf praktische Erfahrungen und zielt darauf ab, Unternehmen bei der strategischen Ausrichtung und effektiven Durchführung ihrer Dateninitiativen zu leiten.

Zielpublikum: Verantwortliche Projekt- und Programm-Manager für Data & Analytics
Voraussetzungen: Data Strategy, Data Value, Datenprodukt
Schwierigkeitsgrad: Basic

Extended Abstract:
Eine der wesentlichen Herausforderungen beim Aufbau einer datenproduktorientierten Data & Analytics-Landschaft ist die Priorisierung bzw. Reihenfolge der Umsetzung von Datenprodukten. Das Data-Value-Exploration-Vorgehen gibt den Projektverantwortlichen und Stakeholdern eine Methode an die Hand, mit der die Priorisierung wertorientiert erfolgen kann. Der Vortrag stellt das Vorgehen und Erfahrungen aus Kundenprojekten vor.

Alexander Bauer begleitet Kunden bei der strategischen Ausrichtung der BI- und IT-Anwendungslandschaft. Er hat sich mehrer Jahre mit den Einsatzgebieten von Technologien wie KI, IoT und Cloud beschäftigt.

Laura Weber beschäftigt sich als Strategy Consultant im Bereich Data & Analytics Strategy seit 5 Jahren mit der ganzheitlichen Betrachtung strategischer Themen in diesem Bereich. Ihre Expertise umfasst die Entwicklung und Implementierung von Strategien und Projekten über diverse Branchen hinweg, unter Anwendung verschiedenster Technologien und Methoden. Als Projektleiterin fördert sie transformative Lösungen mit einem strukturierten Ansatz.

Alexander Bauer, Laura Weber
Alexander Bauer, Laura Weber

Vortrag Teilen

09:00 - 09:45
Do 2.1
Daten und KI für eine effiziente und nachhaltige DB
Daten und KI für eine effiziente und nachhaltige DB

Daten, Analytik & KI sind Schlüsselfaktoren für eine effiziente, innovative und nachhaltige Zukunft der Deutschen Bahn. Die DB InfraGO setzt an der Basis - der Schieneninfrastruktur - an, indem wir diese für Ausbau, Instandhaltung und Zugbetrieb unter anderem durch digitale Produkte wie 'InfraMaps', das Google Maps der DB, analysieren. In ihrem Vortrag werden Dr. Nina Stumme und Florian Dohmann konkrete Produktbeispiele vorstellen und über ihre Erfahrungen beim Aufbau neuer 'intelligenter Architekturen' in diesem einzigartigen Umfeld berichten.

Zielpublikum: Data Engineers, Data Scientists, AI-Engineers, AI-Enthusiasts, Project Leader
Voraussetzungen: Grundkenntnisse
Schwierigkeitsgrad: Basic

Extended Abstract:
Daten, Analytik & Künstliche Intelligenz sind Schlüsselfaktoren für eine effiziente, innovative und nachhaltige Zukunft der Deutschen Bahn. Die DB InfraGo setzt an der Basis - der Schieneninfrastruktur - an, indem wir diese für Ausbau, Instandhaltung und Zugbetrieb unter anderem durch 'InfraMaps' als Google Maps der DB analysieren.

Im Herzstück von InfraMaps liegt die Visualisierung der Schieneninfrastruktur durch hochauflösende Fotos, die durch Drohnenaufnahmen sowie Videodaten bis hin zu 3D-Punktwolke-Daten mittels spezieller Sensor-Züge generiert werden. Diese werden letztlich kombiniert mit Bestandsdaten, die weitere Informationen zu Objekten wie z. B. Schranken liefern und zusammen eine virtuell digitale Repräsentanz der Schieneninfrastruktur bilden.

Um dieses zu erreichen, wurde eine neue Unit innerhalb der DB InfraGO mit einem interdisziplinären Team aus verschiedenen Expert:innen der DB und vielen weiteren Partnern ins Leben gerufen, um einen Beitrag zu einer effizienten, digitalen und nachhaltigen Zukunft der Deutschen Bahn und damit zur grünen Mobilitätswende zu leisten.

In ihrem Vortrag werden Dr. Nina Stumme und Florian Dohmann einige aktuelle konkrete Produktbeispiele vorstellen und über ihre Erfahrungen beim Aufbau neuer 'intelligenter Architekturen' in diesem einzigartigen Umfeld berichten. Neugierig geworden? Schauen Sie vorbei und finden Sie es heraus!

Dr. Nina Stumme ist Leiterin des Bereichs Datenmanagement, Analytik und KI bei der DB InfraGO, dem Schieneninfrastruktur-Unternehmen der Deutschen Bahn. 
In den vergangenen Jahren hat Nina zahlreiche Aktivitäten zur Wertschöpfung aus Daten für die notwendige Verbesserung von Qualität und Stabilität in der Schieneninfrastruktur initiiert. Sie reichen vom Aufbau eines rasant wachsenden Daten- und KI-Ökosystems mit Schaffung einer unternehmensweiten Datengrundlage für nachhaltige Geschäftslösungen, die Implementierung innovativer Analytics- & KI-Produkte bis hin zur Etablierung einer übergreifenden Data Governance für die DB InfraGO. 
Nina ist promovierte Mathematikerin und hat in verschiedenen Bereichen der Deutschen Bahn gearbeitet, wobei sie stets die Lücke zwischen den Anforderungen des Business und technologischen Möglichkeiten geschlossen hat.

Florian Dohmann ist Co-Founder & Chief Creative von Birds on Mars, einer führenden KI-Beratung und -Agentur, die Unternehmen dabei hilft, die Zwischenräume aus menschlicher Kreativität, maschineller Intelligenz und organisatorischer Identität zu erforschen und zu gestalten. Im Fokus: Nachhaltigkeit und das 'neue Neue'. Florian ist ein Experte für Daten, künstliche Intelligenz und digitalen Wandel, Intelligence Architect und Kreativer. Er ist Informatiker, IBM-Zögling, Keynote-Speaker, Gastdozent an verschiedenen Universitäten, Teil des Künstlerkollektivs YQP und Miterfinder der künstlich intelligenten Muse. Mehr unter: www.floriandohmann.com.

Nina Stumme, Florian Dohmann
Nina Stumme, Florian Dohmann
Vortrag: Do 2.1

Vortrag Teilen

09:00 - 09:45
Do 3.1
Data Audit – Wegbereiter zur modernen Dateninfrastruktur
Data Audit – Wegbereiter zur modernen Dateninfrastruktur

Die HAAS Mediengruppe reagiert mit einer Diversifizierung in digitale Dienstleistungen bereits erfolgreich auf die abnehmende Relevanz des Printmarktes. Dabei wurde jedoch das Thema Daten nicht gleichermaßen mitentwickelt, sodass man sich heute mit z.T. redundanten Tools, Datensilos und einer Vielzahl von technischen Workarounds konfrontiert sieht. Dieser Vortrag zeigt, wie die Aufnahme des Status quo in Sachen Datenlandschaft hilft, den Weg für die Modernisierung der eigenen Dateninfrastruktur in einer komplexen Stakeholderlandschaft zu ebnen.

Zielpublikum: Manager im Datenbereich, Datenstrategen, Data Architects
Voraussetzungen: Grundkenntnisse in Datenmanagement und -organisation
Schwierigkeitsgrad: Basic

Daniel Noll ist ein ausgewiesener Spezialist für das Thema Daten sowie Vertrieb und Marketing im Verlagsumfeld. Nach Stationen bei der Frankfurter Allgemeinen Zeitung und Republic ist er nun bei der HAAS Mediengruppe für die CRM- und BI-Abteilung verantwortlich, wo er die Modernisierung und Digitalisierung aktiv vorantreibt.

Mike Kamysz wird durch die Kombination aus technischer Expertise und seiner Erfahrung im Management Consulting zum idealen Sparringspartner für den Aufbau einer datengetriebenen Organisation.
Zuletzt leitete er das Analytics Engineering & BI Team bei DEPT, mit welchem er branchenübergreifend die Implementierung moderner Datenplattformen betreute. Diese Arbeit setzt er nun bei The Data Institute fort.

Daniel Noll, Mike Kamysz
Daniel Noll, Mike Kamysz
Vortrag: Do 3.1

Vortrag Teilen

09:00 - 09:45
Do 4.1
Mehrwert aus Daten: ein methodischer Architekturansatz
Mehrwert aus Daten: ein methodischer Architekturansatz

SAP hat eine Architekturmethode entwickelt, um effizient Mehrwerte aus Daten zu generieren. Durch ein strukturiertes Vorgehen werden auf Basis datenzentrischer Anwendungsfälle zielgerichtete Lösungsarchitekturen entwickelt. Wir geben einen Überblick über das Vorgehensmodell, wichtige Werkzeuge und Artefakte und zeigen die Anwendung der Methode an einem konkreten Kundenbeispiel.

Zielpublikum: Enterprise/Data Architects, Projektleiter/Berater/Entscheider im Umfeld von Data Management & Analytics
Voraussetzungen: Interesse an Data & Analytics-Themen, Grundverständnis von Architekturmethoden hilfreich, aber nicht zwingend notwendig
Schwierigkeitsgrad: Advanced

Extended Abstract:
Datengetriebene Geschäftsprozesse, Produkte, Dienstleistungen und Geschäftsmodelle werden immer dominanter in allen Branchen. Allerdings sind viele Unternehmen noch nicht richtig aufgestellt, um aus Daten Mehrwert zu generieren. Die Definition einer Datenstrategie ist eine wichtige Grundlage, doch deren konkrete Umsetzung benötigt ein effizientes, nachvollziehbares und standardisiertes Vorgehen, um kontinuierlich Mehrwert aus Daten zu generieren. 

SAP hat eine flexibel einsetzbare Methode entwickelt, um die passende Lösungsarchitektur für konkrete daten-getriebene Unternehmensziele ('Business Outcomes') zu entwickeln. Durch die Analyse von Anpassungsbedarfen in der Organisation wird die Implementierung ganzheitlich über einer Roadmap geplant. 

Wir geben einen Überblick über das Vorgehensmodell, wichtige Werkzeuge und Artefakte und zeigen die Anwendung der Methode an einem konkreten Kundenbeispiel.

Alexander Bange ist ein Prinicipal Enterprise Architect von SAP. Er ist Teil der SAP-Beratungsorganisation Business Transformation Services (SAP BTS), die Kunden gesamtheitlich bei der strategischen Planung und operativen Durchführung von digitalen Geschäftstransformationen unterstützt. 
Alexander arbeitet seit 24 Jahren in unterschiedlichen Rollen (IT-Projektmanager, IT-Manager, SAP Integration Consultant und Enterprise Architect) bei internationalen Konzernen der Branchen High Tech, Pharma, Retail and Consulting. 
In seiner aktuellen Rolle ist er als strategischer Berater für strategische SAP-Schlüsselkunden tätig. Er hilft diesen Unternehmen, die passende IT-Architektur zu definieren und die Umsetzungsplanung im Kontext strategischer Rahmenbedingungen zu entwickeln. 
Alexander tritt als Präsentator auf verschiedenen SAP und DSAG Events auf. 

Alexander Bange
Alexander Bange
Vortrag: Do 4.1

Vortrag Teilen

09:00 - 09:45
Do 5.1
Cloud-driven Innovation: in 100 Tagen zur BI-Plattform
Cloud-driven Innovation: in 100 Tagen zur BI-Plattform

VR-NetWorld's 'Business Intelligence Platform'-Projekt setzte auf die Microsoft Azure Cloud, um entscheidende betriebliche Herausforderungen zu meistern. Die Einführung eines fortschrittlichen Data Warehouses und Power-BI-Tools transformierte die Datenanalyse und -verwaltung. Unter 100 Tagen implementiert, führte die Lösung zu erheblichen Effizienzsteigerungen und Kosteneinsparungen, unterstützt durch die Anpassungsfähigkeit von Azure. Dieses Vorhaben unterstreicht den Mehrwert der Cloud-Technologie für die Förderung des Unternehmenserfolges.

Zielpublikum: Daten-Architekten, Datenanalysten und Business-Intelligence-Experten, Projektmanager und Entscheidungsträger im IT-/Daten-Bereich, Unternehmen, die sich für die digitale Transformation interessieren, Cloud-Technologie-Begeisterte
Voraussetzungen: Grundverständnis von Cloud-Computing, Grundkenntnisse in Microsoft Azure, Grundverständnis in Datenverwaltung & -analyse
Schwierigkeitsgrad: Advanced

Extended Abstract:
Das Projekt 'Business Intelligence Platform', initiiert von der VR-NetWorld GmbH und begleitet von der CINTELLIC Consulting GmbH, konzentriert sich auf die Lösung von vier zentralen Herausforderungen: Zuerst die hohe Wartungsintensität des bestehenden Altsystems; zweitens die inhaltlichen Einschränkungen, die sich aus der komplexen Handhabung und den aufwendigen Änderungen ergeben; drittens, die Belastung durch komplexe Datenstrukturen aufgrund der Vielzahl von Cloud- und On-Premises-Systemen; und viertens, die Hemmnisse in der technologischen Entwicklung, die durch veraltete Technologien verursacht werden. Vor diesem Hintergrund plante die VR-NetWorld die Implementierung eines Data-Warehouse-Systems und ein darauf aufbauendes Reporting-Tool, welches die Basis für visualisierte Reports für die Stakeholder schaffen soll. Dieser Schritt wird eine umfassende Datenbasis für eine ganzheitliche Reporting-Landschaft etablieren und Blaupausen für verschiedene Fachbereiche und Anwendungsfälle zur Verfügung stellen. Das Projekt zielt darauf ab, skalierbar und kosteneffizient zu sein und gleichzeitig eine einfache Wartbarkeit zu bieten, um den dynamischen Anforderungen der VR-NetWorld gerecht zu werden. Die Anforderungen waren zum einen die Nutzung von Microsoft Azure Cloud Services, da bereits eine Cloud-Middleware in Azure aufgebaut wurde und eine Modernisierung der Systemlandschaft basierend auf Cloud-Produkten von Microsoft angestoßen wurde, sowie die vollständige Historisierung des Datenbestandes und die Implementierung des Reporting-Tools Power BI.

Das Projekt startete mit der Anforderung, Microsoft Azure Cloud als technologische Basis zu nutzen. Diese Vorgabe bildete das Fundament für alle weiteren Entwicklungen und garantierte eine zuverlässige und flexible Plattform. Im nächsten Schritt des Projekts widmete sich das Team der Integration und Verarbeitung von Daten, wobei ein besonderer Fokus auf der Implementierung eines Data Warehouses in Azure lag. Dieser Schritt war entscheidend, um verschiedene Datenquellen effizient in das System einzubinden und zu verarbeiten. Das Ziel war es, einen nahtlosen Datenfluss und eine optimierte Nutzung der Daten zu gewährleisten. Durch das Data Warehouse in Azure wurde eine zentrale, konsolidierte Datenbasis geschaffen. Ein zentraler Bestandteil des Projekts war die Gewährleistung von Sicherheit und Zuverlässigkeit. Es wurden Maßnahmen implementiert, um sensible Informationen sicher zu speichern und regelmäßige Datenbackups zu gewährleisten. Zudem wurde ein besonderer Fokus auf die transparente und nachvollziehbare Speicherung der Datenhistorie gelegt, um die Integrität der Daten zu sichern.

Die Entscheidung für die Azure Cloud spiegelt das Bestreben wider, eine kosteneffiziente Lösung zu schaffen, die besonders für mittelständische Unternehmen attraktiv ist. Im Vergleich zu anderen vorgefertigten Lösungen bietet diese maßgeschneiderte Plattform eine flexible, skalierbare und kostengünstige Alternative. Durch die Nutzung von Azure-Cloud-Diensten sowie Cloud Middleware und automatisierten Prozessen können Unternehmen signifikante Kosteneinsparungen erzielen. Sie zahlen nur für die Ressourcen, die sie tatsächlich nutzen, und minimieren den administrativen Aufwand. Dies bietet einen erheblichen finanziellen Vorteil im Vergleich zu On-Premises-Lösungen, die oft hohe Vorabinvestitionen und laufende Wartungskosten erfordern. Das Projekt wurde in weniger als 100 Tagen umgesetzt und demonstrierte eindrucksvoll, wie moderne Technologie genutzt werden kann, um betriebliche Effizienz zu steigern und gleichzeitig Kosten zu senken.

Microsoft Azure Cloud wurde aufgrund seiner Skalierbarkeit, Flexibilität und des umfangreichen Funktionsumfangs als Hauptplattform gewählt. Eine spezielle Cloud-Middleware wurde entwickelt, um externe Datenquellen nahtlos zu integrieren. Für On-Premise-Datenquellen wurde eine Self-Hosted Integration Runtime eingerichtet, um eine sichere Datenübertragung in die Cloud zu ermöglichen. Azure Data Factory wurde als primäres Tool für die Datenverarbeitung genutzt, um Datenpipelines zu erstellen, die Daten integrieren, transformieren und für Analysen vorbereiten. Azure Key Vault wurde zur sicheren Speicherung von Schlüsseln und sensiblen Informationen verwendet, während Azure Functions für die Datenintegrität und automatisierte Backups eingesetzt wurden. Microsoft Azure SQL, insbesondere mit System Versioned Tables, wurde für die Speicherung und Historisierung von Daten genutzt, um Änderungen auf Zeilenebene zu verfolgen und eine klare Trennung zwischen aktuellen und historischen Daten zu ermöglichen.

Das Projekt 'Business Intelligence Platform', umgesetzt mit einer Azure-Cloud-basierten Lösung, stellt einen Meilenstein in der Steigerung betrieblicher Effizienz und der Kostensenkung dar. Es demonstriert eindrucksvoll, wie durch die erfolgreiche Integration, Sicherung und Optimierung von Daten signifikante Verbesserungen in kürzester Zeit erreicht werden können.

Alexander Faber ist Bereichsleiter Portfolio und Portfolio Manager Cloud, Data & Reporting bei CINTELLIC. Mit langjähriger Erfahrung als Berater in den Branchen Banken & Versicherungen, Handel & Industrie, v.a. im Bereich Kundendatenmanagement, Data Governance & Reporting.

Niklas Scheiwe ist als Senior Consultant mit Fokus auf Data- und Cloud-Engineering für die CINTELLIC tätig. Während seiner jahrelangen Laufbahn hat er diverse Implementierungsprojekte von cloudbasierten Systemen verantwortet. Darüber hinaus ist er nebenberuflich als Hochschuldozent tätig.

Alexander Faber, Niklas Scheiwe
Alexander Faber, Niklas Scheiwe
Vortrag: Do 5.1

Vortrag Teilen

09:00 - 09:45
Do 6.1
Corporate Analytics als Navigationsinstrument
Corporate Analytics als Navigationsinstrument

In diesem Vortrag beleuchten wir die anhaltende Relevanz von Corporate Analytics für die Unternehmensführung, die nahtlose Integration von Data Scientists in bestehende Analyseplattformen und die Umsetzung zentralisierter Kommunikation in multinationalen Konzernen. Ziel ist es, darzulegen, wie Corporate Analytics als strategisches Werkzeug dient, um eine robuste, datengesteuerte Entscheidungskultur zu fördern und somit die Unternehmensleistung zu optimieren.

Zielpublikum: Data Analysts, Data Scientists, Management, Decision Makers
Voraussetzungen: Basic knowledge in Data Analytics
Schwierigkeitsgrad: Basic

Christian Klinge ist seit über 12 Jahren im Bereich Datenanalyse und -visualisierung aktiv. Dabei hat er eine große Bandbreite an praktischen Erfahrungen im Consulting und Projekt- & Produktmanagement sammeln können. Aktuell verantwortet er die zentralen Analytics-Plattformen sowie die globalen Standards und Prozesse für BI bei Hapag-Lloyd.

Vera Schulz ist seit über 10 Jahren beratend im Bereich Business Intelligence & Data Analytics tätig. Mit ihrem Team verantwortet sie sowohl Analytics-Projekte als auch Themen rund um Cloud-Datenplattformen. Ihre Anerkennung als TDWI-Expertin dieses Jahr zeugt von ihrer tiefen Branchenkenntnis und ihrem Engagement für datengesteuerte Geschäftslösungen.

Christian Klinge, Vera Schulz
Christian Klinge, Vera Schulz
Vortrag: Do 6.1

Vortrag Teilen

09:00 - 12:10
Do 7.1
Datenvisualisierung – die relevanten Daten vor Augen
Datenvisualisierung – die relevanten Daten vor Augen

Agieren auf Basis von Daten erfordert eine leicht verständliche visuelle Präsentation von Analysenergebnissen. Sie lernen, wie das menschliche Gehirn visuelle Informationen aufnimmt, warum visuelle Ebenen dabei wichtig sind, wie wir visuelle Analysen planen sollten und wie gezielt unterschiedliche Zielgruppen über statische und interaktive Medien adressiert werden. Mit praktischen Übungen und Cheat-Sheet als Take-Away. Für alle, die praktischen Nutzen aus Datenanalysen ziehen wollen.

Zielpublikum: Fachanwender:innen, die mit Daten steuern oder die Informationen visuell bereitstellen müssen
Voraussetzungen: Interesse an der Vermittlung von Fakten mithilfe visueller Darstellungen
Schwierigkeitsgrad: Basic

Extended Abstract:
Die erfolgreiche Vermittlung von Daten erfordert, dass Analysenergebnisse visuell verständlich präsentiert werden. Doch was bedeutet 'gut verstehen' in diesem Zusammenhang genau? Dieser Workshop beleuchtet:

  • die Art und Weise, wie das menschliche Gehirn visuelle Informationen aufnimmt.
  • die Bedeutung des Konzepts visueller Ebenen, um Informationen effektiv zu präsentieren.
  • die strategische Planung visueller Analysen, um die Wahrnehmung zu beeinflussen.
  • die gezielte Ansprache verschiedener Zielgruppen über statische und interaktive Medien.

Der Workshop basiert auf dem Buchkapitel 'Datenvisualisierung' aus dem Buch 'Datenkompetenz' (doi.org/10.3139/9783446477438). In den Workshop werden praktische Übungen anhand von Beispielen eingebaut und Teilnehmer erhalten ein Cheat-Sheet, anhand dessen sie zukünftig gezielt bessere Visualisierungen planen können.

Ideal für jene, die aus Datenanalysen praktischen Nutzen in ihrem beruflichen Kontext ziehen möchten.

Prof. Dr. Roland Zimmermann ist ein Architekt für die Entwicklung anspruchsvoller IT-Systeme im Bereich Datenanalyse. Seine Lösungen umfassen die Definition von Indikatoren auf Basis von Erfolgsfaktoren, das Management von Daten (Analyse von Quellen, Integrationskonzepte, Automatisierungslösungen), die Konzeption integrierter Analytiklösungen (Multidimensionale Analysen, Process Mining und KI-gestütztes Maschinelles Lernen) sowie die Präsentation von Ergebnissen (Informationsdesign, Interaktionskonzepte, UI/UX).

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei:  https://www.sigs.de/autor/roland.zimmermann

Roland Zimmermann
Roland Zimmermann
Track: Hands-On
Vortrag: Do 7.1

Vortrag Teilen

09:00 - 09:45
Do 8.1
Das LCDP-Reifegradmodell – aktuelle Forschungsergebnisse
Das LCDP-Reifegradmodell – aktuelle Forschungsergebnisse

Die Implementierung und Anwendung von Low-Code Development Platforms (LCDPs) erfordert einen strukturierten Managementansatz. Der Vortrag stellt ein entwickeltes LCDP-Reifegradmodell als Steuerungsinstrument für Manager:innen vor, welches auf Erkenntnissen aus +10 Unternehmensstudien mit KMUs und Konzernen basiert. Die Ergebnisse zeigen zudem LCDP-spezifische Managementphasen auf und leiten daraus acht Schlüsselfaktoren für eine erfolgreiche LCDP-Adoption ab.

Zielpublikum: Business- und IT-Entscheider:innen, Führungskräfte und Mitarbeitende für Themen wie bspw. Enterprise Architecture, Governance, Workplace, Platform etc.
Voraussetzungen: Erste Erfahrungen und Verständnis von LCDPs reichen aus
Schwierigkeitsgrad: Basic

Extended Abstract:
In der heutigen schnelllebigen Geschäftswelt spielen Low-Code Development Platforms (LCDPs) eine zentrale Rolle bei der Beschleunigung der digitalen Transformation und der Demokratisierung der Softwareentwicklung. Durch die Ermöglichung für Fachbereichs- und IT-Mitarbeitende, eigene IT-Lösungen zu entwickeln und zu betreiben, bieten LCDPs eine einzigartige Gelegenheit, die Agilität und Effizienz in Unternehmen zu steigern. Trotz des beträchtlichen Potenzials von LCDPs stehen viele Organisationen vor Herausforderungen, da es ihnen an strategischer Orientierung und einem fundierten Verständnis für das Management dieser Plattformen fehlt.

Der Vortrag zielt darauf ab, ein neu entwickeltes LCDP-Reifegradmodell als Steuerungsinstrument zu präsentieren, das Organisationen dabei unterstützt, die ersten Schritte hin zu einer erfolgreichen Adoption von LCDPs zu navigieren. Basierend auf umfangreichen Unternehmensstudien, die in mehr als 10 KMUs und Großkonzernen durchgeführt wurden, identifiziert dieser Ansatz 23 organisationale Fähigkeiten, die für die effektive Nutzung von LCDPs entscheidend sind. Das Modell unterteilt sich in sechs Maturitätsstufen für jede dieser Fähigkeiten, wodurch Unternehmen eine klare Richtung für die Entwicklung ihrer LCDP-Kompetenzen erhalten.

Darüber hinaus bietet der Vortrag Einblicke in einen möglichen Managementansatz hin zu einer erfolgreichen LCDP-Adoption, der auf acht Schlüsselfaktoren basiert. Diese Faktoren umfassen unter anderem die Notwendigkeit einer organisationsspezifischen LCDP-Vision und eines adaptiven LCDP-Governance-Ansatzes.

Niculin Prinz ist IT Strategy Consultant bei der BITCO³ GmbH und promoviert berufsbegleitend an der HTWG Konstanz und der TU Bergakademie Freiberg über das Management von Low-Code Development Platforms. Als studierter Ingenieur und heutiger IT-Unternehmensberater entwickelt und vermittelt er dabei Methoden und Management-Ansätze für eine gemeinsame Sprache zwischen Business und IT.

Niculin Prinz
Niculin Prinz
Vortrag: Do 8.1

Vortrag Teilen

09:55 - 10:40
Do 1.2
Confluence: Joining Governance Streams to form Data Products
Confluence: Joining Governance Streams to form Data Products

How can Data Cataloguing, Modelling, DQ and other streams join forces to create business value? The speaker shares experience from a data vendor and a manufacturing business.

Target Audience: Data Professionals and decision makers with stakes in the value chain big picture
Prerequisites: Familiarity with Data Governance concepts (Catalogue, Quality, Integration etc.)
Level: Advanced

Extended Abstract:
Data Governance can contribute local optimizations to a company's value chain, such as better data discovery via a Data Catalogue, or quality-monitored and cleansed data sets. From a 30,000 ft Data Strategy view, it is even more desirable to connect the dots for business objects frequently reused among business processes and make them available as governed, quality-controlled, easily accessible Data Products.

The speaker successfully launched a Data Governance program in a company traditionally ranking metal higher than data and will share experiences on the ongoing Data Product journey:

  • Identifying scope
  • Cataloging technical metadata
  • Modeling a logical layer
  • Managing sensitive data in a hybrid architecture
  • Simplifying cross-system access

Dominik Ebeling is a CDMP-certified data and technology manager with more than ten years of international experience in start-up and enterprise contexts. He is passionate about building and developing successful teams, optimizing global processes and structures, and turning data into solutions for customer problems. In his current role as Head of Data Governance at Rolls-Royce Power Systems, Dominik is developing a long-standing manufacturing business into a data-driven organization.

Dominik Ebeling
Dominik Ebeling

Vortrag Teilen

09:55 - 10:40
Do 2.2
GenAI macht die Betonherstellung grüner – ein Praxisbericht
GenAI macht die Betonherstellung grüner – ein Praxisbericht

Seit ChatGPT der Öffentlichkeit zur Verfügung steht, ist generative Künstliche Intelligenz (GenAI) in aller Munde. Anwendungsfälle für GenAI konzentrieren sich meist noch auf die Bereiche Wissensmanagement, Process-Automation, Content-Creation und die Unterstützung kreativer Aufgaben. Doch liefert GenAI auch einen Mehrwert bei prädiktiven Aufgaben? In diesem Vortrag stellen wir ein Praxisbeispiel aus der Bauindustrie vor, bei dem GenAI zur Findung alternativer, umweltfreundlicherer Mischungsrezepturen für Zement und Beton herangezogen wird.

Zielpublikum: Data Scientists, IT-Entwickler und Forscher
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced

Extended Abstract:
Die Bauindustrie und insbesondere die Beton- und Zementherstellung tragen massiv zum weltweiten CO2-Ausstoß bei. Gleichzeitig ist Beton als Baustoff in weiten Bereichen als alternativlos zu betrachten. CO2-optimierte Betonrezepturen bergen entsprechend enormes Potenzial für den Umweltschutz und stehen im Fokus der Forschung. Neben verbesserter Umweltfreundlichkeit müssen diese allerdings weiterhin Mindestanforderungen an mechanische Eigenschaften, wie beispielsweise der Druckfestigkeit, erfüllen. Schließlich müssen ebenso Faktoren wie Kosten und Verfügbarkeit berücksichtigt werden.

Die Suche nach neuen Varianten ist bisweilen sehr aufwendig: Typische Rezepturen werden durch Charakteristika wie Mischverhältnisse verschiedener Zementalternativen, Wassergehalt und Herstellungsprozess beschrieben. Während sich die CO2-Bilanz des Herstellungsprozesses auf Basis dieser Parameter heuristisch abschätzen lässt, ist es a priori nicht möglich, Eigenschaften wie Druckfestigkeit des resultierenden Materials auf Basis von Modellen vorherzusagen. Zeitaufwendige und kostenintensive Experimente sind notwendig, um diese zu ermitteln.

Auf der TDWI 2023 stellten wir bereits unsere Erfahrungen mit Sequential Learning zur Findung CO2-optimierter Betonrezepturen vor. Zusammen mit Kolleginnen und Kollegen der Bundesanstalt für Materialforschung und -prüfung (BAM) haben wir im Detail die Implikationen dieses Ansatzes für die Betonforschung analysiert. Durch Sequential Learning wird Schritt für Schritt ein Algorithmus mit neuem Wissen aus dem Labor angereichert und somit werden Vorhersagen iterativ verbessert. Eingebettet wurde dieses Prinzip in SLAMD, einer Webapp, die wir mit der BAM entwickelt haben. Diese stellt intuitive Funktionen für eine konkrete experimentelle Kampagne zur Verfügung und ermöglicht es so, die beschriebenen Ideen schneller umzusetzen.

Dieses Jahr berichten wir aus einem weiterführenden Projekt mit der TU Berlin und stellen unsere Erfahrungen mit dem Einsatz von Large Language Models (LLMs) zur Findung neuer Betonrezepturen vor. LLMs wie beispielsweise ChatGPT von OpenAI bieten gegenüber traditionelleren KI-Methoden den Vorteil, dass man mit ihnen in natürlicher Sprache über Prompts interaktiv kommunizieren kann. Die Zugänglichkeit für nicht IT-affine Anwender wird dadurch deutlich erhöht. Um das Potenzial von LLMs anhand robuster statistischer Analysen zu evaluieren, haben wir im Rahmen eines wissenschaftlichen Papers diverse Promptingstrategien für den Einsatz von LLMs im Bereich Sequential Learning verprobt und gebenchmarkt. Es zeigt sich: Mit den richtigen Strategien sind LLMs in der Lage, andere datengetriebene Ansätze zu schlagen. Das Potenzial des Ansatzes ist also deutlich erkennbar. Auf Basis der Ergebnisse haben wir SLAMD um einen LLM-basierten Bot erweitert, der Sequential Learning in natürlicher Sprache ermöglicht. Die vielversprechenden Ergebnisse zeigen, dass ein Ansatz über LLMs den Findungsprozess vereinfacht und gleichzeitig die Zugänglichkeit zu KI-Anwendungen erhöht.

Stefan Lüders ist studierter Physiker, der seit dem Studium seine Leidenschaft für Daten bei iteratec weiterverfolgt. Als erfahrener AI & Data Engineer befindet er sich an der Schnittstelle zwischen Data Science, Data Engineering, GenAI und klassischer Softwareentwicklung.

Stefan Lüders
Stefan Lüders
Vortrag: Do 2.2

Vortrag Teilen

09:55 - 10:40
Do 3.2
Frisch aus der Fabric – Analytics bei Scherdel
Frisch aus der Fabric – Analytics bei Scherdel

Die Scherdel GmbH setzt international Maßstäbe bei der Verarbeitung von metallischem Draht und Band. Das bestehende DWH auf Basis MSSQL, welches über 15 Jahre von verschiedenen Entwicklern aufgebaut wurde, wird Schritt für Schritt modernisiert und in der Azure Cloud aufgesetzt. Im ersten Schritt wurden die Grundlagen geschaffen und ein erster Cube umgesetzt. Als Lösung setzen wir auf MS Fabric, obwohl es erst mit Projektbeginn allgemein verfügbar war. Wir stellen das Projekt vor und berichten über unsere Erfahrungen mit Microsoft Fabric.

Zielpublikum: Data Engineers, Architekten, Projektverantwortliche
Voraussetzungen: Basiswissen Analytics
Schwierigkeitsgrad: Basic

Extended Abstract:
Die Scherdel GmbH setzt seit über 130 Jahren als mittelständisch geprägtes, inhabergeführtes Familienunternehmen international Maßstäbe bei der Verarbeitung von metallischem Draht und Band. Das bestehende DWH auf Basis MSSQL, welches über 15 Jahre hinweg von verschiedenen Entwicklern aufgebaut wurde, soll Schritt für Schritt modernisiert und in der Azure Cloud aufgesetzt werden. In einem ersten Schritt wurden die Grundlagen der neuen DIP (Dateninformationsplattform) geschaffen und ein erster Cube umgesetzt. Bei der Lösung setzen wir auf Microsoft Fabric, obwohl es erst nach Projektbeginn allgemein verfügbar war. Im Vortrag berichten wir über unsere ersten Erfahrungen und Herausforderungen in der Verwendung von Microsoft Fabric.

Benjamin Schenk ist seit nun 2 Jahren Teamlead Operating Enterprise Applications bei der SCHERDEL GmbH. Neben seinen Spezialkenntnissen für Datenbanken (MSSQL & Oracle) kümmert er sich um den Betrieb von Enterprise-IT-Services, egal ob OnPrem oder in der Cloud. Die Umsetzung eines Standards für den Betrieb von IT-Services und Automatisierung sind nur einige Teilgebiete seines Teams.

Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet im Bereich Corporate Development der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.

Benjamin Schenk, Jens Bleiholder
Benjamin Schenk, Jens Bleiholder
Vortrag: Do 3.2

Vortrag Teilen

09:55 - 10:40
Do 4.2
Data Management & BI Architekturen für ESG & CSRD Reporting
Data Management & BI Architekturen für ESG & CSRD Reporting

Um Nachhaltigkeit in Unternehmensentscheidungen zu berücksichtigen und gesetzlichen Verpflichtungen der Nachhaltigkeitsberichterstattung (CSRD) nachzukommen, müssen BI- und Data-Management neue Informationsbedarfe und funktionale Anforderungen bedienen. In dieser Session diskutieren wir ESG Reporting & Performance Management aus IT- und Data-Management-Sicht:

  1. ESG Funktionale Anforderungen und Datenmodelle
  2. ESG Lösungsarchitekturen: Datengenerierung, Datenplattform, Frontend
  3. ESG Softwareauswahl
  4. Einsatzmöglichkeiten von AI

Zielpublikum: CIO, Head of BI & Analytics, BI Engineers, Data Engineers, ESG Reporting Specialists, Controller, Accountants
Voraussetzungen: Grundkenntnisse  über ESG-Daten (Environmental, Social, Governance)
Schwierigkeitsgrad: Basic

Thomas Johanndeiter arbeitet als Principal bei Horváth und hat über 11 Jahre Consulting-Erfahrung im Bereich Contolling & Finance, BI & Data-Management. Er berät Unternehmen zu BI & Data Strategy und leitet Projekte für die Einführung von BI-, Planungs- und Data-Warehousing-Lösungen. Thomas unterstützt zudem Unternehmen beim Aufbau von Datenplattformen für ESG-Reporting und Performance-Management. 
Thomas ist Wirtschaftsinformatiker (M. Sc.) der Universität Duisburg-Essen.

Thomas Johanndeiter, Carsten Breithaupt, Luis Ortiz-Sanchez
Thomas Johanndeiter, Carsten Breithaupt, Luis Ortiz-Sanchez
Vortrag: Do 4.2

Vortrag Teilen

09:55 - 10:40
Do 5.2
Open Source im Gesundheitsbereich? Ja, Open Source!
Open Source im Gesundheitsbereich? Ja, Open Source!

Zusammen mit der GWQ ServicePlus AG zeigen wir, wie durch eine All-In-One-Open-Source-Lösung auf Basis von Kubernetes datenschutzkonforme und sichere Anwendungen nach neusten Standards entwickelt werden können.

Zielpublikum: Data Engineers, Architects, Decision Makers
Voraussetzungen: Erfahrung in Data Engineering, Cloud Native
Schwierigkeitsgrad: Advanced

Extended Abstract:
Viele Unternehmen stehen vor der Frage: Make (offene Lösung auf Open-Source-Basis) or Buy (anpassbare Insellösung)? Gerade im Gesundheitsbereich spielen Daten-Sicherheitsaspekte eine große Rolle, daher wird in diesem Vortrag aufgezeigt, wie diese Sicherheit mit Open Source gewährleistet werden kann. Die GWQ ServicePlus AG als Tochter gesetzlicher Krankenkassen hat dazu eine hochsichere Open-Source-Kubernetes-Plattform eingerichtet - mit dem Ziel: Public Cloud.

Zusammen mit der GWQ ServicePlus AG zeigen wir, wie durch eine All-In-One-Open-Source-Lösung auf Basis von Kubernetes datenschutzkonforme und sichere Anwendungen nach neusten Standards entwickelt werden können.

Das Ziel ist die Bereitstellung einer hochsicheren Produktiv-Umgebung, damit Anwendungen und Apps für die über 20 Mio. Versicherten der mittelständischen Kranken- und Innungskassen in der Public Cloud zur Verfügung gestellt werden können.

Kernelemente sind SUSE Rancher, mit dem Cluster übersichtlich gemanagt werden können, sowie SUSE NeuVector, mit dem die Umsetzung eines Sicherheitskonzeptes nach DSGVO möglich ist.

Der wesentliche Baustein ist jedoch das neu eingeführte DevSecOps (Development, Security & Operations)-Konzept, mit dem klar definiert wird, wo welche Verantwortlichkeiten und Aufgaben liegen. Auf diese Weise wurde ein Strukturwandel angestoßen, der unter anderem kleinere Inkremente für Anwendungen ermöglicht, das heißt, ein Update einer Anwendung ist in kürzester Zeit umsetzbar - mögliche Sicherheitslücken können sofort geschlossen werden.

Die Bereitstellung dieser komplett neuen hochsicheren Entwicklungsumgebung mit entsprechenden Entwicklungssystemen und Security- und Observability-Tools On-Premise erfolgte innerhalb von drei Monaten. Dabei wurde die komplette Installation portabel gestaltet, sodass sich mit dieser Installation eine Portierung in die Public Cloud ermöglichen lässt.

Marie Padberg hat an der Universität Duisburg-Essen Angewandte Informatik (B. Sc.) und die Fächer Physik und Musik (in Kooperation mit der Folkwang Universität der Künste) mit Lehramtsoption (M. Ed.) studiert.
Während des Studiums hat sie sich auf den Bereich der Künstlichen Intelligenz, vor allem Natural Language Processing und Bildverarbeitung, fokussiert.
Bei der infologistix konzentriert sie sich seit 2022 auf die Realisierung von cloud-nativen Plattformen auf Basis von Kubernetes.

Wolfgang Perzl hat Informatik mit Nebenfach Wirtschaftswissenschaften an der Technischen Universität München studiert. Der Dipl.-Informatiker startete seine berufliche Laufbahn beim Datenbankhersteller Informix Software und kam über mehrere technische und internationale Managementpositionen unter anderem bei der späteren Ascential Software zur IBM Deutschland. 
Nach weiteren Stationen gründete Wolfgang Perzl 2013 schließlich die infologistix GmbH als unabhängige IT-Consulting-Firma mit den Schwerpunkten Data Warehousing und BI. Als Geschäftsführer führt er gemeinsam mit René Schiebeck das operative Geschäft der infologistix und verantwortet die Bereiche Personal, Marketing und Business Development/Big Data.

Sascha Wiskandt, Marie Padberg, Wolfgang Perzl
Sascha Wiskandt, Marie Padberg, Wolfgang Perzl
Vortrag: Do 5.2

Vortrag Teilen

09:55 - 10:40
Do 6.2
Datenkompetenz als Kernbestandteil digitaler Transformationen
Datenkompetenz als Kernbestandteil digitaler Transformationen

Die Präsentation hebt die zentrale Rolle der Datenkompetenz in der modernen digitalen Wirtschaft hervor. Sie beginnt mit einer Diskussion über die Bedeutung von Daten in verschiedenen Branchen und geht auf die Herausforderungen im Umgang mit Daten ein, wie z.B. Datenschutz und die Komplexität der Datenanalyse. Der Hauptteil der Präsentation konzentriert sich auf Datenkompetenz als Lösung für diese Herausforderungen, untermauert durch konkrete Praxisbeispiele.

Zielpublikum: Die Fachabteilungen innerhalb des Unternehmens, insbesondere diejenigen, die mit Daten arbeiten und von Self-Services innerhalb des Unternehmens betroffen sind
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Die Präsentation 'Steigerung der Datenkompetenz als Kernbestandteil digitaler Transformationen' zielt darauf ab, die Bedeutung von Datenkompetenz in der heutigen digitalisierten Welt hervorzuheben. Sie beginnt mit einer Einführung in die Rolle von Daten in verschiedenen Industrien und diskutiert die Herausforderungen im Umgang mit Daten, einschließlich Datenschutz und Komplexität von Datenanalyse-Tools. Der Fokus liegt auf der Darstellung von Datenkompetenz als Schlüssellösung für diese Herausforderungen.

Durch Praxisbeispiele wird aufgezeigt, wie Unternehmen ihre Datenkompetenz verbessern können. Eine Diskussionsrunde regt zur Reflexion darüber an, wie jedes Unternehmen von einer gesteigerten Datenkompetenz profitieren kann. Die Präsentation behandelt auch aktuelle technologische Entwicklungen in der Datenanalyse und deren Einfluss auf die Datenkompetenz.

Sie endet mit einem Aufruf zum Handeln, motiviert das Publikum zur Förderung der Datenkompetenz in ihren Organisationen und bietet eine Gelegenheit für Fragen und Antworten. Ziel ist es, das Publikum inspiriert, motiviert und mit dem nötigen Wissen ausgestattet zu entlassen, um Datenkompetenz in ihren jeweiligen Bereichen effektiv zu implementieren und zu nutzen.

Dilyana Bossenz ist Gründerin von Datenkompetenz-Online und Dozentin für Data Visualization & Communication an der Digital Business University of Applied Sciences (DBU).
Sie arbeitete mehrere Jahre als BI-Beraterin bei Good Healthcare Group GmbH, Ceteris AG und M2.technology & project consulting GmbH. Gleichzeitig war sie bei M2 in leitender Funktion als Enablement Managerin tätig. Ihre Aufgabe war es, dafür zu sorgen, dass sowohl Kunden als auch Mitarbeiter:innen den richtigen Umgang mit Daten erlernen. In ihrer beruflichen Laufbahn hatte sie bereits eigenständig Trainings entwickelt und durchgeführt. Im Jahr 2023 absolvierte sie erfolgreich die Ausbildung zur KI-Trainerin am AI Training Institute und unterrichtet seither den Einsatz von KI-Tools bei der Arbeit mit Daten.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/dilyana_bossenz

Dilyana Bossenz
Dilyana Bossenz
Vortrag: Do 6.2

Vortrag Teilen

09:55 - 10:40
Do 8.2
Der Data Catalog aus wissenschaftlicher Perspektive
Der Data Catalog aus wissenschaftlicher Perspektive

Data Catalogs erfreuen sich zunehmender Beliebtheit in der freien Wirtschaft. In der Wissenschaft hingegen konnte der Trend bisher nur schwerfällig Fuß fassen. Im Vortrag werden die in der wissenschaftlichen Literatur vertretenen Konzepte vorgestellt und miteinander verglichen. Dabei stehen Schwerpunkte, Gemeinsamkeiten und Unterschiede sowie Funktionsumfänge im Vordergrund. Sowohl Einsteiger als auch Fortgeschrittene können sich auf neue Ideen und Perspektiven freuen.

Zielpublikum: alle Interessierten
Voraussetzungen: Grundkenntnisse in Datenmanagement und Datenkompetenz
Schwierigkeitsgrad: Basic

Extended Abstract:
Die strukturierte Vorhaltung und Nutzung von Metadaten bietet großes Potenzial, um den eigenen Datenbestand besser verstehen zu können. Daher erfreuen sich Data Catalogs zunehmender Beliebtheit in der freien Wirtschaft. IBM, Azure, Oracle, Google - viele große Softwareunternehmen verfügen über eigene Interpretationen und Implementationen der Data-Catalog-Ideen.

In der Wissenschaft hingegen konnte der Trend bisher nur schwerfällig Fuß fassen. Die ersten Arbeiten zur Thematik stammen aus dem Jahr 2016. Erst seit 2020 sind Data Catalogs häufiger im Rahmen der Forschung zu Data Lineage und Data Literacy vertreten. Die Präsentation von Schemata zur Konstruktion und Architektur spielt dabei eine wichtige Rolle.

Im Vortrag werden die in der wissenschaftlichen Literatur vertretenen Konzepte vorgestellt und miteinander verglichen. Dabei stehen Schwerpunkte, Gemeinsamkeiten und Unterschiede sowie Funktionsumfänge im Vordergrund.

Einsteiger kommen auf ihre Kosten, da ein audienzbezogen aufbereiteter Einblick in die aktuellen wissenschaftlichen Erkenntnisse möglich wird. Interessant sind derartige Arbeiten weiterhin für Unternehmen, die selbst einen Data Catalog als Softwareprodukt entwickeln wollen. Daher werden auch Fortgeschrittene mit neuen Perspektiven und Ideen versorgt. Die Inhalte des Vortrags sind Teil eines Promotionsvorhabens an der TU Chemnitz. Dabei wird der Data Catalog als Tool zur Steigerung der Datenqualität in Unternehmen verstanden. Die Zielsetzung der Promotion ist der Entwurf und der Test einer Referenzarchitektur mit Bezug auf aktuelle Herausforderungen und Hürden von Unternehmen im Bereich der Datenqualität.

Franziska Ullmann ist wissenschaftliche Mitarbeiterin an der Professur Wirtschaftsinformatik II - Systementwicklung & Anwendungssysteme in Wirtschaft und Verwaltung der TU Chemnitz. Sie hat Business Intelligence & Analytics studiert und forscht vorrangig an Datenqualität, Datenmanagement und Datenbanken. Sie veröffentlicht außerdem Beiträge zu verwandten Themen, u.a. im BI-SPEKTRUM.

Tennessee Schrage ist wissenschaftlicher Mitarbeiter an der Professur für Wirtschaftsinformatik I der TU Chemnitz. Er absolvierte ein Masterstudium in Business Intelligence & Analytics und sammelte während seines Studiums praktische Erfahrung in der Entwicklung im Bereich Metadatenmanagement und der Schnittstellenvisualisierung. Seine Forschung konzentriert sich auf IT-Management und Geschäftsprozessmanagement in der Kreislaufwirtschaft.

Franziska Ullmann, Tennessee Schrage
Franziska Ullmann, Tennessee Schrage
Vortrag: Do 8.2

Vortrag Teilen

10:40 - 11:10
Pause
Kaffee & Ausstellung/Coffee & Exhibition
Kaffee & Ausstellung/Coffee & Exhibition

11:10 - 12:10
Do 1.3
Datenkatalog für alle: mit Open Source zum Erfolg
Datenkatalog für alle: mit Open Source zum Erfolg

Schnell und kostengünstig Transparenz in die Datenlandschaft bringen, geht gar nicht? Doch! Mit einem Open-Source-Datenkatalog ...

Doch was macht ein Datenkatalog überhaupt? Welche Vorteile hat die Entscheidung für einen Open-Source-Datenkatalog gegenüber einer kommerziellen Lösung? Was sind mögliche Grenzen, wie fange ich überhaupt an?

Begib dich auf die Reise und werde der Kolumbus deiner Datenschatzinsel!

Zielpublikum: Mitarbeiter aus dem Fachbereich, Führungskräfte, jeder, der Transparenz in seine Daten bringen möchte ...
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Christian Mehwald ist leidenschaftlicher Senior Data Strategist, Experte in der Erzeugung von Datentransparenz. Er verfügt über umfassende Erfahrung in der Beratung von Kommunen und Unternehmen in der Implementierung von Open-Source- und kommerziellen Datenkatalogen.

Christian Mehwald
Christian Mehwald

Vortrag Teilen

11:10 - 12:10
Do 2.3
Agile AI Architectures: Azure MLOps for Dynamic Usecases
Agile AI Architectures: Azure MLOps for Dynamic Usecases

Explore the future of MLOps as we delve into building Azure ML pipelines using OOP. Discover how a generic and reusable MLOps pipeline streamlines new use case initiation. We utilize MLflow for managing the ML lifecycle and model deployments. We leverage OOP and dependency injection to build an MLOps framework, eliminating all the boilerplate and making it easy for our customers to start new use cases. Developers can reuse, inject, or utilize AutoML for training modules. This solution is an accelerator and saves significant development time.

Target Audience: Data Scientists, Engineers, DevOps and all Data Enthusiasts
Prerequisites: Basic knowledge of Data Science, Data Engineering and DevOps
Level: Advanced

Extended Abstract:
In our solution, we integrate Azure AutoML, enabling individuals without expertise in data science to effortlessly deploy state-of-the-art machine learning models onto their datasets. This facilitates the extraction of optimal models, which can subsequently be refined and customized to align with their specific requirements.

Saurabh Nawalgaria is an Experienced Cloud and Data Engineer at Synvert Data Insights specializing in Azure, Kubernetes, Spark, and SQL. Proficient in designing and implementing ETL pipelines. Expert in leading and delivering pivotal Cloud Data Platform Projects. Versatile skills extend to MLOps, AzureML, and MLFlow. Proven ability to contribute significantly to diverse cloud and data engineering initiatives, demonstrating a robust technical acumen.

Mustafa is a seasoned Data Engineer and Architect Consultant at synvert Data Insights. Specializing in Spark, Azure, Databricks, He brings extensive experience in Data and Cloud technologies to his role. With a focus on data engineering and platform projects, he leads the Azure competence cluster. His expertise extends to designing and implementing robust data pipelines, optimizing data workflows, and architecting scalable solutions in Azure environments.

Saurabh Nawalgaria, Mustafa Tok
Saurabh Nawalgaria, Mustafa Tok
Vortrag: Do 2.3

Vortrag Teilen

11:10 - 12:10
Do 3.3
SAP als First-Class-Citizen einer Cloud-Datenplattform
SAP als First-Class-Citizen einer Cloud-Datenplattform

Viele Organisationen kennen das Problem: SAP-Daten sind für viele Use-Cases interessant, aber der Zugriff ist kompliziert oder sehr teuer. Unsere Lösung: Eine Spark Data Source für SAP, die ohne zusätzliche Software oder Module direkt von Databricks auf SAP-Systeme zugreift und damit native Weiterverarbeitung in der Spark-Welt erlaubt. Am Beispiel des Data-Stacks der GEMA zeigen wir, wie die SAP-Integration unsere Data-Mesh-Plattform im Self-Service beflügelt und welche Use-Cases wir damit umsetzen konnten.

Zielpublikum: Data Engineers und alle Daten-Rollen in Organisationen mit SAP-Quellsystemen
Voraussetzungen: Grundkenntnisse in PySpark
Schwierigkeitsgrad: Basic

Martin Zürn treibt als Head of Data Engineering die Weiterentwicklung des Data-Stacks der GEMA voran. Seit 2 Jahren arbeitet die Verwertungsgesellschaft mit einer Self-Service-Datenplattform mit dezentraler Verantwortlichkeit. Aus vielfältigen Datenquellen entsteht so ein Lakehouse, das uns in eine digitale, datengetriebene Organisation transformiert.

Dr. Julius von Ketelhodt gestaltet und entwickelt seit vielen Jahren Data & Analytics-Projekte für namhafte Kunden aus verschiedenen Branchen. Sein Fokus liegt auf der Integration relevanter Daten aus verschiedenen SAP-Quellsystemen in führende Cloud-Datenplattformen. Als Product Lead leitet er ein Team, um die SAP-Integration weiterzuentwickeln und stetig zu vereinfachen. Sein Hintergrund liegt in der Physik mit Promotion im Bereich Seismologie.

Martin Zürn, Julius von Ketelhodt
Martin Zürn, Julius von Ketelhodt
Vortrag: Do 3.3

Vortrag Teilen

11:10 - 12:10
Do 4.3
Intelligent Data Engineering & Integration: A Show Case
Intelligent Data Engineering & Integration: A Show Case

Within this session colleagues from Siemens Financial Services and b.telligent present how they are building jointly an intelligence data integration framework based on Azure Services leveraging the unique advantages of concepts such as generic loading, automated schema evolution to magnify flexibility and how they fine-tune workloads, to ensure a smooth performance and to cost-efficient workload management at the same time.

Target Audience: Technical Experts in Data Warehousing, Data & Cloud Engineering.
Prerequisites: Advanced Knowledge in ETL/ELT Processes, Azure Cloud, Data Integration a/o Data Warehousing
Level: Advanced

Michael Bruckner has over 10 years of experience working in various roles and industries in the field of business intelligence, data analytics, data engineering, and data warehousing. At Siemens Financial Services, he currently leads the Data Management department within the IT department and is driving the development of an enterprise-wide, cloud-based data platform as an IT Program Manager.

Niklas Sander works as a data engineer at Siemens Financial Services GmbH in Munich. Together with colleagues, he is driving the development and expansion of a new cloud data platform. His focus is on topics such as data ingestion, enabling citizen developers, and cost-performance tuning in the Azure Synapse area.

Benjamin Naujoks Roldan works as a platform engineer at Siemens Financial Services GmbH in Munich. His focus is cloud engineering, the development of customized apps, and the seamless integration of different software components into the data platform of Siemens Financial Services.

Daniel works as a Cloud Data Warehouse Architect at Siemens Financial Services GmbH in Munich. He has many years of experience in data-intensive BI and analytics projects. As the lead data architect, he is responsible for the development and expansion of a new cloud data platform. His focus is on cloud architecture, data integration, data modeling, and automation.

Michael Bruckner, Niklas Sander, Benjamin Naujoks Roldan, Daniel Bialas, Matthias Nohl
Michael Bruckner, Niklas Sander, Benjamin Naujoks Roldan, Daniel Bialas, Matthias Nohl
Vortrag: Do 4.3

Vortrag Teilen

11:10 - 12:10
Do 5.3
Technical Debts – der langsame Tod für jedes Data Warehouse
Technical Debts – der langsame Tod für jedes Data Warehouse

Bei der Entwicklung von IT-Systemen, so auch Data Warehouses und analytische Applikationen, kommt es zu unerwünschten Nebeneffekten. Neben Fehlernwerden Abweichungen von Architektur-Vorgaben oder Design Patterns als technische Schuld (Technical debt) bezeichnet. Im Gegensatz zu Fehlern läuft das System zwar korrekt, jedoch hat es Auswirkungen auf die Weiterentwicklung und den Betrieb (Kosten, Zeit, Incidents etc.).

Typische Gruppen von technical Debts werden kurz erklärt, was deren Auswirkungen sind und wie Sie diese vermeiden.

Zielpublikum: Architects, Project Leader, Decision Makers, Developers
Voraussetzungen: Grundlagen in Data Warehousing oder analytischen Infrastrukturen
Schwierigkeitsgrad: Basic

Herbert Stauffer, TDWI Fellow, hat über 30 Jahre Erfahrung in Business Intelligence und Analytics, als Projektleiter, Hochschuldozent und Berater. Seine Schwerpunkte sind Strategie und Architektur sowie Governance und Methodik. Er ist Hauptautor des Buches 'Testen von Data-Warehouse- und Business-Intelligence-Systemen' und Autor des Buches 'Security für DWH- und BI-Systeme'. Er ist Leiter des TDWI-Roundtables in Zürich seit 2009.

Herbert Stauffer
Herbert Stauffer
Vortrag: Do 5.3

Vortrag Teilen

11:10 - 12:10
Do 6.3
Pragmatische und Professionelle BI im Retail-Service
Pragmatische und Professionelle BI im Retail-Service

Was bedeutet es, im Mittelstand 'data driven' zu sein, und wie kann eine BI-Lösung auf pragmatische Weise mit überschaubarem Budget gewachsene Excel-Strukturen ersetzen?

Max erzählt von den Besonderheiten im Retail-Service und warum dort viele Daten anfallen, die teils semi-strukturiert sind. Bei der Datenmodellierung ist deshalb mehr notwendig, als Standards zu nutzen, und so wurden die Möglichkeiten einer modernen BI-Lösung im Microsoft-Umfeld ausgereizt, um das Handling der Daten trotzdem so effizient wie möglich zu machen.

Zielpublikum: Entscheider, Projektleiter, BI-Experten
Voraussetzungen: Grundzüge der Datenmodellierung und Datenbanken sind von Vorteil
Schwierigkeitsgrad: Advanced

Extended Abstract:
Pragmatische und Professionelle BI im Retail-Service

Wofür werden Daten im Retail-Service genutzt? Was bedeutet es, im Mittelstand 'data driven' zu sein, und wie kann eine BI-Lösung auf pragmatische Weise mit überschaubarem Budget gewachsene Excel-Strukturen ersetzen?

Als mittelständischer Dienstleister im Retail-Service steht die SIG Sales GmbH & Co. KG täglich in Kontakt zu Supermärkten und generiert zahlreiche Daten über die Besuche vor Ort.

Diese werden sowohl für die operative Steuerung genutzt, aber auch für umfassende nachgelagerte Analysen.

Max erzählt von den Besonderheiten seiner Branche und warum in seiner Branche vergleichsweise viele Daten anfallen, unter anderem auch semi-strukturierte Daten aus qualitativen Dokumentationen. Im Bereich der Datenmodellierung ist deshalb mehr notwendig, als branchentypische Standards zu nutzen, und so wurden die Funktionen und Möglichkeiten einer modernen BI-Lösung im Microsoft-Umfeld ausgereizt, um das Handling der Daten trotzdem so effizient wie möglich zu machen. 

Die Umsetzung erfolgte weitgehend durch interne Ressourcen, um Kompetenz intern zu behalten und weitgehend unabhängig zu bleiben. Lediglich für ein fachliches Sparring zu Spezialthemen wurde ein externer Berater hinzugezogen.

Max Frisch ist als Leiter der BI-Abteilung für die kontinuierliche Weiterentwicklung des Data-Bereichs der SIG Sales verantwortlich.
Mit dem Ziel der Standardisierung und Automatisierung wurde über die letzten Jahre eine Excel-Lösung durch ein BI-Werkzeug abgelöst, wobei Max in eigener Umsetzung ein Datenmodell konzipiert hat, welches als Datenbasis für das heutige Reporting genutzt wird.
Auch die Anreicherung um die Businesslogik, die Visualisierung der Daten sowie die Bereitstellung an in- und externe Kunden liegen in seinem Verantwortungsbereich. Privat lebt Max mit seiner Frau sowie seinem kleinen Sohn in Karlsruhe und verbringt seine Freizeit gerne mit der Familie, auf Reisen oder mit Sport (besonders Fußball).

Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe. 
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld. 

Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.

Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.

Max Frisch, Artur König
Max Frisch, Artur König
Vortrag: Do 6.3

Vortrag Teilen

11:10 - 12:10
Do 8.3
Benchmarking-System zur Leistungsmessung mit ESG-Kennzahlen
Benchmarking-System zur Leistungsmessung mit ESG-Kennzahlen

In den letzten Jahren sind die externen ESG-Anforderungen für Unternehmen aller Branchen immer wichtiger geworden. Dennoch ist es dabei schwierig zu erkennen, ob ein Unternehmen auch tatsächlich alle relevanten ESG-Kennzahlen für die externe Berichterstattung bereitstellt und wie diese unternehmensübergreifend zu bewerten sind. Ziel dieser Fallstudie ist es daher, ein Benchmarking-System mit einer ESG-Berichtsvollständigkeits- und Leistungsanalyse zu entwickeln, in dem die relevanten Kennzahlen in einem Dashboard visualisiert werden können.

Zielpublikum: Entscheider, Projektleiter, Data Engineers
Voraussetzungen: Grundlagenwissen in Business Intelligence & Analytics im ESG-Kontext
Schwierigkeitsgrad: Basic

Extended Abstract:
Das Benchmarking-System ist ein prototypisches Werkzeug zur Entscheidungsunterstützung für verschiedene Anwendungsszenarien im ESG-Bereich. Das im Rahmen einer konkreten Fallstudie entwickelte System bietet Transparenz in Bezug auf die Vollständigkeit der Berichterstattung und auf die ESG-Leistungsmessung innerhalb der Automobilbranche. Die Nutzer des Systems können zwei komplementäre Benchmarking-Methoden verwenden, was zu einer hohen Flexibilität und Ausgewogenheit der ESG-Analyse führt. Nutzergruppen innerhalb und außerhalb von Unternehmen können das System darüber hinaus in unterschiedlichen Anwendungsszenarien einsetzen, z.B. Investitionsentscheidungen. Die Prozessschritte der Datentransformation, des Ladens und der Visualisierung sind vollständig automatisiert, was die manuelle Arbeit auf ein Minimum reduziert. Nichtsdestotrotz muss das System aufgrund der sich ständig ändernden ESG-Anforderungen auch in Zukunft angepasst und weiterentwickelt werden.

Prof. Dr. Markus Linden ist Hochschullehrer am Institute for Business Administration and Leadership (IBAL) der TH Köln. Zuvor hat er unter anderem bei der SAP im Geschäftsbereich CFO Advisory Implementierungsprojekte im Themenfeld Enterprise Resource Planning und Business Analytics verantwortet.

Simon Heininger (M.Sc.) ist Mitarbeiter am Institute for Business Administration and Leadership (IBAL) an der TH Köln. Aktuell promoviert er im Bereich Business Information Systems und leitet Business-Analytics-Projekte.

Markus Linden, Simon Heininger
Markus Linden, Simon Heininger
Vortrag: Do 8.3

Vortrag Teilen

12:20 - 13:10
KeyDo
KEYNOTE: Surfing the AI Wave: Zwischen Hype und realer Wertschöpfung
KEYNOTE: Surfing the AI Wave: Zwischen Hype und realer Wertschöpfung

Ohne Zweifel befinden wir uns auf einer Welle des KI-Hypes. Doch dahinter steckt auch ein beeindruckender und realer technischer Fortschritt: ob LLMs die inzwischen auch komplexeren Aufgaben „lösen“ können oder fotorealistische Bilder und Videos, die man mit einem einzigen Prompt erzeugen kann. Gleichzeitig haben viele Unternehmen kurzfristige übertriebene Erwartungen an den Einsatz von KI, während sie die langfristigen Veränderungen übersehen.

Dieser Vortrag ist der Versuch einer Standortbestimmung: Wo steht KI technisch? Was ist real, was Hype? Wo stehen die Unternehmen mit der Umsetzung und woran scheitern sie? Und wo steht Deutschland und Europa im globalen Vergleich?

Dr. Philipp Hartmann ist Director of AI Strategy der appliedAI Initiative und unterstützt in seiner Rolle Unternehmen dabei, einen nachhaltigen Mehrwert durch künstliche Intelligenz zu schaf-fen und sie auf ihrer individuellen Reise zur KI-Reife zu begleiten.

2018 startete er als Senior AI Strategist und übernahm bereits 2019 durch seine umfassen-den Kenntnisse im Bereich KI-Strategie die Rolle des Directors. Vor seiner Arbeit bei appliedAI war Dr. Hartmann als Senior Associate bei McKinsey & Company tätig.

Mit Blick auf die sich verändernden Wettbe-werbsbedingungen berät er Firmen dabei, wie sie das Thema KI-Transformation angehen müs-sen und zeigt auf, welche neuen Geschäftsmo-delle entstehen.
Dr. Hartmann promovierte an der Technischen Universität in München zu Wettbewerbsfakto-ren beim Einsatz von künstlicher Intelligenz. In seiner Laufbahn konnte er sein Wissen in ver-schiedenen Bereichen ausbauen und ist nun als strategischer Kopf ein Wegbereiter für große und mittelständische Unternehmen.

In seiner Freizeit verbringt er viel Zeit mit seinen drei Kindern und fährt leidenschaftlich gern Rennrad.

Philipp Hartmann
Philipp Hartmann
Track: Keynote
Vortrag: KeyDo

Vortrag Teilen

13:10 - 14:30
Pause
Mittagessen & Ausstellung/Lunch & Exhibition
Mittagessen & Ausstellung/Lunch & Exhibition

15:10 - 15:55
Do 1.4
Mit AI-Excellence den europäischen AI-Act konform umsetzen
Mit AI-Excellence den europäischen AI-Act konform umsetzen

Die Auswirkungen der Künstlichen Intelligenz durchdringen sämtliche Bereiche unserer Gesellschaft, von der Prozessautomatisierung bis zur personalisierten Datenanalyse. Die EU reagiert darauf mit dem AI-Act, einem umfassenden rechtlichen Rahmen, der einheitliche Qualitätsstandards für KI-Systeme etabliert. Die Umsetzung stellt für viele Unternehmen eine bedeutende Herausforderung dar. Das 'AI-Excellence-Framework' präsentiert Handlungsfelder für eine effektive KI-Governance im Sinne des AI-Acts.

Zielpublikum: Data Governance Manager, Compliance Officer, CDO, Data Scientists
Voraussetzungen: Grundlegende Datenkenntnisse
Schwierigkeitsgrad: Basic

Jeannette Gorzala is a top leader, legal advisor, and investor in the field of artificial intelligence. 
Outside of work, Jeannette is changing the game of AI. She has spoken about AI around the world, advises on global AI public policy, and creates guidebooks to educate businesses on how to build trustworthy AI projects. 

Jeannette Gorzala
Jeannette Gorzala

Vortrag Teilen

15:10 - 15:55
Do 2.4
Privacy-Aware Retrieval Augmented Generation
Privacy-Aware Retrieval Augmented Generation

In this talk, we delve into the emerging field of applying large language models in the industry with focus on different techniques of augmenting large language models while preserving confidentiality of data that is used for additional context.

In this talk we will explore the fundamentals of RAG, its implications for privacy-preserving data handling, and practical considerations for its implementation on a real usecase.

Target Audience: machine learning engineers, data scientists, data engineers, privacy officers, software engineers, product owners
Prerequisites: Basic knowledge about large language models
Level: Advanced

Extended Abstract:
The rapid advancement of language models has brought in unprecedented capabilities in text generation, comprehension, and interaction. However, as these models become more integrated into industry applications, the tension between leveraging vast amounts of data for improved performance and ensuring the privacy of that data has intensified. This presentation delves into the practical application of Retrieval Augmented Generation (RAG) as a novel solution to this challenge, focusing on its implementation within large language models to balance data utility with confidentiality.

Retrieval Augmented Generation (RAG) combines the generative powers of large language models with the precision of information retrieval systems. By fetching relevant information on demand and incorporating it into the generation process, RAG models can produce more accurate and contextually relevant outputs. This technique not only enhances the model's utility by broadening its knowledge base but also introduces a mechanism for controlling the exposure of sensitive data.

The core of our discussion will center on the technical underpinnings of RAG, detailing how it retrieves information and the algorithms that govern its integration with generative models. We'll examine the architecture required to facilitate this interaction, the processes for indexing and retrieving content, and the methodologies for ensuring that the retrieved data does not compromise privacy.

Furthermore, we'll present a case study demonstrating RAG's application on a real project. This example will illustrate how RAG can be tailored to specific privacy requirements and regulatory standards, showcasing its versatility and effectiveness. We will also discuss the challenges faced during these implementations.

Damir Kopljar is a Team Lead at Croz AI, a Ph.D. candidate in the field of explainable AI, and a passionate drone pilot.
He is always curious to learn more about complex problems and find the best solutions using data and machine learning. Currently, his efforts are concentrated on assisting clients in identifying opportunities to leverage AI and implement machine learning across various scenarios, as well as on establishing future-oriented ML factories grounded in MLOps best practices.
When he's not fixing broken drones, he enjoys mountain climbing.

Damir Kopljar
Damir Kopljar
Vortrag: Do 2.4

Vortrag Teilen

15:10 - 15:55
Do 3.4
Nutzen einer Data Fabric im Krankenhaus-Controlling
Nutzen einer Data Fabric im Krankenhaus-Controlling

Begonnen hat alles mit einem Cube. Inzwischen hat sich die analytische Landschaft von Agaplesion drastisch erweitert, die Begleitung des 'Patienten-Journey' ohne Daten unvorstellbar. Datengetriebene Entscheidungen beeinflussen alle Aspekte des KKH-Alltags. Ohne leistungsfähige Architektur dahinter undenkbar: Mit seiner Data Fabric nutzt Agaplesion verteilte Datenquellen, Wissen über Daten inkl. umfassender Datenschutzregeln und erlaubt so, mit intelligenten ML-Prozesse die KKH-Prozesse optimal, nachvollziehbar und sicher zu unterstützen.

Zielpublikum: Analytics/Solution Architects, Decision Makers, Controller, Project Leader. More technical than Business
Voraussetzungen: Basic Knowledge of Data Management Strategies and Architectures (Data Warehouse, Data Fabric)
Schwierigkeitsgrad: Advanced

Extended Abstract:
Der Fokus der analytischen Landschaft von Agaplesion hat sich dramatisch gewandelt: Während früher ausschließlich Planung und Reporting im Vordergrund standen und durch kombinierte Einzellösungen repräsentiert wurden, wird heute der Bedarf und Nutzen von Analysen sehr viel höher eingeschätzt. Der umfassende Datenschatz im Unternehmen kann vielfach zur Optimierung oder Steuerung der Prozesse genutzt werden, zum Vorteil für Patienten, medizinisches Personal, aber auch in kommerzieller Hinsicht. In Zeiten von Pandemien, Fachkräftemangel und im Hinblick auf die kommende Alterspyramide kann sich unsere Gesellschaft kein leeres Bett oder unnötige Doppeluntersuchungen leisten!

Der Bedarf an Umgang mit den vorhandenen oder neuen Daten kann nicht nur durch Experten gedeckt werden - Fachanwender, Analysten und Data Scientists sind gefragt! Damit der Umstieg, die Übernahme analytischer Tätigkeit effizient gelingt, sind neue Methoden und damit Technologien gefragt: Self-Service BI, Data Science benötigt gut dokumentierte Daten, damit Bedeutung und Hintergründe nicht nur den Datenexperten transparent sind. Gleichzeitig muss mit definierten, automatisierbaren Zugriffsregeln der Datenschutz sichergestellt werden. Und nicht zuletzt geht mit der zunehmenden Nutzung von Data Science und AI die Verantwortung nach Nachvollziehbarkeit und Überwachung der AI einher.

Agaplesion hat sich daher in einer technischen Neubewertung entschlossen, eine analytische Plattform einzuführen, die sowohl die Aspekte Data Governance, Datenzugriff und Potenzial für umfassende Data Science/AI-Prozesse abdeckt, als auch die bisherigen Einzellösungen integriert.

In diesem Vortrag werden der fachliche Hintergrund und die resultierende Daten-Strategie besprochen, die bisherige Umsetzung mit Erfolgen und Hindernissen gezeigt und die weiteren Ziele von Agaplesion mit dieser Plattform.

Jan Geesen, geboren 1986, beschäftigt sich seit 2012 mit dem Gesundheitswesen und Analytik. Erst als Controller mit Schwerpunkt BI in der Zentrale der AGAPLESION gAG, wo er zuständig war für alle Leistungsbereiche (Somatik, Psychiatrie, Wohnen & Pflegen, Hospiz, Reha, Med. Versorgungszentren). 2018 wechselte er für 2 Jahre in Leitungsfunktion ins Controlling an einen Konzernstandort mit 5 Gesellschaften und kehrte anschließend als Leitung Business Analytics zurück in die Zentrale. Dort treibt er seitdem die Datennutzung, -konsistenz und eine zentrale Datenstrategie voran.

Marc Bastien, Jahrgang 1967, arbeitet seit 1993 kontinuierlich in Analytics-Projekten. Nach einigen Jahren beim Endkunden, wechselte Marc Bastien schon bald zum Hersteller, um dort in zahlreichen Projekten in unterschiedlichen Branchen und Rollen mitzuarbeiten. Nach ca. 20 Jahren und zuletzt im Presales entschied er sich, wieder Lösungen von Anfang bis Ende zu begleiten. In seiner Eigenschaft als Analytics Architekt umfassen die Tätigkeiten von der Architekturberatung, über Umsetzung von analytischen Projekten bis zur Betriebsunterstützung großer Data Management Plattformen.

Jan Geesen, Marc Bastien
Jan Geesen, Marc Bastien
Vortrag: Do 3.4

Vortrag Teilen

15:10 - 15:55
Do 4.4
Strategies for a Seamless Data Shopping Experience
Strategies for a Seamless Data Shopping Experience

In this session Marcel will talk about how organizations are realizing a data shopping process with the correct technology, organization and business processes. The session will unveil the role of each technology component from data catalogs and data marketplaces to data virtualization and data pipelining. Furthermore, the role of data governance and organizational change management will be explored and customer reference architectures will be provided to illustrate an exemplary end to end data shopping process.

Target Audience: CTO, CIO, Head of BI, Data Engineer, Data Scientist, Data Steward
Prerequisites: Basic understanding of Data Mesh (optional)
Schwierigkeitsgrad: Advanced

In my current position as the Head of Data Intelligence at Camelot, I serve as a Managing Consultant and Architect, guiding clients in the selection of optimal data management tools for their modern data architectures. My focus extends to realizing the principles of data mesh across organizational, process, and technological dimensions. I am committed to delivering comprehensive solutions and ensuring that organizations harness the full potential of their data assets. I have cultivated expertise in data integration platforms, including SAP Datasphere, Informatica Intelligent Data Management Cloud (IDMC), and Denodo.

Georg Frey is a Consultant at Camelot ITLab, specializing in Data Science, Software Development, and Cloud technologies. With a proven track record in developing and implementing data architectures, Mr. Frey excels in designing robust data governance frameworks and comprehensive data strategies. His proficiency in leveraging cutting-edge technologies and his keen understanding of industry best practices ensure efficient and effective solutions tailored to meet clients' needs. Mr. Frey fosters a data-driven culture, enabling informed decision-making and innovation within organizations.

Marcel Oenning, Georg Frey
Marcel Oenning, Georg Frey
Vortrag: Do 4.4

Vortrag Teilen

15:10 - 15:55
Do 5.4
Das bisschen Data macht sich von allein – sagt mein Analyst
Das bisschen Data macht sich von allein – sagt mein Analyst

Im Zeitalter von Big Data hat sich Data-Engineering zu einem Schlüsselbereich entwickelt, um das Potenzial umfangreicher Datenschätze zu nutzen. Doch was braucht es, um Datenverarbeitung, -transformation und -bereitstellung zu optimieren? Dieser Vortrag beleuchtet anhand einer beispielhaften Architektur die Bedeutung von Software-Engineering-Kenntnissen für Data-Engineers, und diskutiert spezifische Herausforderungen wie Datenintegrität, Prüfung von Data-Pipelines und die Balance zwischen Stabilität und Flexibilität der Datenplattform.

Zielpublikum: Data-Engineers, IT-Entwickler und IT-Manager
Voraussetzungen: Grundlagenwissen Softwareentwicklung
Schwierigkeitsgrad: Advanced

Extended Abstract:
Data-Engineering hat sich im Zeitalter von Big Data und Analytics zu einem entscheidenden Bereich entwickelt, der es Unternehmen überhaupt erst ermöglicht, das Potenzial riesiger Informationsmengen zu nutzen. Während der Schwerpunkt des Data-Engineerings auf der Verarbeitung, Transformation und Bereitstellung von Daten liegt, hängt sein Erfolg stark von den Prinzipien und Praktiken ab, die dem traditionellen Software-Engineering entlehnt sind.

In unserem Vortrag berichten wir aus dem Data Lake für eines der größten Inhouse-Projekte Europas, welcher die Daten einer großen Online-Vertriebsplattform verarbeitet. Millionen von Events und Hunderte Gigabytes am Tag müssen irgendwie gezähmt und verwertbar gemacht werden. Wir skizzieren die Architektur und sprechen über Herausforderungen und maßgeschneiderte Lösungen. Dabei möchten wir auch darauf eingehen, warum Data-Engineers allem voran ein fundiertes Verständnis und Fachwissen von Software-Engineering brauchen.

Im Fokus stehen dabei insbesondere drei Herausforderungen:

  • Wie gewährleistet man in Big-Data-Architekturen Datenintegrität und Datenschutz?
  • Wie lassen sich Data-Pipelines ganzheitlich prüfen?
  • Wie gewährleistet man einerseits Stabilität einer Daten-Plattform, die andererseits modular austauschbar und erweiterbar bleibt?

Dabei diskutieren wir auch, wann Standardlösungen nicht mehr ausreichen und was gutes Software-Engineering in diesem Kontext für uns bedeutet.

Dr. Masud Afschar ist Senior AI & Data Engineer bei iteratec. Als erfahrener Experte für Big-Data-Architekturen hilft er Unternehmen bei Design und Implementierung von datenintensiven Systemen, dem Aufbau von KI- und ML-Systemen sowie auch individuellen Software-Lösungen.

Masud Afschar
Masud Afschar
Vortrag: Do 5.4

Vortrag Teilen

15:10 - 15:55
Do 6.4
Endlich gehört und verstanden werden mit Data Storytelling
Endlich gehört und verstanden werden mit Data Storytelling

Die Neurowissenschaften bestätigen: Unser Gehirn ist nicht dafür gemacht, Daten zu verarbeiten. Deshalb fällt es unseren Entscheidern oft schwer, sich für unsere Analytics-Projekte zu begeistern und Maßnahmen daraus umzusetzen. Gehirngerechte Datenkommunikation erzeugt Bilder im Kopf und macht so Daten leicht verdaulich. Julia zeigt, wie du mithilfe von Data Storytelling deine Zuhörer von deinem Analytics-Projekt und den Ergebnissen daraus überzeugst, und gibt dir einfache Kommunikationshacks in die Hand, die du gleich umsetzen kannst.

Zielpublikum: Analysten, Data Scientists, Data Engineers, Controller, Data-Governance-Experten und dergleichen
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Julia Zukrigl war Analystin, die bei so manchem Datenprojekt einfach nicht zu Entscheider:innen und User:innen durchgedrungen ist. Doch dann erinnerte sie sich an ihren Ursprung als Verhaltensforscherin, hat das Wissen über menschliches Entscheidungs- und Informationsverhalten auf die Welt der Daten umgelegt und mit wirksamen Kommunikationstechniken verknüpft. Heute teilt sie diesen Data-Storytelling-Methodenkoffer mit Datenexpert:innen als Head-Trainerin im DATA story LAB.

Julia Zukrigl
Julia Zukrigl
Vortrag: Do 6.4

Vortrag Teilen

15:10 - 15:55
Do 7.4
Data Analyctics Escape Room
Data Analyctics Escape Room

Beim 'Data & Analytics Escape Room' sind analytische Fertigkeiten Schlüssel zum Erfolg. In diesem interaktiven Spiel bewältigen Teams von 3-6 Mitgliedern gemeinsam Daten-Herausforderungen. Nutzen Sie SQL für Spurensuche, konfigurieren Sie ML-Modelle für Hinweise und bereinigen Sie fehlerhafte Daten, um voranzukommen. Sind Sie bereit, Ihre analytischen Fähigkeiten in einem Rennen gegen die Zeit zu testen?

Zielpublikum: Data Analysts, Data Engineers, Data & Analytics Enthusiasts, Data Practioners, Data Scientists, ML Engineers
Voraussetzungen: SQL, Data Analysis, Python(basic)
Schwierigkeitsgrad: Advanced

Florian Dindorf ist Consultant bei b.telligent. Er arbeitet seit 7 Jahren im BI-Bereich. Erst als dualer Student und Entwickler in einem Handelsunternehmen und anschließend als Berater. Der Fokus liegt dabei im BI-Backendbereich und im Data Engineering mit einer Passion für den Modern Data Stack.

Lennart Dangers baut bei linkFISH Consulting GmbH Brücken zwischen fachlichen Anforderungen, Konzeption und technischer Umsetzung. Als Consultant für Business Intelligence und Data Analytics sind seine Schwerpunkte Advanced Analytics und Weiterentwicklung im Modern Data Stack.

Florian Dindorf, Lennart Dangers
Florian Dindorf, Lennart Dangers
Track: Hands-On
Vortrag: Do 7.4

Vortrag Teilen

15:10 - 15:55
Do 8.4
Panel
Panel

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/carsten.felden

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Henning.Baars

Carsten Felden, Henning Baars, Sebastian Olbrich
Carsten Felden, Henning Baars, Sebastian Olbrich
Vortrag: Do 8.4

Vortrag Teilen

16:00 - 16:15
Wrap-Up
Wrap-Up und Verabschiedung
Wrap-Up und Verabschiedung

Track: Wrap Up
Vortrag: Wrap-Up

Vortrag Teilen

Zurück