Hinweis: Die aktuelle TDWI-Konferenz findest Du hier!

KOSTENFREIES PARTNER-PROGRAMM

Track: #Case Study

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    20.06.
  • Mittwoch
    21.06.
  • Donnerstag
    22.06.
13:10 - 13:40
CSdi1
Case Study alteryx │ Self-service Data Analytics Journey bei Siemens Energy
Case Study alteryx │ Self-service Data Analytics Journey bei Siemens Energy

Anhand ausgewählter Use Cases soll die Entwicklung von Self-Service Data Analytics innerhalb von Siemens Energy dargestellt werden. Schwerpunkt ist die Umsetzung von datengetriebenen Projekten durch verschiedene Fachbereiche. Weiterhin wird auf die erfolgreiche Einführung neuer Projekte mit Hilfe von Hackathons eingegangen, sowie den Nutzen von internen Communities bei der Problemlösung.

Tony Adam
E119
Tony Adam
E119
Vortrag: CSdi1

Vortrag Teilen

13:10 - 13:40
CSdi2
Case Study Actian │ Met Éireann, der nationale meteorologische Dienst Irlands
Case Study Actian │ Met Éireann, der nationale meteorologische Dienst Irlands

Met Éireann, der nationale meteorologische Dienst Irlands, hatte eine anspruchsvolle Aufgabe: genaue Wettervorhersagen für die irische Öffentlichkeit bereitzustellen und mehrere Branchen wie Luftfahrt, Landwirtschaft, Transport und Notdienste zu unterstützen. Um dies zu erreichen, mussten sie große Datenmengen in Echtzeit verarbeiten und analysieren. In dieser Präsentation wird Actian's Datenexperte, Robert Gorsuch, zeigen, wie Met Éireann dies mit Hilfe von Actian Avalanche, der leistungsstarken Cloud-Datenplattform, erreicht hat. Durch die Nutzung von Avalanche's Geschwindigkeit und Leistungsfähigkeit konnte Met Éireann ihre Fähigkeiten zur Wettervorhersage revolutionieren und genaue und zuverlässige Informationen an die Öffentlichkeit liefern. Seien Sie dabei, um mehr über den innovativen Anwendungsfall von Met Éireann und wie Actian Ihrem Unternehmen dabei helfen kann, komplexe Datenverarbeitungsherausforderungen zu lösen und Innovationen voranzutreiben, zu erfahren.

Robert Gorsuch verfügt über mehr als 30 Jahre Erfahrung in den Bereichen IT-Architektur, Design sowie der Implementierung von Daten-Management-, Daten-Integrations- und Daten-Analyse-Softwarelösungen. Er hat mehrere Zertifizierungen in Warenwirtschaftsapplikationen, Kundenmanagementsystemen und diversen SaaS-Anwendungen erworben und verfügt über langjährige Erfahrungen in Branchen wie Produktion, Finanzen, Gesundheitswesen und Transportwesen. Sein Arbeitsschwerpunkt und seine Leidenschaft als Vertriebsingenieur bei Actian liegen in der Automatisierung und Optimierung von Geschäftsprozessen in Unternehmen.

Robert Gorsuch
E124
Robert Gorsuch
E124
Vortrag: CSdi2

Vortrag Teilen

13:10 - 13:40
CSdi3
Case Study Ab Initio Software Germany │ Aktive Metadaten: Transparenz und Automatisierung verbessern die Steuerbarkeit von datenbasierten Entscheidungen
Case Study Ab Initio Software Germany │ Aktive Metadaten: Transparenz und Automatisierung verbessern die Steuerbarkeit von datenbasierten Entscheidungen

Datenanalyse und datengesteuerte Entscheidungen nehmen in Unternehmen und Organisationen aller Art einen immer größeren Stellenwert ein. Gleichzeitig werden über Regulatorik und Kundenerwartungen immer höhere Anforderungen an Transparenz, Data Governance und Robustheit von Datenanalysen und automatisierten Entscheidungsprozessen gestellt. Metadaten sind ein Schlüssel, solche Anwendungen vertrauenswürdig und effizient aufzubauen. Aktive Metadaten machen den gesamten Fluss der Daten durch alle Systeme sichtbar. Dadurch wird der Kontext von datenbasierten Entscheidungen nicht nur im Nachhinein nachvollziehbar gemacht sondern die Entwicklung von Datenapplikationen deutlich beschleunigt. Die LBBW (Landesbank Baden-Württemberg) ist ein Beispiel dafür, wie Fachbereiche und IT in enger Kooperation eine zentrale Datenplattform und ein umfangreiches Metadatenmanagement aufbauen können. Die Bank hat ihre Datenplattform als Grundlage und zur Unterstützung einer effektiven Gesamtbanksteuerung implementiert. Dabei haben Fachbereiche und IT eng zusammengearbeitet, um die vielfältigen fachlichen Anforderungen der abhängigen Fachbereiche zu verstehen und in technische Datenflüsse zu übersetzen. Alle relevanten Datenpunkte aber auch die Abhängigkeiten und Beziehungen zwischen den verschiedenen Datenquellen und Zielsysteme wurden gemeinsam identifiziert, modelliert und dokumentiert. Eine umfassende Data Governance in Verbindung mit einem zentralen Datenqualitäts-Framework gewährleisten dabei jederzeit regulatorische Compliance und eine hohe Datenqualität.

Dr. Andreas Becks berät als Strategic Advisor bei Ab Initio Kunden rund um die Themen Automatisierung datengetriebener Entscheidungen, Datendemokratisierung und Data Science. Seit mehr als 25 Jahren ist sein Herzensthema der kulturelle Wandel durch Daten, Informationsvisualisierung und Künstliche Intelligenz. Andreas Becks war in verschiedenen leitenden Positionen in der Kundenberatung bei SAS, in Forschung und Entwicklung bei der Fraunhofer-Gesellschaft, als Business- und Lösungsarchitekt sowie im strategischen Produktmanagement eines Softwareunternehmens tätig. Er ist studierter Diplom-Informatiker, promovierte in Künstlicher Intelligenz an der Technischen Universität Aachen und erwarb einen MBA an der Universität St. Gallen.

Dr. Florian Sebert leitet bei der Landesbank Baden-Württemberg (LBBW) die Abteilung Datenmanagement und –architektur. In dieser Rolle verantwortet Herr Dr. Sebert neben der Data Governance und der Facharchitektur des LBBW-Konzerns die zentralen Datenintegrations- und Reportingplattformen der Bank. Zuvor war Herr Dr. Sebert zunächst bei der Beratungsgesellschaft d-fine und später bei der LBBW als Projektleiter für die Umsetzung zahlreicher Vorhaben mit Fokus auf die Themen Gesamtbanksteuerung und Financial Markets tätig. Seine Studien der Mathematik, Wirtschafts- und Finanzmathematik absolvierte er in Deutschland, England und in den USA.

Andreas Becks, Florian Sebert
K3
Andreas Becks, Florian Sebert
K3
Vortrag: CSdi3

Vortrag Teilen

13:10 - 13:40
CSdi4
Case Study areto consulting │ Einfach MEGA – der Weg von Freenet zum Cloud DWH
Case Study areto consulting │ Einfach MEGA – der Weg von Freenet zum Cloud DWH

Die Freenet AG betreibt seit vielen Jahren erfolgreich ein Data Warehouse im eigenen Rechenzentrum. Architektur und Technologien wurden sorgfältig ausgewählt und erfüllten die damaligen Anforderungen vollkommen. Doch was soll man tun, wenn die Quellsysteme nach und nach in die Cloud migriert werden? Allein die Kosten der regelmäßigen Datenübertragung aus der Cloud in das On-Prem-DWH lassen diese Lösung nicht mehr wirtschaftlich erscheinen.
Die Freenet AG stellt sich nun dieser Herausforderung und plant den Umzug in die Cloud. Hierbei sind nicht nur technische Herausforderungen und aktueller Vendor Lock-ins zu lösen. Es gilt auch, die Organisation von Analytics bei der Freenet AG zu überdenken.
Der Vortrag beschreibt die Strategie und das geplante Vorgehen, diesen Herausforderungen zu begegnen.

Timo Burmeister ist seit 26 Jahren in der IT-Branche zu Hause. Davon ist er seit 19 Jahre bei der Freenet AG aktiv.
Er ist AWS Certified Solutions Architect und EMCDSA Certified Data Science Associate.

Till Sander weist eine 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Vor areto war er als Solution Manager bei verschiedenen Beratungsunternehmen tätig. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran. Seine Ausdauer und seinen Willen immer das Optimum zu erreichen, beweist er nicht nur in den Kundenprojekten sondern auch als passionierter Rennradler.
Mehr Infos finden Sie hier: https://tillsander.wordpress.com/

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/till.sander

Timo Burmeister, Till Sander
K4
Timo Burmeister, Till Sander
K4
Vortrag: CSdi4

Vortrag Teilen

13:10 - 13:40
CSdi5
Case Study Synabi Business Solutions & bluetelligence │ Warum SAP-Metadaten im Data Management nicht fehlen dürfen
Case Study Synabi Business Solutions & bluetelligence │ Warum SAP-Metadaten im Data Management nicht fehlen dürfen

Am Beispiel der Deutschen Pfandbriefbank AG zeigen wir Ihnen, wie Sie durch das Zusammenspiel von D-QUANTUM und der Metadata API von bluetelligence einen substanziellen Mehrwert erzeugen:

  • Anbindung der SAP-Systeme BW/4HANA & S/4HANA: So erhalten Sie ein präzises Bild der technischen Implementierung
  • Technische Lineage innerhalb der SAP-Systeme und Verknüpfung der zugrundeliegenden Datenhaltung
  • So kombinieren Sie die SAP-Objekte im Kontext der Data Management Journey für die unterschiedlichsten Use Cases wie z. B. die Abbildung von Verantwortlichkeiten, Source- und Impact-Analysen, Datenqualitätsmanagement und Anforderungsmanagement
  • Die systemübergreifende Lineage

Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in unterschiedlichen
Branchen (Telekommunikation, Banken und Handel). In seiner Funktion als COO der Synabi verantwortet er die Konzeption und Umsetzung von Metadaten- und Data-Governance-Projekten.

Alexander Ludwig sorgt als Product Owner bei bluetelligence dafür,
dass die Softwareprodukte stetig weiterentwickelt werden, um SAP-Metadaten einem breiten Nutzerkreis einfach und verständlich zur Verfügung zu stellen. Als Produktexperte steht er auch im Vertrieb Rede und Antwort und schult User*innen im Umgang mit den Tools.

Wolf Erlewein, Alexander Ludwig
E101/102
Wolf Erlewein, Alexander Ludwig
E101/102
Vortrag: CSdi5

Vortrag Teilen

13:10 - 13:40
CSdi6
Case Study OPITZ CONSULTING mit OTTO | Transform to Data Mesh?
Case Study OPITZ CONSULTING mit OTTO | Transform to Data Mesh?

Getrieben durch den enormen internationalen Wettbewerbsdruck im Online-Handel muss sich das E-Commerce-Unternehmen Otto ständig weiterentwickeln, um mit der Konkurrenz Schritt zu halten oder ihr sogar voraus zu sein.

Dies stellt große Herausforderungen an Architektur und Organisation. Data Mesh als neues Architekturparadigma adressiert diese Anforderungen und liefert hier wichtige Impulse.

In dieser Case Study gehen wir von der Pain Point Analyse des internen Think Tanks aus und betrachten ausgehend von der logischen Architektur, als Treiber der Kernkompetenzen des Data Mesh, die Probleme und Optimierungsansätze.

Inhaltlich werden wir uns auf folgende Aspekte und Praxisprobleme konzentrieren:

- Domänen-orientierte Daten und die damit verbundenen Herausforderungen

- Metadaten + Zentralisierung vs. dezentrale Orchestrierung,

- Data as a Product: Auffindbarkeit und Integration,

- auf dem Weg zur Self-serve Datenplattform

Torsten Peukert ist Lead Consultant bei der Opitz Consulting Deutschland GmbH. Er verfügt über 25 Jahre Erfahrung in der Planung und Umsetzung komplexer Digitalisierungsprojekte in unterschiedlichen Rollen und Branchen, darunter Banken, Versicherungen, Handel und Industrie.

Seine Schwerpunkte und Leidenschaften sind neben verteilten Systemen, Datenarchitekturen und Data Governance auch agile Team- und Unternehmensorganisationen. Dies ermöglicht es ihm, Unternehmen bei der Transformation zu datengetriebenen Organisationen holistisch zu unterstützen.

Torsten Peukert
F111
Torsten Peukert
F111
Vortrag: CSdi6

Vortrag Teilen

13:10 - 13:40
CSdi7
Case Study Precisely │ The Data Governance Health Check – Maximising the Value of Your Data Governance
Case Study Precisely │ The Data Governance Health Check – Maximising the Value of Your Data Governance

83 % of CEOs want their organisation to be more data driven. Sharing clear corporate goals and objectives is a start, but you will not succeed without a deeply understood, and widely shared context of the critical data that underpins these goals and objectives.
Unfortunately getting them off the ground, making them sustainable, and proving ongoing value requires targeted, strategic approaches depending on where you are in your journey.
90 % of businesses fail miserably to identify, track, and widely share the above context around their critical data.
In this session we will share leading practices for successful data governance programs from our customer and answer among other these questions:

  • What Value is Data Governance Providing Your Organisation Today?
  • What is the critical data, where is it, who is responsible for it and how accurate is it?
  • What critical processes depend on it?

At the end, we show you how to use Precisely Strategic Services to conduct a health check of your current data governance program that includes a gap analysis with the leading practices of the most successful data-driven organisations.

Gaston Hummel has over 20 years’ experience in enterprise software and has helped more than 50 organizations across insurance, banking, telecom and succeed in their digital transformation journey. He has led software solutions from their inception, through business case approval, development, sales enablement, successful launch, and 50 plus successful implementations across global enterprises including Santander and Telefonica and Vodafone. Today Gaston is a member of the Precisely Strategic Services Team and advises organisations how to become more data driven and the leading practices for successful data governance programs.

Gaston Hummel
F106
Gaston Hummel
F106
Vortrag: CSdi7

Vortrag Teilen

13:10 - 13:40
CSdi8
Case Study WhereScape | Improving Development Effectiveness
Case Study WhereScape | Improving Development Effectiveness

How we designed a model driven implementation approach to improve development effectiveness at BNP Paribas Cardif

Jiří is a highly skilled professional with 20+ years of experience in data warehousing and business intelligence. As a DWH Team Leader and Architect at BNP Paribas Cardif, he excels in decommissioning outdated systems, implementing new DWH/BI solutions, and designing model-driven methodologies. Previously, as a Senior Data Architect at BOHEMIA ENERGY, Jiří created BI solutions, managed change processes, and developed data integration strategies. With a proven track record as a Chief BI Architect at Komercni banka, he oversaw operational processes and infrastructure. Recognized for his expertise, Jiří received a Gartner award in 2010. He is a sought-after speaker, sharing insights on data warehousing, business intelligence, and ITIL processes.

Jiří Omacht
F127
Jiří Omacht
F127
Vortrag: CSdi8

Vortrag Teilen

13:55 - 14:25
CSmi1
Case Study APARAVI │ Einfach mal aufräumen: Wie Dark Data vom Risikofaktor zum Wettbewerbs- und Sicherheitsvorteil für die Finanzbranche wird
Case Study APARAVI │ Einfach mal aufräumen: Wie Dark Data vom Risikofaktor zum Wettbewerbs- und Sicherheitsvorteil für die Finanzbranche wird

Wer bei Dark Data instinktiv an Darth Vader denkt, liegt nicht verkehrt: Riesige Mengen an „bösen“ Daten lauern unerkannt seit Jahrzehnten in den dunklen Tiefen Ihres Daten-Imperiums – und es werden täglich mehr.
PDFs oder Fotos mit personenbezogenen Informationen, „Individualsoftware“ mit Excel-Makros, vertrauliche Präsentationen mit Provisionserträgen, Videos mit zweifelhaftem Inhalt oder die völlige Intransparenz auf dem Sharepoint-Server – die Liste an Daten-Risiken lässt sich beliebig verlängern. Egal, ob nun eine Migration in die Cloud ansteht oder Sie sich präventiv vor Data Breaches schützen wollen, Sie müssen den Risikofaktor Dark Data JETZT beseitigen, um Ihre Datenqualität dauerhaft zu verbessern!

In dieser Case Study erfahren Sie von Daten-Jedi-Großmeister und Co-CEO Gregor Bieler…

  • Warum Dark Data eine tickende Zeitbombe für Ihre Compliance- und Sicherheits-Richtlinien ist
  • Wie führende Finanzdienstleister schnell und mit wenig Personal Dark Data finden, analysieren und dauerhaft bereinigen
  • Und wie Sie dadurch Kosten sparen, weniger Energie verschwenden und meßbar Ihren CO2-Fußabdruck verringern
Gregor Bieler
F111
Gregor Bieler
F111
Vortrag: CSmi1

Vortrag Teilen

13:55 - 14:25
CSmi2
Case Study Snowflake │ IOT-Datawarehouse von Heidelberger Druckmaschinen
Case Study Snowflake │ IOT-Datawarehouse von Heidelberger Druckmaschinen

Die Heidelberger Druckmaschinen AG setzt als Markt- und Technologieführer in der Druckbranche ihren Schwerpunkt auf konsequente ›End-to-end‹-Digitalisierung der Kundenwertschöpfung, also vor allem auf integrierte und automatisierte Systemlösungen für Maschinen, Software, Verbrauchsgüter und Services.
Im Rahmen der digitalen Transformation wurde das IOT-Datawarehouse mit dem Ziel der zentralen Verarbeitung von Druckmaschinendaten und Bereitstellung von wichtigen Kennzahlen (KPI) ins Leben gerufen. Diese werden in Form von Reports und Apps dem Kunden direkt zur Verfügung gestellt.
Das IOT Datawarehouse Team setzt dabei auf die Datenplattform Snowflake.
Durch ein Zusammenspiel aus verschiedenen Technologien und Tools wie dbt core, Snowpipe, Snowpark, gitlab und der Unterstützung durch Experten von areto consulting konnte eine Lösung realisiert werden, die die Grundlage einer standortunabhängigen Optimierung der Druck- und Produktionsprozesse bildet.

Dr. Johanna Geiß ist seit 4 Jahren bei der Heidelberger Druckmaschinen AG tätig. Als Product Owner ist sie verantwortlich für die Bereitstellung, Weiterentwicklung und Koordination des IOT Data Warehouses, in dem Maschinen- und Produktionskennzahlen berechnet werden.
Zuvor arbeitete sie u.a. in der Database Systems Research Group der Universität Heidelberg und promovierte im Bereich Natural Language Processing an der University of Cambridge.

Dr. Florian Petersen arbeitet als Data Engineer/Scientist im Team IOT Datawarehouse bei der Heidelberger Druckmaschinen AG. Zuvor sammelte er Erfahrungen mit diversen Datenstrukturen/-banken und Verarbeitungsalgorithmen während seiner Tätigkeit an der Universität Kiel und seiner Promotion in Mariner Geophysik am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel.

Johanna Geiß, Florian Petersen
E119
Johanna Geiß, Florian Petersen
E119
Vortrag: CSmi2

Vortrag Teilen

13:55 - 14:25
CSmi3
Case Study btelligent/2150 Datavault Builder │ Containerbahnhöfe der DUSS – Business Intelligence, Abrechnungen, Pricing Simulationen und Planung
Case Study btelligent/2150 Datavault Builder │ Containerbahnhöfe der DUSS – Business Intelligence, Abrechnungen, Pricing Simulationen und Planung

Mehr als 70% aller Stückgüter werden derzeit weltweit per Container transportiert.
Im Zuge der CO2-Reduzierung ist das Ziel, möglichst viele Container auf der Schiene zu transportieren. Für die letzte Meile übernehmen dann LKWs den Transport.
Die Deutsche Umschlaggesellschaft Schiene-Straße (DUSS) mbH, eine DB-Tochter, betreibt 19 Containerterminals in Deutschland, um die Container auf die verschiedenen Verkehrswege um zu laden.
Für die Abrechnung, die Planung und die Simulation der Arbeiten an den Terminals wurden 2021 die Systeme neu konzipiert und umgesetzt und sind seit 2022 im produktiven Betrieb und von PWC zertifiziert.
Der Vortrag soll das Zusammenspiel der einzelnen Komponente der Datenintegration, des Datawarehousing und Business Intelligence in einem agilen Entwicklungsprozess beschreiben, der das Projekt zum Erfolg geführt hat.
Dabei wurden einzelne Quellen additiv in das Data Warehouse der DUSS integriert. Damit wird dem Controlling der DUSS ermöglicht, das Reporting effizient zu erstellen und Umsatz-Simulationen durchführen zu können.
Ein wesentlicher Faktor für den Erfolg ist hier das Zusammenspiel zwischen Datavault Builder, TM1 und Apache Airflow.

Rüdiger Koch - Über mich:

• Produkt Owner Service dataXpress (von der Idee bis zur produktiven Nutzung)
• Projekt DORIS (DUSS-Abrechnung)
• Treiber von Innovationen (datavault, dataXpress, ODI, NiFi, ExaSol)
• Bei DB Systel seit 2009

Meine Expertise:
• Fachliche und technische Datenmodellierung
• Big Data
• Architekturmanagement
• Serviceaufbau in AWS
• Daten Back-End Systeme (Oracle, Hadoop, ExaSol, RedShift)
• ETL (BODS, Talend, NiFi, ODI, dvb

Petr Beles verfügt über fundierte Erfahrungen in Data-Warehouse-Projekten in den Bereichen Telekommunikation, Finanzen und Industrie. Seit mehreren Jahren führt er als Senior Consultant erfolgreich Projekte mit Data Vault durch. Nachdem er den Bedarf an Automatisierung mit Data Vault erkannt hatte, begann er zusammen mit seinen Kollegen mit der Entwicklung eines Automatisierungstools, das in der Erstellung des Datavault Builders gipfelte. Petr Beles ist heute CEO der 2150 Datavault Builder AG.
----
Petr Beles (Data-Vault-Specialist, Senior Consultant) has profound experience in data warehouse projects in the telecommunications, financial and industrial sectors. For several years he has been successfully implementing projects with Data Vault and trains teams in the application of this data modelling technique.

Rüdiger Koch, Petr Beles
E124
Rüdiger Koch, Petr Beles
E124
Vortrag: CSmi3

Vortrag Teilen

13:55 - 14:25
CSmi4
Case Study coalesce | The Sustainable Data Platform
Case Study coalesce | The Sustainable Data Platform

Why did we change the way we used to work, and what are the challenges and risks today? Which ingredients are key for a data platform that will scale? Mark van der Heijden will cover the past, present and future of data engineering to answer these questions leading to a sustainable data platform.

Mark is lead engineer and part of the EMEA founding team at Coalesce.io. He started his career in data 18 years ago with an internship at Oracle, and later graduated at Getronics where he received a thesis award from Accenture. Since then, Mark has covered roles across the data lifecycle and across all parts of the data ecosystem.

With his extensive background in data integration, data modelling and data architecture, Mark has specialized in data automation. He is a strong believer that automation plays a key part in every successful data warehouse implementation. Prior to joining Coalesce.io, he has worked as an independent advisor and different roles at WhereScape, Teradata, and several consultancy firms. He is known as an honest, highly experienced professional with a broad general interest for technology, always striving for the optimal result.

Mark van der Heijden
K4
Mark van der Heijden
K4
Vortrag: CSmi4

Vortrag Teilen

13:55 - 14:25
CSmi5
Case Study Confluent | Using Kafka and Flink for Customer Transactions Data Enrichment
Case Study Confluent | Using Kafka and Flink for Customer Transactions Data Enrichment

Diese Session zeigt, wie die Open-Source-Technologien Apache Kafka und Apache Flink gemeinsam genutzt werden können, um Kundentransaktionsdaten anzureichern und ihren Wert zu erschließen. Die Teilnehmer erhalten praktische Umsetzungsstrategien und bewährte Verfahren, um Kafka und Flink optimal zu nutzen und Erkenntnisse aus rohen Transaktionsdaten in Echtzeit zu gewinnen.

Bevor Jan Svoboda bei Confluent seine Apache-Kafka-Reise begann, war er unter anderem als Advisory Platform Architect bei Pivotal. Seit April 2020 ist Jan bei Confluent als Solutions Engineer beschäftigt und hat dabei die Entwicklung von Stream Processing als sein Lieblings-Thema etabliert. Jan hält Abschlüsse in Management of Information Systems der UNYP sowie Computer Science an der UCF.

Jan Svoboda
F106
Jan Svoboda
F106
Vortrag: CSmi5

Vortrag Teilen

13:55 - 14:25
CSmi6
Case Study Denodo │ Data Fabric vs. Data Mesh: Agilität, Performance und schnellere Insights für das Business
Case Study Denodo │ Data Fabric vs. Data Mesh: Agilität, Performance und schnellere Insights für das Business

Datenlandschaften sind heute zunehmend komplex, hoch fragmentiert und global verteilt. Aus diesen Gründen rücken immer mehr Unternehmen von monolithischen und zentralisierten Datenarchitekturen ab und orientieren sich stattdessen an neuartigen Architektur-Paradigmen wie der Data Fabric oder Data Mesh. Im Vortrag gibt Otto Neuer, Regional Vice President und General Manager bei Denodo, spannende Einblicke in zentrale Fragestellungen:

  • Was steckt hinter den Konzepten von Data Fabric und Data Mesh – wo liegen die Gemeinsamkeiten, wo die Unterschiede?
  • Weshalb eignen sich diese Architekturen, um schnell und effizient auf aktuelle und zukünftige Business-Anforderungen zu reagieren?
  • Wie kann man eine Data Fabric oder ein Data Mesh mit einer logischen Datenschicht effizient und Governance-konform implementieren?

Otto Neuer - “I am passionate about working in one of the hottest spaces in the industry: Data Management. It is not just about data – it's also about people and the way we use data and related technologies. Therefore, I am proud to work with leading customers and partners, helping them to tackle their challenges and to build a sustainable data platform.”
- Regional Vice President and General Manager, Central Europe at Denodo since 2019
- Previous Sales Management roles in organizations like Talend, Informatica, Cognos & more

Otto Neuer
K3
Otto Neuer
K3
Vortrag: CSmi6

Vortrag Teilen

13:55 - 14:25
CSmi7
Case Study Fivetran | Business Intelligence 3.0 - Datenbasierte Entscheidungsfindung auf einem neuen Level
Case Study Fivetran | Business Intelligence 3.0 - Datenbasierte Entscheidungsfindung auf einem neuen Level

In dieser Session werden wir uns kurz die Entwicklung von Business Intelligence und Data Analytics im Laufe der Zeit anschauen und dann unsere Aufmerksamkeit auf die Zukunft datengesteuerter Organisationen richten. Raphael Teufel wird über seine Erfahrungen sprechen, die er in Zusammenarbeit mit verschiedenen Organisationen machen konnte. Ausgehend von diesen Perspektiven betrachten wir die notwendigen Komponenten für die Umsetzung einer erfolgreichen Datenstrategie in Unternehmen jeder Größenordnung. Wir werden herausfinden, was durch das Zusammenspiel eines modernen Analytics-Stacks und den richtigen Menschen und Prozessen möglich ist und wie man seine datenbasierte Entscheidungsfindung auf ein neues Level hebt.

Raphael Teufel hilft in seiner Rolle als Solutions Architecture Lead EMEA bei InterWorks seit über sechs Jahren Unternehmen dabei, einen Mehrwert aus ihren Daten zu generieren. Seine Philosophie für eine gute Datenstrategie besteht aus drei Kernkomponenten: People, Process und Platform (Technologie). Gemeinsam mit seinen Kunden arbeitet er daran, eine Datenvision und -strategie zu erschaffen, den für sie passenden modernen Analytics-Stacks zu implementieren und so Mitarbeitende im gesamten Unternehmen dazu zu befähigen, datengestützte Entscheidungen zu treffen.

Rafael Teufel
F127
Rafael Teufel
F127
Vortrag: CSmi7

Vortrag Teilen

13:55 - 14:25
CSmi8
Case Study Informatica | Operationalisierung & Automatisierung – Potenzial von Machine Learning voll ausschöpfen
Case Study Informatica | Operationalisierung & Automatisierung – Potenzial von Machine Learning voll ausschöpfen

Als Marktführer im Bereich Cloud-Datenmanagement versteht Informatica die Bedeutung von Machine Learning (ML) in modernen Datenworkflows. Um jedoch das volle Potenzial von ML auszuschöpfen, müssen Organisationen auch MLops akzeptieren - die Praxis, DevOps-Prinzipien auf Machine-Learning-Projekte anzuwenden.
In diesem informativen Vortrag tauchen wir in die Welt von MLops ein und erkunden bewährte Methoden, um ML nahtlos in Ihre Datenmanagementstrategie zu integrieren. Von der Datenerfassung und -vorbereitung über die Modellentwicklung, Bereitstellung und Überwachung diskutieren wir die wichtigsten Herausforderungen und Chancen von MLops und geben praktische Tipps, wie Sie diese bewältigen können.
Erfahren Sie, wie Sie Ihre ML-Workflows optimieren, Bereitstellungspipelines automatisieren, kontinuierliche Integration und Bereitstellung (CI/CD) für ML-Modelle implementieren und die Leistung von Modellen in der Produktion optimieren können. Entdecken Sie, wie die innovativen Lösungen von Informatica Ihnen helfen können, die Einführung von MLops in Ihrer Organisation zu beschleunigen, die Zusammenarbeit zwischen Data Scientists und IT-Betrieb zu verbessern und das volle Potenzial von Machine Learning für datengetriebene Entscheidungsfindung freizuschalten.

Dr. Martin Hebach verantwortet als Senior Solutions Architect bei Informatica seit beinahe 9 Jahren die Konzeption und kontinuierliche Weiterentwicklung der Architektur von cloudbasierten Datenmanagement-Lösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Dr. Hebach verfügt über eine langjährige Erfahrung in den Bereichen IT-Management, Unternehmensarchitektur und Beratung bei internationalen und größeren mittelständischen Unternehmen aus Finanz, Automotive und Bioscience. 

Martin Hebach
E101/102
Martin Hebach
E101/102
Vortrag: CSmi8

Vortrag Teilen

13:55 - 14:25
CSdo1
Case Study Ataccama| In Search of the Sweet Spot
Case Study Ataccama| In Search of the Sweet Spot

"The development of the data governance journey at Helaba will be presented using selected use cases. Which deficits hurt the most, how do you find the right tools, and what is the right tool in the right place? And as is appropriate for a journey - sometimes there are also dead ends, detours, and shortcuts.

Extended Abstract
In an era where data is invaluable, an adept Data Governance strategy is essential for organizations. Helaba, a leading financial institution, recognized the necessity of efficient Data Governance and embarked on this journey with the assistance of Ataccama, a provider of unified data management solutions provider.

The session will cover:
Selected real-world use cases to illustrate the steps of Data Governance development at Helaba and Ataccama's contribution to addressing critical deficiencies.
Methodologies used for identifying the right tools for governance. The audience will learn how the collaboration between Helaba and Ataccama ensured the adept placement and utilization of these tools within the governance framework. 
Insights into the detours, dead-ends, and shortcuts that were encountered, and how Helaba navigated through these challenges.

Attendees will leave with practical knowledge and strategies they can employ in their own organizations and an understanding of the benefits of partnering with Ataccama.


Target audience: Data Governance Professionals, Data Managers, IT Managers, Decision Makers, Strategy Consultants
Prerequisites: Basic understanding of Data Governance and IT management
Level of difficulty: Intermediate"

Since 2021, Marcus Schank, who boasts a rich background in consulting and an array of roles within line functions, has been a distinguished member of the Application Development for Data Warehousing team at Landesbank Hessen-Thüringen (Helaba). He is instrumental in fortifying the Treasury department through his expertise in Data Warehousing (DWH) and Business Intelligence (BI) applications. Moreover, as an IT Project Manager, he has been entrusted with spearheading a suite of projects aimed at the Treasury department as part of the strategic overhaul of the application infrastructure. Beyond his prowess in DWH and BI, Mr. Schank is well-versed in Business Architecture, Requirements Management, and Process Management. Outside the ambit of Helaba, he channels his acumen into organizational development, acting as a mediator and coach.

Marcus Schank
F111
Marcus Schank
F111
Vortrag: CSdo1

Vortrag Teilen

13:55 - 14:25
CSdo3
Case Study Scalefree │ Siemens Data & AI Cloud: Data Mesh meets Data Vault
Case Study Scalefree │ Siemens Data & AI Cloud: Data Mesh meets Data Vault

Siemens schafft mit Data Mesh ein innovatives Analytics-Ökosystem. Diverse Fachbereiche mit individuellen Verantwortlichkeiten arbeiten innerhalb eines Ökosystems zusammen, um Siemens zu einem data-driven Unternehmen zu transformieren. Eine große Herausforderung besteht darin, die Konsistenz zwischen den verschiedenen Bereichen zu gewährleisten. Data Vault spielt eine entscheidende Rolle bei der Bewältigung dieser Herausforderung.

Moritz Heimpel ist ein erfahrener Datenanalyst und IT-Experte, der seit 2013 bei Siemens arbeitet und seit Oktober 2021 als Chief Data Architect. Heute kann er als Head of Analytics und AI Enablement seiner Passion für Analytics und AI folgen. Durch seine umfassende Karriere ist er heute ein Experte in den Bereichen Data Analytics, Data Strategy, Strategic Planning, Data Architecture, IT Strategy und Snowflake.

Marvin Geerken ist, seit seinem Master-Abschluss in BI & Analytics Anfang 2021, als BI-Consultant für Scalefree tätig. Er ist Experte für das Design und die Implementierung von BI-Lösungen, mit Fokus auf der Data Vault 2.0 Methodik. In seinen Kundenprojekten hat er sich ebenfalls stark auf die Anwendung von dbt und Snowflake spezialisiert.

Moritz Heimpel, Marvin Geerken
E119
Moritz Heimpel, Marvin Geerken
E119
Vortrag: CSdo3

Vortrag Teilen

13:55 - 14:25
CSdo4
Case Study snaplogic │ Simplify Your Modern Data Stack with SnapLogic
Case Study snaplogic │ Simplify Your Modern Data Stack with SnapLogic

Simplifying the modern data stack by choosing a unified platform like SnapLogic can help to eliminate the need to purchase countless point-to-point solutions. Instead, data leaders are able to simply automate end-to-end processes, enable their teams faster, and manage their data more easily from one centralized solution.

Prerequisites: Awareness of what data integration is
Level: middle

 

As a consultant and developer for individual software solutions and process automation, Markus Pentzek has supported numerous customers in his 20-year career in the field of digitization. Today, as a Senior Solutions Engineer at SnapLogic, he is a proven expert on the topics of application and data integration as well as API management and advises customers from various industries in these areas. He is a speaker at various conferences and regularly hosts webinars.

Markus Pentzek
E101/102
Markus Pentzek
E101/102
Vortrag: CSdo4

Vortrag Teilen

13:55 - 14:25
CSdo6
Case Study Collibra │ Collibra Data Quality & Observability
Case Study Collibra │ Collibra Data Quality & Observability

In his talk, Michael showcases how Collibra Data Quality & Observability helps to improve the quality of data by learning through observation rather than human input. Collibra DQ applies the latest advancements in data science and machine learning to the problem of data quality, surfacing data issues much faster than traditional, manual approaches.

Michael has spent over 32 years at Oracle in various positions and departments from Product Management to Solution Consultancy, he joined Collibra in early January as a Senior Sales Engineer. At Collilbra, Michael supports our customers in EMEA so that they get access to the data in a quality they need to transform their business into modern digital enterprises.

Michael Schneller
K3
Michael Schneller
K3
Vortrag: CSdo6

Vortrag Teilen

Zurück