Hinweis: Die aktuelle TDWI-Konferenz findest Du hier!

CONFERENCE PROGRAM OF 2023

The times given in the conference program of TDWI München digital correspond to Central European Time (CET).

By clicking on "EVENT MERKEN" within the lecture descriptions you can arrange your own schedule. You can view your schedule at any time using the icon in the upper right corner.

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    20.06.
  • Mittwoch
    21.06.
  • Donnerstag
    22.06.
09:30 - 10:30
KeyDi1
ERÖFFNUNG und KEYNOTE: This is the way – eine DatenrAIse
ERÖFFNUNG und KEYNOTE: This is the way – eine DatenrAIse

Claudia Pohlink beschäftigt sich seit vielen Jahren mit Daten und KI. Dabei beobachtet sie die Trends und Entwicklungen auch außerhalb Europas und hat schon den einen oder anderen Hype überlebt.
Sie stellt konkret die Datenjourney der Deutschen Bahn vor. 2020 beschließt der Vorstand den Grundsatz des freien Datenzugangs und der freien Datennutzung innerhalb der Bahn, Ausnahmen sind zu begründen. Ein revolutionärer Beschluss, der zudem zu konzernweiter Datentransparenz verpflichtet. Wie sehen die Learnings und Erfahrungen der letzten 3 Jahre aus? Funktioniert so ein Datenkatalog und sind Data Owner wirklich so leicht zu finden? In 2023 startet die DB die AI Factory und zündet das Next Level. Gehen Sie mit auf diese Reise und lassen Sie sich überraschen, ob Sie pünktlich sind oder wo Sie landen?

Claudia Pohlink verfügt über 20 Jahre Berufserfahrung in den Bereichen Data Science, Data Management und Innovation Management. Aktuell leitet sie als Chief Expert Data bei der Deutschen Bahn das Data Intelligence Center und treibt die Daten & KI Strategie des Konzerns voran inkl. solcher Themen wie Data Governance, Datenmanagement, Datenarchitekturen, Data Mesh sowie Datenkatalog.
Davor leitete sie das Machine Learning Team bei den T-Labs, der Forschungseinheit der Deutschen Telekom. Als Co-Founderin von #startupnight, #DigitalWanderlust und #AI4DiversityHackathon stärkte sie den Transfer von Wissenschaft in die Wirtschaft. Zu ihren früheren Stationen zählen MTV Networks und Jamba/Rocket Internet. 
Nebenher ist Claudia Pohlink auch als Speakerin und Autorin aktiv, sie engagiert sich für die Bildung von Kindern und jungen Menschen im Bereich Daten & KI und gibt regelmäßig ihr Wissen bei Konferenzen sowie an Hoch-/Schulen weiter. Sie ist seit 2020 Mitglied und seit 2022 Vorsitzende des Vorstandes im Arbeitskreis AI bei der BITKOM. 2019 wurde Claudia als „Global Women Leader in AI“ und kürzlich als „40 over 40 - Germany's Most Inspiring Women 2022“ ausgezeichnet.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Claudia_Pohlink

Claudia Pohlink
Keynote Area
Claudia Pohlink
Keynote Area
Track: #Keynote
Vortrag: KeyDi1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:25
Di 1.1
Die Data Driven Culture bei congstar: Tango on the Street!
Die Data Driven Culture bei congstar: Tango on the Street!

Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/janine.ellner

Die Schlagworte 'Data Driven Company' und 'Data Driven Culture' sind mittlerweile in aller Munde. Die Firma congstar hat sich das Ziel gesteckt, diese Schlagworte mit Leben zu füllen. Unsere Vision: Wir wollen analytisches Arbeiten bzw. die Nutzung von Analysen nicht als elitäre Kunst von wenigen etablieren, sondern als etwas 'für jeden'. Wie wir diese Herausforderung angehen, welche Erfahrungen wir auf unserem Weg gemacht haben und was Data Driven Culture mit Tango zu tun hat, möchten wir euch in diesem Vortrag näherbringen.

Zielpublikum: Projektleiter:innen, Entscheider:innen
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die Notwendigkeit, Daten für Entscheidungszwecke zu nutzen, ist heutzutage bei den meisten Business-Leadern akzeptierte Realität. Die Schlagworte 'Data Driven Company' und 'Data Driven Culture' werden gern bemüht. Die Firma congstar hat sich das Ziel gesteckt, diese Schlagworte mit Leben zu füllen. Der Analytics-Bereich hat den Lead, um die Transformation hin zur Data Driven Culture und Data Driven Company aktiv zu gestalten. 
Dieser Auftrag hat es in sich, denn ein so umfassender Change ist nicht das typische Business eines Analytics-Bereiches. Unsere Aufgaben haben sich dadurch deutlich erweitert: statt der schwerpunktmäßigen Entwicklung von Artefakten stehen jetzt noch zusätzlich die Entwicklung von Menschen und Kultur auf unserem Plan. Warum? Keine Data Driven Company ohne Data Driven Culture, keine Kultur ohne Menschen. Um die Tragweite der Veränderungen und Herausforderungen zu verstehen, muss Folgendes gesagt werden: Unsere erste zentrale Rahmenbedingung ist es bei allem Change, die kleine, agile Organisation von congstar nicht zu überlasten. Unsere zweite, fast schon widersprüchlich wirkende Rahmenbedingung: Wir wollen prinzipiell alle Mitarbeiter so entwickeln, dass sie sich zutrauen, mit den für ihre Fragestellungen relevanten Daten zu arbeiten und sich selbst Antworten zu geben. Wir glauben nämlich fest daran, dass eine lebendige Data Driven Culture nur dann entsteht, wenn die Arbeit mit Daten kein 'Ding der anderen' ist, sondern sich jeder Mitarbeiter als berechtigt und befähigt fühlt.
Unsere Vision: Wir wollen analytisches Arbeiten bzw. die Nutzung von Analysen nicht als elitäre Kunst von wenigen etablieren, sondern als etwas 'für jeden'.
Wir haben daher beschlossen, die Mitarbeiter der Fachbereiche in den Fokus aller Aktivitäten zu stellen. In Konsequenz haben wir als einen ersten Schritt die Bedürfnisse, das Verhalten und die Wünsche der aktuellen und potenziellen Analytics-Anwender im Kontext Daten-Nutzung auf Basis einer Befragung modelliert und im Ergebnis Personas erstellt. Diese Personas leiten nun uns und die Anwender durch den Change und die Analytics-Welt. 
Als zentralen Erfolgsfaktor haben wir den Spaß an der Arbeit mit Daten identifiziert - als zentrales Hemmnis die Einschätzung der eigenen Fähigkeiten. Hier setzen wir aktiv an: Die Vermittlung von Spielerischer Leichtigkeit, Erfolgserlebnissen und Einfachheit ist ein wichtiges Ziel unserer Aktivitäten. Wir wollen Vertrauen in die eigenen Kompetenzen aufbauen, indem wir die Einstiegshürden so niedrig wie möglich gestalten. Nur wer den Weg in die Datenwelt betritt, kann auch weiter kommen. Dafür setzen wir am Toolset, am Dataset und selbstverständlich auch am Skillset an. 
Kann die Transformation so gelingen? Wir haben keine abschließenden Antworten, denn wir sind mittendrin. Wir haben aber erste klare Erfolge. Wichtige Erfahrungen möchten wir teilen. Und die Frage erläutern, was Data Driven Culture mit Tango zu tun hat.
Für dich: Akutes Beispiel wäre der Auswahlprozess Pyramid, das Modellieren der neuen Datenmodelle mit den Fachbereichen, der Communityaufbau. Die Idee des Teilens und zusammen Machens werden sich als roter Faden durchziehen.

Alena Haget ist seit 5 Jahren bei der congstar GmbH tätig. Als Product Owner im Bereich Data & Analytics ist sie verantwortlich für die Betreuung der Fachbereiche und der Etablierung einer Data Driven Culture. Ihr besonderes Interesse gilt fachlichen Anforderungen und innovativen Analytics-Tools.

Torsten Macht ist studierter Wirtschaftsinformatiker und Analytics-Enthusiast, der seit zwei Jahren als IT-Analyst und Scrum-Master bei congstar arbeitet. Mit seiner Kreativität und Innovationsbereitschaft bedient er die Schnittstelle zwischen agiler Entwicklung, Betrieb und digitaler Transformation. Seine Leidenschaft ist die Einführung neuer Technologien im Kontext agiler Serviceentwicklung.

Janine Ellner ist als Lead Consultant für OPITZ CONSULTING Deutschland GmbH im Bereich Analytics tätig. Hier liegt ihr Schwerpunkt auf der ganzheitlichen Betreuung des Kunden. Dies umfasst die Analyse von Anforderungen, die Unterstützung bei fachlichen Fragestellungen sowie die Weiterentwicklung von DWH-Systemen. Ihr besonderes Interesse gilt Data-Culture-Themen sowie innovativen Technologien und modernen Analytics-Werkzeugen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/janine.ellner

Alena Haget, Torsten Macht, Janine Ellner
K3
Alena Haget, Torsten Macht, Janine Ellner
K3
Vortrag: Di 1.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:25
Di 2.1
Moderne Datenarchitekturen – die Qual der Wahl
Moderne Datenarchitekturen – die Qual der Wahl

Data Lakehouse, Data Fabric, Data Warehouse, Data Lake, Data Mesh, Data Estate, Data Virtualisation, Data Vault ... was sind die Kriterien für eine anwendungsfallabhängige Auswahl einer Datenarchitektur? Was sind technische und was eher organisatorische Konzepte? Wie lässt sich das mit den Anforderungen an moderne analytische Datenplattformen von Governance über data quality bis responsibility übereinbringen? Begriffsbestimmung und Einordnung der Konzepte. Erfahrungen aus dem Projektgeschäft (herstellerunabhängig) -> Best-Practice-Ansätze

Zielpublikum: CIO, IT-Leiter:innen, IT-Architekt:innen, Data-Analyst:innen
Voraussetzungen: Interesse und ggf. offene Fragen
Schwierigkeitsgrad: Fortgeschritten
 

Alexander Jochum ist seit 30 Jahren tätig im Dienste der Informationen für Geschäftssteuerung - als Berater bei Information Ressources und bei Oracle und Mitbegründer von DATA MART Consulting im Jahre 1997. 
Als Wirtschaftsingenieur schon immer sowohl an der fachlichen Fragestellung als auch an der technischen Umsetzung interessiert und hier in vielen internationalen Projekten von Konzernrechnungslegung bis eCommerce begeistert in den Projekten tätig.

Lukas Gomber unterstützt seit 7 Jahren als Berater Kunden dabei ihre analytischen Fragestellungen auf der passenden Plattform selbst zu beantworten. In den letzten Jahren hieß das vor allem der Aufbau analytischer Datenplattformen in verschiedenen Cloud-Umgebungen. Zunächst als Statistiker und Marketinganalyst und seit 2019 als Senior Consultant bei DATA MART, hat sich ein Fokus für Handelsunternehmen und deren schnell wachsende Datenbedürfnisse entwickelt.

Alexander Jochum, Lukas Gomber
F111
Alexander Jochum, Lukas Gomber
F111
Vortrag: Di 2.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:25
Di 3.1
Entfesseln Sie den Wert von SAP-Daten in Databricks
Entfesseln Sie den Wert von SAP-Daten in Databricks

In der Vergangenheit wurden Daten häufig in einem monolithischen Data Warehouse gespeichert. Heute, mit dem Aufkommen von Big Data und dem Ruf nach Advanced Analytics, müssen bestehende Datensilos aufgebrochen werden. Eine besondere Herausforderung obliegt dabei der Öffnung des SAP-Universums und dem Zugriff auf die Datenschätze der unterschiedlichen SAP-Quellsysteme. 
Der Dozent präsentiert, wie SAP und Databricks Lakehouse auf direktem Wege kommunizieren können, ohne dass es Third-Party-Werkzeuge bedarf.

Zielpublikum: Fachleute, die SAP-Daten in eine Datenplattform (hier Databricks Lakehouse) integrieren möchten
Voraussetzungen: Grundlegendes Verständnis des SAP-Integrationsframeworks ODP und der Cloud-Infrastruktur (z. B. Azure Datalake Storage) sowie Databricks Lakehouse
Schwierigkeitsgrad: Fortgeschritten
 

Dr. Julius von Ketelhodt gestaltet und entwickelt seit vielen Jahren Data & Analytics-Projekte für namhafte Kunden aus verschiedenen Branchen. Sein Fokus liegt auf der Integration relevanter Daten aus verschiedenen SAP-Quellsystemen in führende Cloud-Datenplattformen. Als Product Lead leitet er ein Team, um die SAP-Integration weiterzuentwickeln und stetig zu vereinfachen. Sein Hintergrund liegt in der Physik mit Promotion im Bereich Seismologie.

Julius von Ketelhodt
K4
Julius von Ketelhodt
K4
Vortrag: Di 3.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:25
Di 4.1
Datenmanagement & Python Good Practices für Wartbarkeit
Datenmanagement & Python Good Practices für Wartbarkeit

Python erfreut sich immer größerer Beliebtheit im Datenmanagement. Der Einstieg in Python mit Paketen wie dbt, pyspark, keras, pytorch ist einfach. Rapid Prototyping mit Notebooks und die ersten Codezeilen sind schnell entwickelt. Doch sobald der Code produktiv geht ... (und manche wären schon froh, wenn der Code überhaupt produktiv geht).

Die Session geht auf Pakete und Techniken rund um Code-Formatierung, Linting, Testing, Security, Dokumentation, Versionskontrolle ein, um das Datenmanagement mit Python auf ein neues Level zu bringen.

Zielpublikum: Data Engineers, Data Architects, Projektleiter:innen
Voraussetzungen: Grundkenntnisse in Python
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Python erfreut sich immer größerer Beliebtheit im Datenmanagement. Data Scientists, Data Engineers, ML Developer u. a. nutzen Python für eine Vielzahl von Funktionalitäten: von Datenimport über Datenintegration bis hin zu Machine Learning und Datenvisualisierung. Der Einstieg in Python ist einfach. Die ersten Codezeilen sind schnell entwickelt, doch sobald der Code produktiv geht (und manche wären schon froh, wenn der Code überhaupt produktiv geht) ...

Man spricht viel über die zahlreichen, coolen Pakete rund um das Datenmanagement: pyspark, dbt, pytorch, keras, GreatExpectations sind ein paar Beispiele. Doch was ist mit Software-Engineering und Code-Qualität? Und wie sieht es mit Notebooks aus? Schnelles Prototyping und dann ab in die Produktion damit?

Aber keine Sorge, mit den richtigen Paketen und Techniken gibt es Lösungen in Python. Die Session geht auf Pakete und Techniken rund um Code-Formatierung, Linting, Testing, Security, Dokumentation, Versionskontrolle ein, um das Datenmanagement mit Python auf ein neues Level zu bringen.

Andreas Buckenhofer arbeitet bei Mercedes-Benz Tech Innovation in Ulm als Lead Expert 'Vehicle Data Platforms'. Er verfügt über langjährige Erfahrung in der Entwicklung datenintensiver Produkte. Seine Schwerpunkte dabei sind insbesondere Datenarchitektur, Datenspeicherung, Datenintegration und Datenqualität.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/andreas.buckenhofer

Andreas Buckenhofer
E101/102
Andreas Buckenhofer
E101/102
Vortrag: Di 4.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:25
Di 5.1
How to become a data-driven company!
How to become a data-driven company!

It's no secret that in today's data-driven world, companies that effectively use data to make decisions have a competitive advantage. Our talk is not about why you should become a data-driven company, but how you should do it. The focus will be on guiding the change of the organizational mindset through a holistic approach including people, infrastructure and use cases for unlocking the full potential of data! The talk will also touch on the challenges that companies face in their data-driven journey and how to overcome them.

Target Audience: Middle Management und CIOs, die Heads of ... Innovation / Digital / Risk, all levels of curious minds who are keen on driving a data-driving decision making in their organization
Prerequisites: Motivation to understand how to become a data-driven company, not why. Whether you are just starting on your data-driven journey or looking to take your efforts to the next level, this talk is suitable for you. Join us to learn how to become a data-driven
Level: Basic

Mariana Hebborn has the responsibility for one of the most valuable assets of our time: data, as Data Governance Lead at Merck Healthcare. 
Mariana Hebborn has many years of experience in data analytics, governance, and management. She holds a PhD in Computational Data Processing and to date has worked and led several teams and projects in Data Science and Data Digitization for various companies such as IBM, Fujitsu and Viridium Group in Europe and Asia. 
When she is not busy with data-driven missions, she is dedicated to her family and sports activities.
 

Heiko Beier is an IT professional with 25+ years of experience in designing architectures and data-driven AI-based solutions for automation of business processes. As founder and CEO of Moresophy he combines visionary and strategic thinking with profound knowledge on advanced data intelligence and the ability to execute and motivate teams. His focus is on techniques and processes for implementing explainable, trusted AI on bulk information across the full value chain. As part-time professor he is also a renowned keynote speaker for topics regarding the effective compliant use of AI.

Mit Fundamenten in Actuarial Science, Computer Science und Wirtschaftswissenschaften ist Dr. Jan-Hendrik Weinert ein Datenstratege und Experte für Risk Analytics, der sich dafür einsetzt, eine Kultur der datengetriebenen Entscheidungsfindung in der Finanz- und Versicherungsbranche voranzutreiben. Als Architekt der unternehmensweiten Analytics-Plattform und eines Datenvirtualisierungslayers der Viridium Gruppe fördert er die unternehmensweite, dezentrale Zusammenarbeit mit Daten und beschleunigt die Entwicklung hin zu einem datengetriebenen Versicherer. Sein Engagement trägt dazu bei, die Lücke zwischen Technologie und Geschäftswelt zu schließen.

Mariana Hebborn, Heiko Beier, Jan-Hendrik Weinert
E119
Mariana Hebborn, Heiko Beier, Jan-Hendrik Weinert
E119
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:25
Di 6.1
Skalierbare Optimierung von Großanlagen mit ML und DevOps
Skalierbare Optimierung von Großanlagen mit ML und DevOps

Nach einem erfolgreichen PoC werden viele ML-Vorhaben aus Gründen des zeitlichen Aufwandes nicht produktiv umgesetzt. Im Bereich der Prozesssteuerung von Großanlagen können jedoch Optimierungen durch Machine Learning immense Kosteneinsparungen und Produkteffizienz bedeuten. Wir beschreiben den Prozess der Einführung von MLOps in der Azure Cloud zur Steuerungsoptimierung Hunderter Luftzerlegungsanlagen. Wir gehen auf Herausforderungen und Lösungsansätze ein, um MLOps in der Cloud parametrisierbar, skalierbar und überschaubar einzuführen.

Zielpublikum: Data Scientists, DevOps Engineers, Software Engineers, Cloud-Architekt:innen, Entscheider:innen, Project Information Manager
Voraussetzungen: Grundwissen Software Engineering, Machine Learning und DevOps
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Die Optimierung von Großanlagen wie Luftzerlegungsanlagen ist von zentraler Bedeutung, um langfristig und lieferkettenübergreifend Kosten zu reduzieren und die Produkteffizienz zu erhöhen. Die Implementierung von anlagenspezifischen Advanced Process Controls ist jedoch teuer, aufwendig und sehr zeitintensiv. Mittels Machine-Learning-Verfahren, insbesondere dem Reinforcement Learning, kann dieser Zeitaufwand auf gerade einmal einen Monat reduziert werden. Das resultierende Machine-Learning-Modell gleicht einem digitalen Zwilling der Anlage, welcher für die Simulation und Optimierung diverser Einstellungen für die Anlage nützlich ist. Ziel nach einem erfolgreichen PoC ist die vollautomatisierte und skalierbare Operationalisierung der gesamten Infrastruktur und Daten-Pipeline. Die Umsetzung dieses Projektes erfolgte aus Gründen von verfügbarer Hardware, Firewall-Richtlinien, Verfügbarkeit und Wartung der Systeme in der Cloud und nicht on-premise.

Dieser Vortrag betrachtet die Migration des Machine-Learning-Projektes von on-premise in die Microsoft Cloud. Wir zeigen, welche Herausforderungen bei der Umsetzung eines skalierbaren MLOps-Prozesses auftreten können und wie diese in diesem Projekt gelöst wurden.
 

Malwin Weiler ist als Trainee bei Linde Engineering eingestiegen und nun als Advanced Automation Engineer zuständig für Cloud-optimierte Lösungen. Er ist für die Automatisierung und Skalierung des neuen ML-basierenden Model Predictive Control für Luftzerlegungsanlagen zuständig.

Melanie B. Sigl ist Managing Consultant und leitet den Bereich Machine Learning bei PRODATO Integration Technology GmbH. Zusätzlich ist sie Lehrbeauftragte für 'Knowledge Discovery in Databases' am Lehrstuhl für Datenmanagement an der FAU Erlangen-Nürnberg.

Malwin Weiler, Melanie B. Sigl
E124
Malwin Weiler, Melanie B. Sigl
E124
Vortrag: Di 6.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 14:50
Di 7.1
Limitiert Stream Analytics Workshop
Stream Analytics Workshop

High-quality analyses are only useful if they are available in time. By analysing data near-real time, highly up-to-date evaluations can be produced. Based on the technological foundation of Splunk, the workshop will offer practical insights into stream data analysis. Evaluating data streams directly offers considerable added value, especially for time-critical or alarm-based systems. The analysis already takes place during data transmission, as the data stream is potentially infinite.

Maximum number of participants: 40. Laptop is required. 
There must be an installation permission on your laptop.

Target Audience: Data Engineer, Data Scientist, IT Engineer, Developer, IT Operations, Security Analyst
Prerequisites: Please bring your own laptop with permissions to install software and internet access. Both Linux and Windows are supported.
Level: Basic

After many years of working with relational databases, Tom Fels started working with stream data analytics platforms in 2018 and became a certified Splunk Architect in 2020. Besides, he also holds trainings around Splunk.

Marie-Christin Kloss has been working at Robotron since 2012 and has found her way from SW testing (automation) to DevOps to data analytics during this time. She has been involved with this since 2015. 
Since 2019, she is an architect and head of a data analysis team, with which several large customers are supported from development to operation. 

Tom Fels, Marie-Christin Kloss
E105
Tom Fels, Marie-Christin Kloss
E105
Vortrag: Di 7.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:25
Di 8.1
Die DOAG und Data Analytics - Vorstellung DOAG und Einschätzung der aktuellen Themen
Die DOAG und Data Analytics - Vorstellung DOAG und Einschätzung der aktuellen Themen

In diesem Vortrag stellen die beiden Referenten die DOAG als Verein und ihre aktuelle Ausrichtung vor und nehmen Position ein zu den relevanten Themen aus dem Umfeld DATA Analytics und KI. Im Anschluss an die Vorstellung des Vereins und seiner Struktur und Zielsetzung werden im Gespräch die Schwerpunkte der Data Analytics Community in der DOAG vorgestellt, betrachtet und eingeschätzt. Dabei nehmen wir insbesondere Bezug auf die Inhalte der nachfolgenden Vorträge und Diskussionen. Die rasant gestiegene Bedeutung von KI seit Beginn des Jahres, die Nutzung von Daten im Rahmen von Data Mesh und die damit verbundene Sichtweise als data as a product sowie verstärkte Wahrnehmung von Data Analytics über die gestiegene, promiente Nutzung im Sport vom Fußball bis zur Formel 1 werden angesprochen. 

Gelernter Entwickler und seit 1984 in der IT der IKB Deutschen Industriebank AG in Düsseldorf. In den Jahren 2005-2018 als Teamleiter und Direktor zuständig für Entwicklung des Kreditsystems KreDa der Bank. Die Basis der Anwendung sind ORACLE DB, ORACLE FORMS und Reports sowie seit 2013 ORACLE ADF. Der aktuelle persönliche Schwerpunkt liegt auf Themen der Strategie und Innovation sowie insbesondere der agilen Methoden. Seit 2019 im Fachbereich im Competence Center Kredit. Über die Development Community ergaben sich die ersten Berührungspunkte mit der DOAG und war seit Gründung und bis 2020 Mitglied im DOAG-Anwenderbeirat.  

In den letzten Jahren hat er sich neben Vorträgen auf der DOAG K+A und der Arbeit im Anwenderbeirat auch im Arbeitskreis Strategie der DOAG und im Arbeitskreis Nachwuchsförderung in Verbindung mit der #nextgen engagiert. Über diese Aktivitäten ist sein Interesse an der DOAG weiter gestiegen und hat seit 2020 die Möglichkeit als Vorstand der Data Analytics Community die Entwicklung der DOAG mitzugestalten. 

Seit Juni 2020 im Vorruhestand und seitdem auch zeitweise als Trainer für Innodrei tätig. 

Beruflich bin ich Geschäftsführer und COO bei der Scompler Technologies GmbH. Ich verantworte die Weiterentwicklung der SaaS Plattform, kümmere mich um das operative Tagesgeschäft und berate Kunden bei der Einführung, Integration und Nutzung.  

Seit April 2020 bin ich Vorstandsvorsitzender der DOAG. Zuvor war ich Vorstand und Leiter der Data Analytics Community und bin seit 2010 mit kurzer Unterbrechung Vorstandsmitglied (unter anderem als Gründer und Leiter der Infrastruktur und Middleware Community).  

Was ich für die DOAG bewirken möchte: Um bei der durch die immer schneller werdende Entwicklung und Transformation von Business und Technologie am Ball zu bleiben, braucht es ein starkes Netzwerk zum Austausch und Wissenstransfer. Die DOAG bildet dieses Netzwerk und vertritt die Interessen der Anwender gegenüber den Herstellern. 

Armin Wildenberg, Björn Bröhl
F106
Armin Wildenberg, Björn Bröhl
F106
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 18:30
SDdi1
Special Day Confluent │ Breaking Batch: Ein Tag rund ums Daten-Streaming
Special Day Confluent │ Breaking Batch: Ein Tag rund ums Daten-Streaming

Die Umsetzung einer erfolgreichen Datenstrategie ist nicht einfach, aber die Einschränkungen, die durch zentralisierte Punkt-zu-Punkt-Batch-Architekturen entstehen, machen es noch schwieriger. Daten-Streaming-Plattformen heben diese Beschränkungen auf, indem sie Echtzeit-Konnektivität zwischen SaaS-, Analyse- und Datenbanksystemen ermöglicht, die es mehr Nutzern erlaubt, mehr Daten mit weniger Redundanz und weniger Abhängigkeit von zentralisierten Teams zu nutzen. Was wollen wir an diesem Special Day vorstellen und diskutieren?

  • Herausforderungen bei der Entwicklung einer modernen und zukunftssicheren Daten- und Analytics-Strategie
  • Wie gehen wir mit dem “Erbe der Zentralisierung” um? Datenqualität, Governance, Integration und Self-Service im Praxiseinsatz
  • Geschäftsvorteile, die sich aus der Erfassung von Echtzeit-Dateneinblicken, der Erstellung von Datenprodukten und der Befähigung von Teams in der gesamten Organisation mit Daten ergeben
  • Wie die Daten-Streaming-Plattform die Grundlage für einen modernen Ansatz bildet, sowohl on-premise als auch in der Cloud und in hybriden Umgebungen
  • Anwendungsbeispiele aus der Praxis von Versicherungen, Banken, eCommerce und vielen weiteren
F130
F130
Vortrag: SDdi1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:25
SDdi1.1
Special Day Confluent │ AWS and Confluent for Real-time Analytics and Data Streaming
Special Day Confluent │ AWS and Confluent for Real-time Analytics and Data Streaming

Discover the power of combining Amazon Web Services (AWS) and Confluent for real-time analytics and data streaming. This talk explores the synergistic capabilities of both platforms in building scalable, reliable, and high-performance streaming architectures.Learn how AWS data services and Confluent's Apache Kafka-based platform for managing event-driven architectures combine to deliver a solution for your business. Gain practical insights into integration strategies, data transformation, stream processing, and data integration patterns. Join us to unlock the full potential of real-time analytics and data streaming in today's data-driven landscape.

Prerequisites: Basic knowledge of what Kafka and Data Streaming are
Level: Advanced

Nuno Barreto is a Partner Solutions Architect at Amazon Web Services (AWS), specializing in data and analytics. With his vast experience in building successful products in multiple verticals, including the banking domain in Switzerland, he is helping Customers and Partners to develop secure and compliant data solutions in their cloud journey.

Nuno Barreto
F130
Nuno Barreto
F130
Vortrag: SDdi1.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:25
TDi1
Partner-Track Orion Governance │ How to Create Reporting Trust Using Data Fabric
Partner-Track Orion Governance │ How to Create Reporting Trust Using Data Fabric

Reports play a crucial role in both business operations and meeting regulatory requirements but managing a complex IT system with data flowing through various technologies can make it challenging to identify potential issues and create reliability.

Ramesh Shurma is the founder and CEO of Orion Governance Inc.  Prior to starting Orion, Ramesh developed his expertise by working in very data intensive environments as an enterprise architect, application architect, and senior consultant and programmer with a very strong business and technology focus.  His vertical market experience spans across Financial Services, Healthcare, Retail and Electronic Design Automation.  His Silicon Valley roots taught him the valuable lesson of innovation and customer service.  The motivation behind Orion was to solve a real-world need that most of the other companies had overlooked in favor of an unreliable manual approach.  The road less traveled, where people dared to tread, but was taken in the spirit of innovation, that is Orion Governance today.  Under his hard work, the team has grown to multiple millions in revenue in a short period of time.  He is fluent in multiple languages including French, Hindi and English.  His hobbies include aviation, traveling and having his three dogs take him on daily walks.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/ramesh.shurma

Ramesh Shurma
F129
Ramesh Shurma
F129
Vortrag: TDi1
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
Di 1.2
Data Culture: Mit Methode zur Data Driven Company
Data Culture: Mit Methode zur Data Driven Company

Unternehmen stellen sich die Frage: Wie stehen wir zu Daten? Wie prägen sie unsere Entscheidungen und Prozesse? Die Data Culture eines Unternehmens umfasst datenbezogene Werte und Verhaltensweisen. Um eine erfolgreiche Transformation der Data Culture zu erreichen, muss zunächst die aktuelle Kultur des Unternehmens erfasst und die unternehmensspezifische Zielkultur bestimmt werden. Wir berichten über unser Best-Practice-Framework und welche Blueprints Unternehmen nutzen können, um ihre spezifische Datenkultur zu transformieren und zu stärken.

Zielpublikum: CDO, CIO, Verantwortliche Data & Analytics 
Voraussetzungen: Data Culture, Data Strategy, Unternehmenskultur, OE
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Jedes Unternehmen hat eine Data Culture, auch wenn es sich bisher nicht bewusst damit beschäftigt hat. Unser Framework spiegelt unsere Erfahrungswerte und Kundenerfahrungen wider, wie die Data Culture eines Unternehmens systematisch aufgearbeitet und transformiert werden kann.
Die grundlegende Ausrichtung der Data Culture basiert auf den Leitplanken von Unternehmensstrategie und -kultur und muss die Frage beantworten: Was bedeutet für das eigene Unternehmen 'Data-Driven'? Unsere Blueprints helfen zu identifizieren, welche Data Culture passt zur eigenen Organisation, welche nicht.
Faktoren wie Data Leadership, Data Democracy, Data Governance oder Data Literacy können als Beschleuniger fungieren, wenn sie richtig etabliert werden. Unternehmen, die ihre eigenen Lücken identifizieren und die Abhängigkeiten der Faktoren untereinander in ihrer spezifischen Organisation adressieren, können schnelle Fortschritte erzielen. Maßnahmen müssen auf Menschen und Organisation maßgeschneidert sein, wie jedes erfolgreiche Transformationsunterfangen. Wir berichten von unseren Praxiserfahrungen mit Stolpersteinen und Success Stories bei der Transformation zur Data Driven Company.

Management Consultant
Laura Leester beschäftigt sich bereits in ihrer Masterthesis an der Technischen Hochschule Mittelhessen in Digital Business mit dem Thema und Handlungsmöglichkeiten von Data Culture. Sie führt dies bei INFOMOTION als Management Consultant mit einem Themenschwerpunkt auf Data Culture und Change Management fort, um Kunden zu unterstützen, sich zu einer Data Performing Enterprise zu entwickeln.

Dr. Sven Liepertz ist seit über 10 Jahren in Wissenschaft und Wirtschaft aktiv, um aus Daten neue Erkenntnisse und fundierte Handlungsempfehlungen zu gewinnen. Dabei unterstützt er bei INFOMOTION als Senior Management Consultant Kunden bei der Weiterentwicklung von Data & Analytics-Strategien zur Steigerung der Data Performance des Unternehmens.

Laura Leester, Sven Liepertz
K3
Laura Leester, Sven Liepertz
K3
Vortrag: Di 1.2
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
Di 2.2
Modern Data Stack – Best-of-Suite gegen die jungen Wilden
Modern Data Stack – Best-of-Suite gegen die jungen Wilden

Der Modern Data Stack hat die letzten Jahre deutlich an Popularität gewonnen. Wie schlagen sich etablierte Best-of-Suite-Anbieter im Vergleich? Die Vielfalt an Ansätzen für Data & Analytics Cloud-Architekturen wächst und gewinnt an Dynamik. Nach dem Fail-Fast-Ansatz müssen Komponenten ihren Wert beweisen oder werden ausgetauscht. 
In dem Vortrag wird der Frage nachgegangen, was die Stärken einer 'Best of Breed'-Architektur im Sinne des Modern Data Stack sind und wann integrierte Lösungsanbieter wie z. B. SAP die Nase vorn haben.

Zielpublikum: CDO, CIO, Verantwortliche Data & Analytics, Datenarchitekt:innen
Voraussetzungen: Grundwissen Data & Analytics in der Cloud von Vorteil
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der Modern Data Stack ist kein klar abgegrenzter Begriff. Jedoch kann dieser als ein Gegenentwurf zu den großen etablierten Anbietern verstanden werden, welche alles aus einer Hand anbieten.
Neue Entwicklungen in der Cloud, ein agiles Mindset und der hohe Bedarf von zunehmend datengetriebenen Unternehmen an neuen analytischen Fähigkeiten treiben den Markt zu neuen Funktionen und dem optimalen Fit auf die Unternehmensstrategie. Die großen Anbieter wie SAP, Microsoft oder AWS jedoch bieten ein weitgehendes Komplettangebot für Data & Analytics, ermöglichen eine hohe Interoperabilität ihrer Komponenten und sind oft in den Unternehmen schon etabliert.
Die hohe Dynamik bei aktuellen Cloudangeboten erschwert ein klares Bild der Vor- und Nachteile der unterschiedlichen Ansätze. Der Vortrag wirft den Blick auf die wesentlichen Punkte und gibt Orientierung zu typischen Fragestellungen.
 

Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einstieg bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Peter_Baumann

Jonas Holthuysen unterstützt seine Kunden auf dem Weg zur datengetriebenen Organisation in verschiedenen Rollen. Er greift in umfangreichen, internationalen Implementierungsprojekten als Architekt, Projekt- und Teamleiter auf langjährige SAP-Erfahrung zurück. Dieses Know-how nutzt er zunehmend zur technologieunabhängigen Architektur- und Strategieberatung im Kontext Data & Analytics, sodass Organisationen den größtmöglichen Mehrwert aus Daten ziehen können.

Peter Baumann, Jonas Holthuysen
F111
Peter Baumann, Jonas Holthuysen
F111
Vortrag: Di 2.2
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
Di 3.2
Responsible AI: Von abstrakter Idee zu konkreter Umsetzung
Responsible AI: Von abstrakter Idee zu konkreter Umsetzung

Mit Blick auf die zunehmende Durchdringung von AI in den Geschäftsmodellen, regulatorischen Anforderungen wie dem EU-AI-Act und fehlendem Vertrauen der Kunden in AI stellt sich die Frage, wie Unternehmen dem gerecht werden. Welche Herausforderungen stellen sich bei der Umsetzung? Was heißt das für Modelle, Datenerhebung und Datenvorbereitung? Wir geben einen Einblick in das Thema Responsible AI, erläutern Herausforderungen und geben konkrete Ansätze für die Umsetzung anhand praktischer (Daten-)Beispiele.

Zielpublikum: Data Science und AI Praktizierende und Verantwortliche, Complianceverantwortliche, C-Level, Management, Datenmanagement, Data Governance Verantwortliche, Innovationsfördernde
Voraussetzungen: Basisverständnis von Künstlicher Intelligenz bzw. Machine Learning
Schwierigkeitsgrad: Einsteiger
 

Der studierte Wirtschafts- und Organisationswissenschaftler (M.Sc.) Ronny Kant fördert seit über 7 Jahren die digitale Transformation - sowohl organisatorisch als auch technisch bei unterschiedlich großen Kunden. In seiner Rolle als Manager und Projektleiter beschäftigt er sich mit regulatorischen Anforderungen, Data Science, Data Governance sowie Organisationsentwicklung und verantwortet aktuell ein Team von über 20 Experten:innen in den Bereichen Data Science, BI und Data Management.

Marc-Nicolas Glöckner ist seit neun Jahren für die PPI AG als Berater im Bereich Banking tätig. Als Senior Manager berät er seine Kunden vornehmlich in den Bereichen statistische Modellierung und KI. Fachliche Schwerpunkte sind dabei vor allem Kreditrisiko und Fraud Detection. Vor kurzem hat er eine Artikelserie zum Thema Explainable AI veröffentlicht.

Ronny Kant, Marc-Nicolas Glöckner
K4
Ronny Kant, Marc-Nicolas Glöckner
K4
Vortrag: Di 3.2
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
Di 4.2
Data Warehouse-Automatisierung – Erwartungen und Realität
Data Warehouse-Automatisierung – Erwartungen und Realität

Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/dirk.lerner

Wie können immer wiederkehrende Aufgaben vereinfacht werden? Die Frage nach der Automatisierung von Datenlogistikprozessen in einem Data Warehouse beschäftigt heute die Projektteams. Der Wunsch nach einem umfassenden Automatisierungsprodukt ist dann meist sehr schnell da. Die Erwartungen sind hoch, die Enttäuschung (nach der Produktauswahl) nicht selten.

In dieser Session gibt Dirk Lerner einen Einblick in die Erwartungen der Projektteams, die Abläufe der Produktauswahl und die Realität.

Zielpublikum: Projektleiter:innen, Data Management Expert:innen, Data Engineers, Entscheider:innen, Produktauswahl-Teams
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Nicht wenige Data Warehouse (Data Solution)-Projektteams denken heute über die Automatisierung ihrer Datenlogistikprozesse nach. Wie kann man die immer gleichen Aufgaben vereinfachen, diese Prozesse einem Automatismus überlassen und dabei möglichst wenig wiederkehrenden Aufwand in die Entwicklung stecken? Der Wunsch nach einem umfassenden Automatisierungsprodukt für die Datenlösung kommt dann meist sehr schnell auf.

Mittlerweile gibt es viele solcher Produkte auf dem Markt: Etablierte, Newcomer und Eigenentwicklungen. Die Projektteams haben die Qual der Wahl. Und erleben nicht selten (nach der Produktauswahl) eine Enttäuschung.

In dieser Session gibt Dirk Lerner einen Einblick in die Erwartungen der Projektteams, die Abläufe der Produktauswahl und die Realität.

Dieser Vortrag enthält weder eine Empfehlung für ein bestimmtes Produkt noch wird es vom Referenten erwähnt oder bewertet!

Dirk Lerner ist ein unabhängiger und erfahrener Berater und Coach. Mit mehr als zwei Jahrzehnten Erfahrung in BI-Projekten ist er ein ausgewiesener Experte für BI-Architekturen, Datenmodellierung und temporale Daten. Dirk setzt sich für flexible, schlanke und leicht erweiterbare Data Warehouse-Architekturen ein.
Im Rahmen der TEDAMOH Academy coacht und trainiert Dirk in den Bereichen temporale Daten, Datenmodellierungszertifizierung, Datenmodellierung im Allgemeinen und Data Vault im Besonderen.
Als Pionier für Data Vault und FCO-IM in Deutschland hat er zahlreiche Publikationen veröffentlicht und ist ein hochgeschätzter internationaler Sprecher auf Konferenzen. Er ist Autor des Blogs https://tedamoh.com/blog.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/dirk.lerner

Dirk Lerner
E101/102
Dirk Lerner
E101/102
Vortrag: Di 4.2
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
Di 5.2
Die Daten im Griff: ein guter Plan
Die Daten im Griff: ein guter Plan

Um datenorientiert agieren zu können, hat die Volksbank Wien vor, die komplexe Datenlandschaft zu vereinfachen und verständlich zu machen. Die organisatorische Struktur wird an die aktuellen Herausforderungen angepasst. Dazu werden 2 miteinander agierende Metadatenwelten erstellt, um das Fachdaten- und Datenqualitätsmanagement bestmöglich abwickeln zu können. Für die Bank ist es notwendig, eine Data Governance-Policy, Data Governance-Richtlinien, eine Datenstrategie und ein neues Fachdatenmodell zu erstellen sowie die kritischen Daten zu erheben.

Zielpublikum: Data Manager, Projektleiter:innen
Voraussetzungen: Grundkenntnisse Data Governance und Datenmanagement
Schwierigkeitsgrad: Einsteiger

Raluca Heigl, geboren in Sibiu/Rumänien, absolvierte ihr Wirtschaftsstudium in Bukarest, Abschluss im Jahr 2001.
2014 ergänzte sie die akademische Ausbildung mit Master of Business Administration Corporate Governance und Management an der Donau Uni Krems.
Berufliche Erfahrungen sammelte sie bei Bank Austria in Bukarest und Wien, 6 Jahre in Operation, hievon 3 Jahre in einer leitenden Position. 
Seit 2007 ist sie im Volksbankensektor tätig: die ersten 10 Jahre in Organisation/IT und seit 2017 im Bereich Data Governance & Data Management, zuerst als Abteilungsleiterin und seit 2022 als Stabstellenleiterin und CDO.
 

Rosemarie Reisner, geboren in Mistelbach/Österreich, absolvierte 1997 ihr Betriebsinformatikstudium an der Universität Wien. Sie ist Certified Data Excellence Professional und Certified Controllerin.
In 25 Jahren Volksbank sammelte sie berufliche Erfahrungen in der Organisation, zuständig für E-Commerce und IBM Notes (3 Jahre in leitender Funktion), im Controlling für Projektcontrolling und in der Finanzdatensteuerung als Expertin Data Governance.
 

Raluca Heigl, Rosemarie Reisner
E119
Raluca Heigl, Rosemarie Reisner
E119
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
Di 6.2
Machine Learning gestützte Nebenkostenprognose bei der Deutsche Post DHL
Machine Learning gestützte Nebenkostenprognose bei der Deutsche Post DHL

Der Aufbau einer fachlich individuellen und durchgängig integrierten Systemlandschaft ermöglicht den fachbereichsübergreifenden Nutzern die volle Ausschöpfung des mehrstufigen Prognosepotenzials - alles in einer zukunftssicheren Umgebung.

Zielpublikum: Dateningenieur:innen, Datenwissenschaftler:innen, Projektleiter:innen, Entscheidungsträger:innen
Voraussetzungen: Grundkenntnisse in Maschinellem Lernen, Erfahrung in der Nebenkostenabwicklung
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die vollintegrierte State of the Art-Prognosesystemlandschaft setzt sich aus drei Komponenten zusammen. IBM Planning Analytics auf der Basis von TM1 bildet dabei den Kern des Microservices orientierten Eco-Systems. Die Machine-Learning-Umgebung wird durch den Einsatz zeitgemäßer Containerisierung ermöglicht, sodass dem Team zu jedem Zeitpunkt im Projekt der Zugang zu allen benötigten Data-Science-Werkzeugen, Python-Bibliotheken, Jupyter-Notebooks und Daten bereitsteht. Abschließend fungiert der IBM Planning Analytics-Workspace als webbasierter Zugang zur maßgeschneiderten Lösungen.
 

Als Head of Consulting der Business Intelligence und Data Analytics Beratung GMC² leitet Achim Bieroth erfolgreich das Projektgeschäft.

Seit über 25 Jahren ist er für seine Kunden von Mittelstand bis Konzern beratend tätig. Gemeinsam mit seinem erfahrenen, interdisziplinären Team entwickelt er optimale BI-Strategien und findet passgenaue, innovative Lösungen.

Besonders schätzt er eine vertrauensvolle Zusammenarbeit auf Augenhöhe - stets mit dem Ziel, seine Kunden noch erfolgreicher zu machen.
 

Wilhelm Becker ist als Senior Advisor im Nebenkosten-Team einer Immobilientochter der Deutschen Post AG tätig. Mit hoher Professionalität und Expertise ist er verantwortlich für die Vorhersage und Projektion der Nebenkosten aller Liegenschaften in Deutschland sowie für die Kostenanalyse von Neuobjekten. Leidenschaftlich widmet er sich der kontinuierlichen Verbesserung und Dynamisierung bestehender Prozesse durch gezielte Weiterentwicklung der aktuellen Datenlandschaft. 

Alexander Gusser ist als Lead Expert Innovation & Technology für Business Intelligence und Data Analytics Projekte bei GMC² verantwortlich. Seine Faszination für innovative Technologien treibt ihn dazu an, diese gekonnt miteinander zu kombinieren und auf kreative, experimentelle Art neue Lösungsansätze für fachliche und technologische Herausforderungen zu entwickeln. Besonders reizt ihn das Spannungsfeld zwischen der Entwicklung eines ganzheitlichen Lösungskonzepts und der hands-on Umsetzung, sowie dem tatsächlichen Go-live. 

Achim Bieroth, Wilhelm Becker, Alexander Gusser
E124
Achim Bieroth, Wilhelm Becker, Alexander Gusser
E124
Vortrag: Di 6.2
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
Di 8.2
Einfacher Zugang zu Machine Learning für den Fachbereich – Advanced Analytics in der Cloud
Einfacher Zugang zu Machine Learning für den Fachbereich – Advanced Analytics in der Cloud

Die Verantwortung und das Wissen über Daten und deren Analyse liegt im Fachbereich. Diese fachlichen Mitarbeiter benötigen mehr Möglichkeiten, um erweiterte Analyse-Techniken, inklusive Machine Learning, mit einfach zu bedienenden Tools nutzen zu können. Wie Oracle mit der Autonomen Datenbank, als Self-Service Datenquelle und mit der Analytics Cloud, als Self-Service BI, dies verwirklichen kann wird im Vortrag anhand einer anschaulichen Live-Demo gezeigt. 

Als Diplom-Wirtschaftinformatiker beschäftig sich Detlef Schröder, seit über 25 Jahren bei Oracle, mit BI, Analytics und datengetriebenen Prozessen, rund um Data Warehouse und Big Data.  

Er berät Kunden in Architektur-Fragen, hält Seminare zu Analytics, AI/Machine Learning, DWH-Technik und -Integration. Außerdem ist er Sprecher auf verschiedenen Veranstaltungen und schreibt Artikel über den praxisorientierten Einsatz von Informationstechnologie. 

Detlef E. Schröder
F106
Detlef E. Schröder
F106
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
SDdi1.2
Building an Event Analytics Pipeline with Kafka, ksqlDB, and Druid
Building an Event Analytics Pipeline with Kafka, ksqlDB, and Druid

Have you ever wondered how a modern event analytics pipeline is different from a classical ETL setup? In this talk you will learn how to design and set up an analytics pipeline in just a few minutes, using Kafka for delivery, ksqlDB for preprocessing, and Apache Druid for real time OLAP.

Voraussetzungen: Basic knowledge of what Kafka and Data Streaming are

 

Hellmar Becker is a Senior Developer Advocate at Imply. He has been in the software industry for more than 20 years in various pre- and post-sales roles, with a focus on online analytics and big data. Hellmar has worked with large customers in the finance, telco and retail industries, including a full time position at ING Bank for 3 years. He lives with his family near Munich in Germany. https://blog.hellmar-becker.de

Hellmar Becker
F130
Hellmar Becker
F130
Vortrag: SDdi1.2
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
TDi2
Partner-Track BI4ALL │ Data & AI Leading to Business Outcomes
Partner-Track BI4ALL │ Data & AI Leading to Business Outcomes

As companies undertake their digital transformation journey's, they are generating more data than ever before. Data and AI have become essential for companies to stay competitive in today's digital age. AI-powered technologies such as machine learning, natural language processing, and computer vision are helping companies to gain insights from data and make better business decisions. With the help of increasing computer power, AI algorithms can now be used to analyze vast amounts of data that businesses collect, and to identify patterns and trends that can be used to help companies achieve their business goals. Ultimately, data and AI can help businesses become more productive and efficient, while also creating better customer experience, and improved profits.

Come and join this session to learn more on how your organizations can Turn Data into Actionable Insights.

Nuno Barboza is a Senior Global Executive, and he was just appointed as Strategic Committee and Board Member at BI4ALL.
Across his 30+ year career experience, Nuno had the opportunity to lead IT strategy for startups up to Fortune 500 market leaders in medical devices, healthcare, mining, insurance, and construction sectors. This work spans US, European, and global leadership roles where him and his team supported growth across multibillion-dollar enterprises by developing and executing on complex IT strategies and large-scale transformation.
As a global corporate leader, he also has deep experience with M&As, corporate development, and board-level collaboration.

Branca Petrovic, Swiss/Croatian citizen, joined BI4ALL AG Switzerland in September 2022 and is responsible for the overall development and management of the business in Switzerland and the DACH region.
She started her professional career in the tech world decades ago. Working for international Telco and Internet Service Providers where she was responsible for the setup and technical implementation of PBX systems. Branca holds a degree in business administration and general management.

Nuno Barboza, Branca Petrovic
F129
Nuno Barboza, Branca Petrovic
F129
Vortrag: TDi2
flag VORTRAG MERKEN

Vortrag Teilen

12:20 - 13:50
Pause
Mittagessen & Ausstellung / Lunch & Exhibition
Mittagessen & Ausstellung / Lunch & Exhibition

13:10 - 13:40
CSdi1
Case Study alteryx │ Self-service Data Analytics Journey bei Siemens Energy
Case Study alteryx │ Self-service Data Analytics Journey bei Siemens Energy

Anhand ausgewählter Use Cases soll die Entwicklung von Self-Service Data Analytics innerhalb von Siemens Energy dargestellt werden. Schwerpunkt ist die Umsetzung von datengetriebenen Projekten durch verschiedene Fachbereiche. Weiterhin wird auf die erfolgreiche Einführung neuer Projekte mit Hilfe von Hackathons eingegangen, sowie den Nutzen von internen Communities bei der Problemlösung.

Tony Adam
E119
Tony Adam
E119
Vortrag: CSdi1
flag VORTRAG MERKEN

Vortrag Teilen

13:10 - 13:40
CSdi2
Case Study Actian │ Met Éireann, der nationale meteorologische Dienst Irlands
Case Study Actian │ Met Éireann, der nationale meteorologische Dienst Irlands

Met Éireann, der nationale meteorologische Dienst Irlands, hatte eine anspruchsvolle Aufgabe: genaue Wettervorhersagen für die irische Öffentlichkeit bereitzustellen und mehrere Branchen wie Luftfahrt, Landwirtschaft, Transport und Notdienste zu unterstützen. Um dies zu erreichen, mussten sie große Datenmengen in Echtzeit verarbeiten und analysieren. In dieser Präsentation wird Actian's Datenexperte, Robert Gorsuch, zeigen, wie Met Éireann dies mit Hilfe von Actian Avalanche, der leistungsstarken Cloud-Datenplattform, erreicht hat. Durch die Nutzung von Avalanche's Geschwindigkeit und Leistungsfähigkeit konnte Met Éireann ihre Fähigkeiten zur Wettervorhersage revolutionieren und genaue und zuverlässige Informationen an die Öffentlichkeit liefern. Seien Sie dabei, um mehr über den innovativen Anwendungsfall von Met Éireann und wie Actian Ihrem Unternehmen dabei helfen kann, komplexe Datenverarbeitungsherausforderungen zu lösen und Innovationen voranzutreiben, zu erfahren.

Robert Gorsuch verfügt über mehr als 30 Jahre Erfahrung in den Bereichen IT-Architektur, Design sowie der Implementierung von Daten-Management-, Daten-Integrations- und Daten-Analyse-Softwarelösungen. Er hat mehrere Zertifizierungen in Warenwirtschaftsapplikationen, Kundenmanagementsystemen und diversen SaaS-Anwendungen erworben und verfügt über langjährige Erfahrungen in Branchen wie Produktion, Finanzen, Gesundheitswesen und Transportwesen. Sein Arbeitsschwerpunkt und seine Leidenschaft als Vertriebsingenieur bei Actian liegen in der Automatisierung und Optimierung von Geschäftsprozessen in Unternehmen.

Robert Gorsuch
E124
Robert Gorsuch
E124
Vortrag: CSdi2
flag VORTRAG MERKEN

Vortrag Teilen

13:10 - 13:40
CSdi3
Case Study Ab Initio Software Germany │ Aktive Metadaten: Transparenz und Automatisierung verbessern die Steuerbarkeit von datenbasierten Entscheidungen
Case Study Ab Initio Software Germany │ Aktive Metadaten: Transparenz und Automatisierung verbessern die Steuerbarkeit von datenbasierten Entscheidungen

Datenanalyse und datengesteuerte Entscheidungen nehmen in Unternehmen und Organisationen aller Art einen immer größeren Stellenwert ein. Gleichzeitig werden über Regulatorik und Kundenerwartungen immer höhere Anforderungen an Transparenz, Data Governance und Robustheit von Datenanalysen und automatisierten Entscheidungsprozessen gestellt. Metadaten sind ein Schlüssel, solche Anwendungen vertrauenswürdig und effizient aufzubauen. Aktive Metadaten machen den gesamten Fluss der Daten durch alle Systeme sichtbar. Dadurch wird der Kontext von datenbasierten Entscheidungen nicht nur im Nachhinein nachvollziehbar gemacht sondern die Entwicklung von Datenapplikationen deutlich beschleunigt. Die LBBW (Landesbank Baden-Württemberg) ist ein Beispiel dafür, wie Fachbereiche und IT in enger Kooperation eine zentrale Datenplattform und ein umfangreiches Metadatenmanagement aufbauen können. Die Bank hat ihre Datenplattform als Grundlage und zur Unterstützung einer effektiven Gesamtbanksteuerung implementiert. Dabei haben Fachbereiche und IT eng zusammengearbeitet, um die vielfältigen fachlichen Anforderungen der abhängigen Fachbereiche zu verstehen und in technische Datenflüsse zu übersetzen. Alle relevanten Datenpunkte aber auch die Abhängigkeiten und Beziehungen zwischen den verschiedenen Datenquellen und Zielsysteme wurden gemeinsam identifiziert, modelliert und dokumentiert. Eine umfassende Data Governance in Verbindung mit einem zentralen Datenqualitäts-Framework gewährleisten dabei jederzeit regulatorische Compliance und eine hohe Datenqualität.

Dr. Andreas Becks berät als Strategic Advisor bei Ab Initio Kunden rund um die Themen Automatisierung datengetriebener Entscheidungen, Datendemokratisierung und Data Science. Seit mehr als 25 Jahren ist sein Herzensthema der kulturelle Wandel durch Daten, Informationsvisualisierung und Künstliche Intelligenz. Andreas Becks war in verschiedenen leitenden Positionen in der Kundenberatung bei SAS, in Forschung und Entwicklung bei der Fraunhofer-Gesellschaft, als Business- und Lösungsarchitekt sowie im strategischen Produktmanagement eines Softwareunternehmens tätig. Er ist studierter Diplom-Informatiker, promovierte in Künstlicher Intelligenz an der Technischen Universität Aachen und erwarb einen MBA an der Universität St. Gallen.

Dr. Florian Sebert leitet bei der Landesbank Baden-Württemberg (LBBW) die Abteilung Datenmanagement und –architektur. In dieser Rolle verantwortet Herr Dr. Sebert neben der Data Governance und der Facharchitektur des LBBW-Konzerns die zentralen Datenintegrations- und Reportingplattformen der Bank. Zuvor war Herr Dr. Sebert zunächst bei der Beratungsgesellschaft d-fine und später bei der LBBW als Projektleiter für die Umsetzung zahlreicher Vorhaben mit Fokus auf die Themen Gesamtbanksteuerung und Financial Markets tätig. Seine Studien der Mathematik, Wirtschafts- und Finanzmathematik absolvierte er in Deutschland, England und in den USA.

Andreas Becks, Florian Sebert
K3
Andreas Becks, Florian Sebert
K3
Vortrag: CSdi3
flag VORTRAG MERKEN

Vortrag Teilen

13:10 - 13:40
CSdi4
Case Study areto consulting │ Einfach MEGA – der Weg von Freenet zum Cloud DWH
Case Study areto consulting │ Einfach MEGA – der Weg von Freenet zum Cloud DWH

Die Freenet AG betreibt seit vielen Jahren erfolgreich ein Data Warehouse im eigenen Rechenzentrum. Architektur und Technologien wurden sorgfältig ausgewählt und erfüllten die damaligen Anforderungen vollkommen. Doch was soll man tun, wenn die Quellsysteme nach und nach in die Cloud migriert werden? Allein die Kosten der regelmäßigen Datenübertragung aus der Cloud in das On-Prem-DWH lassen diese Lösung nicht mehr wirtschaftlich erscheinen.
Die Freenet AG stellt sich nun dieser Herausforderung und plant den Umzug in die Cloud. Hierbei sind nicht nur technische Herausforderungen und aktueller Vendor Lock-ins zu lösen. Es gilt auch, die Organisation von Analytics bei der Freenet AG zu überdenken.
Der Vortrag beschreibt die Strategie und das geplante Vorgehen, diesen Herausforderungen zu begegnen.

Timo Burmeister ist seit 26 Jahren in der IT-Branche zu Hause. Davon ist er seit 19 Jahre bei der Freenet AG aktiv.
Er ist AWS Certified Solutions Architect und EMCDSA Certified Data Science Associate.

Till Sander weist eine über 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/till.sander

Timo Burmeister, Till Sander
K4
Timo Burmeister, Till Sander
K4
Vortrag: CSdi4
flag VORTRAG MERKEN

Vortrag Teilen

13:10 - 13:40
CSdi5
Case Study Synabi Business Solutions & bluetelligence │ Warum SAP-Metadaten im Data Management nicht fehlen dürfen
Case Study Synabi Business Solutions & bluetelligence │ Warum SAP-Metadaten im Data Management nicht fehlen dürfen

Am Beispiel der Deutschen Pfandbriefbank AG zeigen wir Ihnen, wie Sie durch das Zusammenspiel von D-QUANTUM und der Metadata API von bluetelligence einen substanziellen Mehrwert erzeugen:

  • Anbindung der SAP-Systeme BW/4HANA & S/4HANA: So erhalten Sie ein präzises Bild der technischen Implementierung
  • Technische Lineage innerhalb der SAP-Systeme und Verknüpfung der zugrundeliegenden Datenhaltung
  • So kombinieren Sie die SAP-Objekte im Kontext der Data Management Journey für die unterschiedlichsten Use Cases wie z. B. die Abbildung von Verantwortlichkeiten, Source- und Impact-Analysen, Datenqualitätsmanagement und Anforderungsmanagement
  • Die systemübergreifende Lineage

Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in den unterschiedlichen Branchen (Telekommunikation, Banken und Handel). In seiner Funktion als COO der Synabi Business Solutions GmbH verantwortet er die Konzeption und Umsetzung von Metadaten- und Data-Governance-Projekten.

Alexander Ludwig sorgt als Product Owner bei bluetelligence dafür,
dass die Softwareprodukte stetig weiterentwickelt werden, um SAP-Metadaten einem breiten Nutzerkreis einfach und verständlich zur Verfügung zu stellen. Als Produktexperte steht er auch im Vertrieb Rede und Antwort und schult User*innen im Umgang mit den Tools.

Wolf Erlewein, Alexander Ludwig
E101/102
Wolf Erlewein, Alexander Ludwig
E101/102
Vortrag: CSdi5
flag VORTRAG MERKEN

Vortrag Teilen

13:10 - 13:40
CSdi6
Case Study OPITZ CONSULTING mit OTTO | Transform to Data Mesh?
Case Study OPITZ CONSULTING mit OTTO | Transform to Data Mesh?

Getrieben durch den enormen internationalen Wettbewerbsdruck im Online-Handel muss sich das E-Commerce-Unternehmen Otto ständig weiterentwickeln, um mit der Konkurrenz Schritt zu halten oder ihr sogar voraus zu sein.

Dies stellt große Herausforderungen an Architektur und Organisation. Data Mesh als neues Architekturparadigma adressiert diese Anforderungen und liefert hier wichtige Impulse.

In dieser Case Study gehen wir von der Pain Point Analyse des internen Think Tanks aus und betrachten ausgehend von der logischen Architektur, als Treiber der Kernkompetenzen des Data Mesh, die Probleme und Optimierungsansätze.

Inhaltlich werden wir uns auf folgende Aspekte und Praxisprobleme konzentrieren:

- Domänen-orientierte Daten und die damit verbundenen Herausforderungen

- Metadaten + Zentralisierung vs. dezentrale Orchestrierung,

- Data as a Product: Auffindbarkeit und Integration,

- auf dem Weg zur Self-serve Datenplattform

Torsten Peukert ist Lead Consultant bei der Opitz Consulting Deutschland GmbH. Er verfügt über 25 Jahre Erfahrung in der Planung und Umsetzung komplexer Digitalisierungsprojekte in unterschiedlichen Rollen und Branchen, darunter Banken, Versicherungen, Handel und Industrie.

Seine Schwerpunkte und Leidenschaften sind neben verteilten Systemen, Datenarchitekturen und Data Governance auch agile Team- und Unternehmensorganisationen. Dies ermöglicht es ihm, Unternehmen bei der Transformation zu datengetriebenen Organisationen holistisch zu unterstützen.

Torsten Peukert
F111
Torsten Peukert
F111
Vortrag: CSdi6
flag VORTRAG MERKEN

Vortrag Teilen

13:10 - 13:40
CSdi7
Case Study Precisely │ The Data Governance Health Check – Maximising the Value of Your Data Governance
Case Study Precisely │ The Data Governance Health Check – Maximising the Value of Your Data Governance

83 % of CEOs want their organisation to be more data driven. Sharing clear corporate goals and objectives is a start, but you will not succeed without a deeply understood, and widely shared context of the critical data that underpins these goals and objectives.
Unfortunately getting them off the ground, making them sustainable, and proving ongoing value requires targeted, strategic approaches depending on where you are in your journey.
90 % of businesses fail miserably to identify, track, and widely share the above context around their critical data.
In this session we will share leading practices for successful data governance programs from our customer and answer among other these questions:

  • What Value is Data Governance Providing Your Organisation Today?
  • What is the critical data, where is it, who is responsible for it and how accurate is it?
  • What critical processes depend on it?

At the end, we show you how to use Precisely Strategic Services to conduct a health check of your current data governance program that includes a gap analysis with the leading practices of the most successful data-driven organisations.

Gaston Hummel has over 20 years’ experience in enterprise software and has helped more than 50 organizations across insurance, banking, telecom and succeed in their digital transformation journey. He has led software solutions from their inception, through business case approval, development, sales enablement, successful launch, and 50 plus successful implementations across global enterprises including Santander and Telefonica and Vodafone. Today Gaston is a member of the Precisely Strategic Services Team and advises organisations how to become more data driven and the leading practices for successful data governance programs.

Gaston Hummel
F106
Gaston Hummel
F106
Vortrag: CSdi7
flag VORTRAG MERKEN

Vortrag Teilen

13:10 - 13:40
CSdi8
Case Study WhereScape | Improving Development Effectiveness
Case Study WhereScape | Improving Development Effectiveness

How we designed a model driven implementation approach to improve development effectiveness at BNP Paribas Cardif

Jiří is a highly skilled professional with 20+ years of experience in data warehousing and business intelligence. As a DWH Team Leader and Architect at BNP Paribas Cardif, he excels in decommissioning outdated systems, implementing new DWH/BI solutions, and designing model-driven methodologies. Previously, as a Senior Data Architect at BOHEMIA ENERGY, Jiří created BI solutions, managed change processes, and developed data integration strategies. With a proven track record as a Chief BI Architect at Komercni banka, he oversaw operational processes and infrastructure. Recognized for his expertise, Jiří received a Gartner award in 2010. He is a sought-after speaker, sharing insights on data warehousing, business intelligence, and ITIL processes.

Jiří Omacht
F127
Jiří Omacht
F127
Vortrag: CSdi8
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
Di 1.3
Analytics in der digitalen Transformation bei Siemens Tax
Analytics in der digitalen Transformation bei Siemens Tax

Analytics spielt eine wichtige Rolle bei der digitalen Transformation der Steuer- und Zollfunktion von Siemens. Es hilft dabei, Steuer- und Zollprozesse zu optimieren, Compliance zu verbessern und Risiken zu managen. Die erfolgreiche Nutzung erfordert jedoch nicht nur technische, sondern auch kulturelle und organisatorische Anpassungen, wie die Etablierung einer datengetriebenen Kultur und die Schulung der Mitarbeiter. Der Vortrag zeigt die Analytics-Strategie von Siemens in diesem Bereich und geht auf die einzelnen Herausforderungen ein.

Zielpublikum: Data Analysts, Project Owner, Data Engineers, Mitarbeitende aus Steuer- und Zollabteilungen, Controller
Voraussetzungen: Basisverständnis von ERP-Systemen, Datenlandschaften, ETL-Prozessen, BI-Tools, Datenaffinität, Grundverständnis von Steuerprozessen von Vorteil
Schwierigkeitsgrad: Einsteiger

  • Geboren in einem Land, das heute nicht mehr existiert
  • Umzug als Teenager nach Deutschland ohne Deutschkenntnisse
  • Abitur mit Leistungskurs Informatik
  • Freiwilliger Wehrdienst bei den Fallschirmjägern
  • Diplom-Studium von Erziehungswissenschaften/Psychologie und anschließender Abbruch
  • Bachelorstudium BWL mit Schwerpunkt Wirtschaftsprüfung und Steuerberatung
  • Praktika in der Wirtschaftsprüfung und Mittelstand
  • Masterstudium und gleichzeitiges Vaterwerden
  • Werkstudententätigkeit bei Siemens
  • Einstieg als Transferpreiskoordinator und BU Controller bei Siemens
  • Mehrere Controlling-Positionen
  • Product Owner Rolle für Aufbau eines Planung- und Steuerungssystems im BI-Umfeld
  • Aktuell Data Analyst/Data Engineer/Product Owner Rolle in der Corporate Tax-Abteilung
Maxim Miller
K3
Maxim Miller
K3
Vortrag: Di 1.3
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
Di 2.3
Data Architecture Modernization at Rolls-Royce Power Systems
Data Architecture Modernization at Rolls-Royce Power Systems

Rolls-Royce Power Systems has been for decades at the forefront of innovation and customer experience. The company is taking a holistic approach to data exploitation as it sets itself up for the future and transforms from a traditional engine manufacturer to a provider of integrated & sustainable solutions. Join this session with Aleksander Giece to learn how Rolls-Royce Power Systems is modernizing its data architecture to meet evolving business needs and drive new levels of performance.

Target Audience: Data Engineers, Data Scientist, Data Architects, Data and Analytics Manager, Chief Data Officer (CDOs), Chief Information Officer (CIOs), Data Analysts, Heads of Data Integration etc.
Prerequisites: Basic knowledge of data governance, analytics, especially data architecture, data warehousing and data transformation processes and understanding of these in the larger organizational context to achieve the business goals.
Level: Advanced

Aleksander Giece is a seasoned Technology professional with over 20 years of experience in the data and analytics space. He has been instrumental in consulting, architecting, and designing data processing and data storage solutions in diverse industries. In his current role as an Enterprise Data Architect at Rolls Royce Power Systems, Aleksander is laying the foundation for a more modern data architecture in a hybrid environment to create a high-performance business.

Aleksander Giece
F111
Aleksander Giece
F111
Vortrag: Di 2.3
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
Di 3.3
Gesetzliche KI-Regulierung ante portas
Gesetzliche KI-Regulierung ante portas

Die EU-Kommission schafft mit der KI-Verordnung und der KI-Haftungsrichtlinie einen Regelungsrahmen für den KI-Einsatz. Je nach Risikokategorie sind verschiedene Pflichten zu erfüllen; bestimmte Nutzungen werden verboten. Bei der Haftung wird teils eine Kausalität zwischen KI-Einsatz und Schaden unterstellt. Die Regulierung gilt auch für KI-Systeme, die bei Inkrafttreten bereits produktiv sind. Lernen Sie die zentralen Regelungen kennen. Welche konkreten Anforderungen an die IT ergeben sich? Welche Vorbereitungen können bereits erfolgen?

Zielpublikum: Projektleiter:innen, CDO, ML/AI Engineer, Data Scientist
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die EU-Kommission reagiert auf die wachsende Bedeutung von KI mit einem eigenen Regelungsrahmen. Im April 2021 legte sie den Entwurf der sogenannten 'KI-Verordnung' vor. KI-Systeme werden in vier Risikokategorien mit verschiedenen Pflichten unterteilt; bestimmte Nutzungen werden verboten. Ergänzend stellte die EU-Kommission im September 2022 den Entwurf der 'KI-Haftungsrichtlinie' vor. Diese beinhaltet u. a. eine Kausalitätsvermutung zwischen KI-Nutzung und Schaden und weitreichende Offenlegungspflichten.
Beide Entwürfe befinden sich aktuell in Beratung. Nach Verabschiedung erfolgt die Umsetzung in nationales Recht in maximal 24 Monaten. Unternehmen, die KI nutzen, bleibt wenig Zeit zum Handeln. Insbesondere, da die Regelungen auch für bereits produktive KI-Anwendungen gelten sollen.
Lernen Sie die zentralen Inhalte der KI-Regulierung kennen. Welche konkreten Anforderungen resultieren für den KI-Einsatz? Welche Vorbereitungen sind notwendig?
 

Sonja Maria Lehmann beschäftigt sich seit 1996 mit Business Intelligence und Data Analytics. Nach einer Tätigkeit als Referentin für Wirtschafts- und Unternehmensethik sowie Führungspositionen in verschiedenen Kreditinstituten und Consultingunternehmen gründete sie 2003 die solecon GmbH. Sie berät Unternehmen und hält Seminare und Workshops zu Nachhaltigkeit, Sustainable Business Transformation, Unternehmensethik, Corporate Digital Responsibility und KI.

Sonja Maria Lehmann
K4
Sonja Maria Lehmann
K4
Vortrag: Di 3.3
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
Di 4.3
World Café: Data Mesh
World Café: Data Mesh

Data Mesh ist eine dezentrale Datenarchitektur, die viele Herausforderungen zu lösen verspricht. Im World Cafè „Data Mesh“ werden provokante Thesen und Fragestellungen zu diesem Ansatz in Kleingruppen diskutiert und anschließend die Ergebnisse allen vorgestellt. Ziel ist, dass sich die Teilnehmer selbst einbringen können und gleichzeitig ein differenziertes Bild auf ausgewählte Aspekte des Data Mesh-Ansatzes erhalten.

Prof. Dr. Peter Gluchowski hat an der Ruhr-Universität Bochum Mathematik mit den Schwerpunkten Stochastik und Operations Research (Dipl.-Math. und 1. Staatsexamen Lehramt) studiert und zum Dr. rer. oec. über "Simulation störanfälliger Systeme" promoviert (1985). Es folgten die Habilitation zum Thema "Entscheidungsunterstützungssysteme und Datenbanken" (1995) an der Abteilung Wirtschaftswissenschaft der Ruhr-Universität Bochum, Lehrstuhlvertretung (1993) und Berufung auf den Lehrstuhl Wirtschaftsinformatik und Operations Research (seit 2011 Lehrstuhl für Wirtschaftsinformatik, insbesondere Business Intelligence) an der Gerhard-Mercator Universität GH Duisburg (1995).

Dr. Gero Presser ist Mitgründer und Geschäftsführer der Dataciders GmbH, einem IT-Dienstleistungsunternehmen mit Fokus auf Data & Analytics und über 500 Mitarbeitern in Deutschland. Alle Dataciders eint die Vision, dass niemand jemals wieder schlechte Entscheidungen treffen muss.
Dr. Presser hat Informatik studiert, zu Entscheidungstheorie promoviert und ist u. a. im Vorsitz des TDWI Roundtable Ruhrgebiet, Dozent an der Hochschule Hamm-Lippstadt und Organisator der Meetup-Gruppe 'Business Intelligence & Analytics Dortmund' mit über 1.400 Mitgliedern.
Er ist leidenschaftlicher Skifahrer und glücklicher Familienmensch.

Peter Gluchowski, Gero Presser, Jörg Krempien
E101/102
Peter Gluchowski, Gero Presser, Jörg Krempien
E101/102
Vortrag: Di 4.3
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
Di 5.3
Herausforderungen einer Big Data Transformation
Herausforderungen einer Big Data Transformation

Durch die Umstellung auf ein Event-Driven-System vor ca. 1,5 Jahren ist die Datenmenge um das Zweihundertfache gestiegen. Von ursprünglich zwanzig bis fünfunddreißig GB auf 6-7 TB pro Monat. Das bringt weitreichende Herausforderungen hinsichtlich Technologie, Organisation, aber auch in Bezug auf die Unternehmenskultur mit sich. Kommt mit auf die Daten-Reise der flaschenpost und erfahrt, warum am Ende eine Lakehouse-Lösung in Kombination mit einem Mesh-Ansatz genau die Bedürfnisse der Fachabteilungen trifft.

Zielpublikum: Entscheidungsträger:innen von Data-Projekten
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Von null auf 200: Welche Herausforderungen birgt eine Big Data Transformation?

Durch die Umstellung auf ein Event-Driven-System vor ca. eineinhalb Jahren ist die Datenmenge um das 200-Fache gestiegen. Von ursprünglich 20 bis 35 GB auf sechs - sieben TB pro Monat. Das bringt weitreichende Herausforderungen hinsichtlich Technologie, Organisation, aber auch in Bezug auf die Unternehmenskultur mit sich. Kommt mit auf die Daten-Reise der flaschenpost und erfahrt, warum am Ende eine Lakehouse-Lösung in Kombination mit einem Mesh-Ansatz genau die Bedürfnisse der Fachabteilungen trifft. Zentrale Fragen im Rahmen des Vortrags: Wie sind wir als flaschenpost vorgegangen? Welche Data-Rollen sind für eine Domäne erforderlich und was hätten wir retrospektiv anders gemacht? Außerdem klären wir, warum die Antworten in der Organisation und nicht in der Technologie zu finden sind.

Marco Lohaus verfügt über mehr als 10 Jahre Erfahrung im Bereich Business Intelligence, Data Science und Dashboarding mit besonderen Fachkenntnissen im E-Commerce.
Im Rahmen seiner Tätigkeit als BI-Leiter, Management-Berater und Architekt hat er Projekte in den Bereichen Reporting, Big Data, DWH, Digitalisierung und Data Science verantwortet.

Marco Lohaus
E119
Marco Lohaus
E119
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
Di 6.3
Let's get digital: MLOps zur Digitalisierung von Offlinern
Let's get digital: MLOps zur Digitalisierung von Offlinern

In dem Vortrag geben wir am Beispiel eines Print-Mailings einen vollumfänglichen Einblick in unseren MLOps- und Kampagnenprozess: Von der Erstellung eines Scoring-Modells zur Auswahl der Zielgruppe, über das Deployment und die automatisierte Verwendung dieses Modells auf einer Kubernetes-Plattform, bis zur Ausspielung des Print-Mailings an die Teilnehmer und die Erfolgskontrolle zeigen wir, wie wir Marketingbudgets zielgerichtet verwenden, um Teilnehmergruppen entsprechend der Zielvorgabe zu selektieren und somit Streuverluste zu minimieren.

Zielpublikum: Data Engineer, Data Scientist
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Die DeutschlandCard hat sich im Laufe der letzten 15 Jahre von einem Bonusprogramm mit dem eindeutigen Fokus auf das Punktesammeln am stationären POS unserer Partnerunternehmen zu einer Multichannel-Marketing-Plattform weiterentwickelt. Heute sind viele Vorteile der DeutschlandCard denjenigen Teilnehmern vorbehalten, die unsere digitalen Kanäle (App, Web, Newsletter) nutzen. Exklusive Online-Coupons, unser Prämienshop, vielfältige Angebote von weit über 1.000 Online-Partnern und viele weitere Benefits für die Teilnehmer sind ausschließlich digital nutzbar. Für unsere Partnerunternehmen eröffnen sich außerdem durch die Digitalisierung neue Möglichkeiten, ihre Kunden kosteneffizient, zielgerichtet und mit kurzer Vorlaufzeit zu erreichen. Aus diesen Vorteilen für unsere Teilnehmer und Partnerunternehmen resultiert das Ziel, möglichst viele 'Offline-Teilnehmer' in die digitalen Kanäle, insbesondere in die DeutschlandCard-App, zu bringen. 
In unserem Vortrag wollen wir am Beispiel eines Print-Mailings mit dem Ziel Digital-Shift einen vollumfänglichen Einblick in unseren MLOps- und Kampagnenprozess geben: Von der Erstellung eines Scoring-Modells zur Auswahl der Zielgruppe, über das Deployment und die automatisierte Verwendung dieses Modells auf einer State of the Art Plattform, bis zur Ausspielung eines Print-Mailings an die Teilnehmer und die Erfolgskontrolle zeigen wir, wie wir Marketingbudgets zielgerichtet verwenden, um Teilnehmergruppen entsprechend der Zielvorgabe zu selektieren und somit Streuverluste zu minimieren. 
Ein besonderes Augenmerk gilt in der Präsentation dabei einerseits der Erstellung und kontinuierlichen Optimierung des Scoring-Modells zur Identifikation der Teilnehmer mit der höchsten Wahrscheinlichkeit in die App zu konvertieren. Andererseits zeigen wir, wie wir dieses Modell deployen und auf einer hochmodernen Kubernetes-Architektur automatisiert anwenden. 
 

Marc Flockerzi verantwortet in der Abteilung Customer Insights mit seinem Team alle programmübergreifenden Fragestellungen bezüglich Customer Journey, E-Commerce, Methodik und Infrastruktur.

Eva Schmidt leitet die Abteilung Customer Insights bei der Mulitchannel-Marketing-Plattform DeutschlandCard. Dort verantwortet sie alle Themen rund um Data & Analytics. Dies umfasst neben programmübergreifenden Themen sämtliche analytischen Fragestellungen der Partnerunternehmen und deren Weiterentwicklung im Bereich datengetriebenes CRM.

Marc Flockerzi, Eva Schmidt
E124
Marc Flockerzi, Eva Schmidt
E124
Vortrag: Di 6.3
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
Di 8.3
Ethische Fragestellung bei der Nutzung und dem Einsatz von KI
Ethische Fragestellung bei der Nutzung und dem Einsatz von KI

Ethische KI, aber wie?
Spätestens seit ChatGPT ist Künstliche Intelligenz (KI) massentauglich geworden. Sehr schnell wurden Rufe nach der Regulierung von solchen Anwendungen laut und die EU arbeitet an einem AI Act. Italien hat als erstes Land ChatGPT temporär verboten, unter anderem aufgrund ethischer Bedenken. Wie bei zahlreichen Technologien zuvor, folgt auf die erste euphorische Welle ein vorsichtigerer Ansatz mit Fokus auf potenzielle Gefahren und gesetzlicher Regulierung.
Die interaktive Session zeigt Risiken durch maschinelle Entscheidungen auf und bietet einen Überblick zu verschiedenen Frameworks. Im Anschluss werden Perspektiven auf Best Practices für den ethischen Einsatz von Anwendungen im KI-Umfeld geboten.

Zielpublikum: Entscheider:innen, Projektleiter:innen, Data Scientists, Entwickler:innen
Voraussetzungen: Basiswissen zu KI-Technologien
Schwierigkeitsgrad: Einsteiger
 

Felix Rank
F106
Felix Rank
F106
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
SDdi1.3
Special Day Confluent │ Event-driven integration architectures for Allianz
Special Day Confluent │ Event-driven integration architectures for Allianz

Integration architectures are the key to modern architectures in every case. It is valid for green-field project, but especially in evolving existing architectures to modern architectures. To bring legacy systems in the cloud highly decoupled systems are necessary. To do so, event-driven architectures are necessary, because decoupling can easily be achieved via events. The talk shows how an event-driven architecture can help to evolve an existing architecture to the state of the art.

Dr. Annegret Junker is Principal Architect at Allianz in Germany. She has worked in software development for over 30 years. She worked in quite different roles and domains. Especially is she interested in DDD, microservices and everything along with it. Actually, she is working in a large integration project and defines APIs for partners.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Annegret.Junker

Bruno Fontoura Costa leads the integration architecture at Allianz Technology SE. Especially his team, and he is responsible for the global event bus system at Allianz. Bruno works in Software Industry for over 20 years. He is especially interested how to integrate quite different software applications in the cloud.

Annegret Junker, Bruno Fontoura Costa
F130
Annegret Junker, Bruno Fontoura Costa
F130
Vortrag: SDdi1.3
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
TDi3
Partner-Track Talend │ S/4HANA Migration jenseits von nativem SAP: Von der Pflicht zur Kür
Partner-Track Talend │ S/4HANA Migration jenseits von nativem SAP: Von der Pflicht zur Kür

Der Weg vom Legacy ERP-System in ein SAP S/4HANA ERP-System ist gepflastert mit Herausforderungen:
Wie migriert man Archivdateien? Kann man die Daten reorganisieren? Was tun, wenn viele Legacy Systeme gemerged in ein neues System fließen sollen? Wie bekomme ich einen Post-Load-Report? Und können wir bei der Migration nicht gleich unsere Datenqualitätsprobleme lösen?
In diesem Vortrag zeigen wir Ihnen die "cimt S/4HANA Migration Factory". Unsere Lösung, um bestehende Legacy Systeme in ein zentrales S/4HANA System zusammenzuführen und zu konsolidieren. Powered by cimt, Talend & AWS

Peter-Christian Quint ist Partner und Prokurist bei der cimt ag. Er hat bereits viele Jahre als Cloud- und Softwareengineer gearbeitet und sich im letzten halben Jahrzehnt als BI-Architekt spezialisiert. Seine Kernkompetenz liegt darin, Unternehmen branchenübergreifend bei Ihren BI-Herausforderungen mit innovativen und modernen Lösungen zu unterstützen und mit seinem Team langfristig zu beraten.

Armin leitet das Solution Engineering Team EMEA bei Talend. Er hilft Kunden dabei, die Arbeit mit ihren Daten zu vereinfachen. Er verfügt über langjährige Erfahrung mit und Leidenschaft für Data Engineering und Analytics und unterstützt Kunden dabei, wirklich datengetrieben zu arbeiten und den bestmöglichen Geschäftswert aus ihren Datenbeständen zu ziehen.

Peter-Christian Quint, Armin Wallrab
F129
Peter-Christian Quint, Armin Wallrab
F129
Vortrag: TDi3
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:20
Pause
Kaffee & Ausstellung / Coffee & Exhibition
Kaffee & Ausstellung / Coffee & Exhibition

15:20 - 16:05
Di 1.4
Besser Entscheiden: Tipps zur Vermeidung häufiger Denkfehler
Besser Entscheiden: Tipps zur Vermeidung häufiger Denkfehler

Data & Analytics-Architekturen und BIA-Systeme liefern die Basis für Entscheidungen, treffen sie aber meist nicht. Insofern ist die Entscheidungsfindung selbst von hoher Bedeutung: Auch auf Basis guter Daten können unbeabsichtigt und unnötig schlechte Entscheidungen getroffen werden. Im Vortrag werden die Grundzüge der normativen Entscheidungstheorie vermittelt. Auf dieser Basis wird dargelegt, welche Fehler vielfach begangen werden und wie sich diese verhindern oder begrenzen lassen.

Zielpublikum: Entscheider:innen
Voraussetzungen: Neugier, Offenheit und grundlegende Datenkompetenz
Schwierigkeitsgrad: Einsteiger
 

Dr. Gero Presser ist Mitgründer und Geschäftsführer der Dataciders GmbH, einem IT-Dienstleistungsunternehmen mit Fokus auf Data & Analytics und über 500 Mitarbeitern in Deutschland. Alle Dataciders eint die Vision, dass niemand jemals wieder schlechte Entscheidungen treffen muss.
Dr. Presser hat Informatik studiert, zu Entscheidungstheorie promoviert und ist u. a. im Vorsitz des TDWI Roundtable Ruhrgebiet, Dozent an der Hochschule Hamm-Lippstadt und Organisator der Meetup-Gruppe 'Business Intelligence & Analytics Dortmund' mit über 1.400 Mitgliedern.
Er ist leidenschaftlicher Skifahrer und glücklicher Familienmensch.

Gero Presser
K3
Gero Presser
K3
Vortrag: Di 1.4
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 16:05
Di 2.4
Optimierter Workflow mit Visual Studio Code
Optimierter Workflow mit Visual Studio Code

Der Modern Data Stack ist in aller Munde. Aber nicht nur der Modern Data Stack, sondern auch für die Zusammenarbeit im Analytics Engineering-Team ergeben sich dadurch neue Möglichkeiten, und darüber hinaus kann die Zusammenarbeit mit dem Fachbereich auf neue Beine gestellt werden. Aber welche Tools haben sich bewährt und was sind die Einsatzzwecke? Konzentriert wird sich in dieser Session auf Visual Studio Code und sinnvolle Erweiterungen für eine optimierte Entwicklerumgebung.

Zielpublikum: Data Engineers, Analytics Engineers und DWH-Entwickler:innen
Voraussetzungen: Basiswissen dbt/Analytics Engineering
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
In diesem Vortrag werden Sie einen Einblick in die Welt des Analytics Engineering bekommen und erfahren, wie Sie Ihren Workflow optimieren und effektiver zusammenarbeiten können. Ein wichtiger Bestandteil dabei ist die Zusammenarbeit im Team. Um einen reibungslosen Workflow zu gewährleisten, ist es entscheidend, die richtigen Tools und Arbeitsumgebungen zu nutzen. Visual Studio Code bietet hierfür eine Vielzahl an Möglichkeiten. Durch die Verwendung von empfohlenen Erweiterungen kann das Analytics Engineering-Team noch effizienter zusammenarbeiten.

Unter anderem SqlDBM, dbt, Snowflake, Jira, Confluence und ChatGPT sind nun die Stars auf dem Spielfeld.
Welche Vorteile ergeben sich aus der Nutzung und Einbindung moderner Werkzeuge in die VS Code-Entwicklungsumgebung?
Können diese Werkzeuge die Produktivität steigern und den Entwicklungsprozess effizienter machen?

Darauf möchten wir in dieser Session eingehen und Antworten unter anderem anhand eines Praxisbeispiels liefern.
Neben dem unschätzbaren Methodenwissen, welches beim Analytics Engineering nicht an Bedeutung verloren hat, kommen jetzt echte Innovationen.
Wir laden alle Interessierten ein, sich unsere Ansicht und Erfahrungen anzuhören und mitzudiskutieren, wie man das Potenzial des Analytics Engineering-Teams am besten ausschöpfen kann.
 

Oliver Cramer ist Owner Data Provisioning bei Aquila Capital. Als Produktverantwortlicher Data Warehouse ist er für die Anleitung verschiedener Teams zuständig. Die dafür notwendigen Richtlinien und die Erstellung von Standards liegen ebenfalls in seiner Verantwortung. Sein derzeitiges Hauptthema ist das Aufbauen größerer Teams, welche im Analytics Engineering-Bereich zusammenarbeiten.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/oliver.cramer

Florian Dindorf ist Consultant bei b.telligent. Er arbeitet seit 7 Jahren im BI-Bereich. Erst als dualer Student und Entwickler in einem Handelsunternehmen und anschließend als Berater. Der Fokus liegt dabei im BI-Backendbereich und im Data Engineering mit einer Passion für den Modern Data Stack.

Oliver Cramer, Florian Dindorf
F111
Oliver Cramer, Florian Dindorf
F111
Vortrag: Di 2.4
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 17:00
Di 3.4
Embedded Analytics, Intelligent Apps & AI Automation
Embedded Analytics, Intelligent Apps & AI Automation

This session looks at closing the loop between analytics and operations. It looks at embedding BI and machine learning models into operational business processes to guide and drive decisions and actions in everyday business operations. It looks at how to create intelligent applications, and at using AI driven automation for right-time business process optimisation and decision management.

Target Audience: Solution Architects, Business Analysts, CDOs, CDAOs, Process Specialists, Data Scientists, COOs
Prerequisites: Good understanding of BI and machine learning
Level: Advanced

Extended Abstract:
Although analytics in many organisations is well established, it is still the case that perhaps no more than 25% of employees make use of reports and dashboards from BI tools with even fewer using machine learning models or AI. There is still a long way to go if companies are to realise the promise of using ML and AI to automatically prevent problems, seize opportunities and continually optimise business processes in everyday business operations.
This session looks at how to make data-driven business work by closing the loop between analytics and operations. It looks at embedding BI and machine learning models into operational business processes to guide and drive decisions and actions in everyday business operations. It looks at how to create intelligent applications, and at using AI driven automation for right-time business process optimisation and decision management. The objective is to move towards automated, self-learning, AI-driven business operations.
•    An introduction to data-driven business optimisation
•    Technologies and tools for the data-driven intelligent enterprise
•    Architectures and methodologies for creating the smart enterprise
•    Embedding analytics and AI into operational applications and processes
•    Active dynamic planning and management for continuous optimisation
 

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

Mike Ferguson
K4
Mike Ferguson
K4
Vortrag: Di 3.4
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 17:00
Di 4.4
Data Vault 2.0 in CRM-Projekten
Data Vault 2.0 in CRM-Projekten

Die Modellierung von CRM-Daten mithilfe von Data Vault 2.0 ist eine typische Aufgabe in Enterprise Data Warehousing-Projekten. In diesem Beitrag stellen wir verschiedene Design Patterns aus unserer praktischen Erfahrung in diesen Projekten vor. Weiterhin gehen wir auf typische Herausforderungen mit CRM-Installationen ein und stellen unsere Best Practices in diesem Bereich vor. Der Beitrag basiert auf unseren internen Modellierungs-Empfehlungen für CRM-Systeme.

Zielpublikum: Data Vault 2.0-Anwender:innen, Data Warehouse-Entwickler:innen mit Interesse an Data Vault 2.0
Voraussetzungen: Diese Präsentation zielt auf Teilnehmer:innen mit Data Vault 2.0-Kenntnissen ab. Grundlegende CRM-Kenntnisse, insbesondere zu deren Datenmodellen, sind vorteilhaft.
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Die Entitäten der Data Vault 2.0-Modellierung (Hubs, Links, Satelliten) sind klar definiert - zumindest in der Theorie. In der Praxis steckt der Teufel jedoch manchmal im Detail. Daher wollen wir mit diesem Beitrag auf die Modellierung eines typischen Quellsystems, hier CRM, eingehen und verschiedene Standard-Muster vorstellen, die auf unseren Modellierungsempfehlungen basieren. Einfache Fälle wie Stammdaten (Kontakte, Organisationen, Produkte etc.) sollten schnell abgehakt sein, jedoch werden wir genau hinschauen, was auch hier die Fallstricke sind, und entsprechend diskutieren.

Als Nächstes dran sind die nicht veränderlichen (Bewegungsdaten) Daten. Hier wird es etwas komplizierter, denn nicht veränderliche CRM-Daten existieren vermutlich nicht mal in der Theorie. In der Realität können die meisten Daten verändert werden. Die daraus resultierenden Modellierungs-Entscheidungen werden durch die Vortragenden diskutiert, auch gerne in Interaktion mit dem Publikum.

Eine weitere Art von Daten, die häufig zu finden sind, sind die Belegpositionen. Auch hier ist eigentlich alles definiert, aber was passiert, wenn in den Daten keine Positionsnummer vorhanden ist? Oder Belege und deren Positionen mit der Zeit verändert werden? Auch hier gibt es einiges zu diskutieren.

Auswahllisten werden als Referenztabellen modelliert - soweit, so einfach. Doch was ist, wenn sich die Einträge in den Auswahllisten ändern, einige gelöscht oder neue hinzugefügt werden? In einer auditfähigen Umgebung? Was, wenn die Sortierreihenfolgen, die Standardfarben und Beschreibungen für die analytische Applikation unabhängig vom Quellsystem definiert werden sollen?

Mehrere Mandanten? Check.

Hoch-performante Umrechnung von Fremdwährungen in die Eigenwährung oder jede beliebige Währung? Check. Anwendung mehrerer fachlicher Zeitlinien? Check.

Value für das Publikum? Check.

Je nach verfügbarer Zeit beenden wir den Beitrag mit einer offenen Fragerunde ('Bring your own questions').

Markus Lewandowski ist Dozent an der Hochschule Hannover und Salesforce-Berater bei Scalefree. Er hat über 4 Jahre Erfahrung in der Salesforce-Entwicklung und Administration. Da er auch ein Certified Data Vault 2.0 Practitioner (CDVP2(TM )) ist, nimmt er eine hybride Rolle als Salesforce-Spezialist und DV 2.0 Practitioner ein. Seine Hauptkompetenzen sind Salesforce-Prozessautomatisierung, Anwendungsintegration und Datenmanagement.

Michael Olschimke ist Co-Founder, Dozent und Coautor des Buches 'Building a scalable data warehouse with Data Vault 2.0'.
Er hat mehr als 20 Jahre Erfahrung in IT und konzentriert sich auf Business Intelligence-Themen wie OLAP, Dimensional Modelling und Data Mining. Er ist für eine Reihe von Kunden in den Bereichen Automobil, Versicherungen, Banken und Non-Profit tätig. Er forscht unter anderem an MPP zum Aufbau von Systemen der künstlichen Intelligenz (KI) für die Analyse unstrukturierter Daten. Michael hat einen Master of Science in Information Systems von der Santa Clara University im Silicon Valley, Kalifornien.
 

Markus Lewandowski, Michael Olschimke
E101/102
Markus Lewandowski, Michael Olschimke
E101/102
Vortrag: Di 4.4
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 16:05
Di 5.4
'Wo ist meine Excel-Tabelle?' – 'Wir machen jetzt Power BI!'
'Wo ist meine Excel-Tabelle?' – 'Wir machen jetzt Power BI!'

Vom Anforderungsmanagement zum fertigen Bericht. In diesem Vortrag werde ich anhand eines Use Case aus unserer betrieblichen Praxis erläutern, wie die Business Needs des Fachbereichs ermittelt, gesteuert und schließlich in einem fertigen Reporting zur Verfügung gestellt werden. In einem praxisorientierten Ansatz, den wir stetig weiterentwickeln, wird aus einer Anforderung moderne Wirklichkeit.

Zielpublikum: PowerBI-Entwickler:innen, Projektleiter:innen, Entscheider:innen, Controller:innen, Product Owner
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
In diesem Vortrag wird aufgezeigt, wie insbesondere

  • -Anforderungsmanagement
  • -Business translation
  • -Projektmanagement

bei der Entwicklung eines neuen Reports gelingen kann.

Stefanie Kostorz ist Senior Project Managerin und auf Finanzprojekte spezialisiert. Ursprünglich als Controllerin tätig, entwickelte sie ein ausgeprägtes Verständnis für Geschäftsanforderungen und die Fähigkeit, diese in Datenanforderungen zu übersetzen. Sie ist an der Entwicklung einer völlig neuen Datenanalyselösung für die CHRIST-Gruppe beteiligt. Ihr Fokus liegt darauf, die digitale Transformation voranzutreiben. Mit ihrer Familie und Rauhaardackel Lumpi lebt sie in Menden (Sauerland).

Stefanie Kostorz
E119
Stefanie Kostorz
E119
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 16:05
Di 6.4
Architektur für ML-Workflows in der Google Cloud
Architektur für ML-Workflows in der Google Cloud

Der Vortrag beschäftigt sich mit Good Practices für die Entwicklung von Machine Learning-Pipelines und einer praxiserprobten Architektur in der Google Cloud. Es zeigt, wie man Data-Engineering-Herausforderungen, die Erstellung von Machine Learning-Modellen und MLOps-Betriebskonzepte miteinander verbinden kann, um effiziente und skalierbare Workflows zu erstellen. Durch die Auswahl der passenden Services schafft man eine zukunftsorientierte Architekturlösung.

Zielpublikum: Data Engineer, Data Scientist, Projektleiter:innen, Cloud Engineer, Cloud Architecture
Voraussetzungen: Erfahrung in Datenmanagement und Cloud Engineering
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der Vortrag befasst sich mit den Good Practices bei der Entwicklung von Machine Learning-Pipelines in der Google Cloud. Hierbei wird eine praxiserprobte Architektur vorgestellt, die verschiedene Services aus der Google Cloud-Landschaft nutzt. Die Schwerpunkte sind Data Engineering-Herausforderungen, die Entwicklung von Machine Learning-Modellen und die effiziente Umsetzung von MLOps-Betriebskonzepten. Prozesse, wie das Management unterschiedlicher Quelldatenformate und mögliche Datenstrukturänderungen, werden in der Architektur aufgegriffen. Der Schwerpunkt liegt auf wichtigen Pipeline-Schritten, wie Feature Engineering, Modellentwicklung und Modellbewertung, sowie dem effektiven Betrieb innerhalb der Google Cloud. Durch die Auswahl passender Services schafft man eine zukunftssichere Architekturlösung.
 

An Dang hat nach seinem Masterstudium in Wirtschaftsinformatik an der Hochschule der Medien in Stuttgart 2020 das Data-Science-Traineeprogramm bei der INFOMOTION angefangen. Nach erfolgreichem Abschluss konzentriert er sich auf die Umsetzung von Advanced Analytics Use Cases für Kunden und begleitet diese bis hin zur Industrialisierung. Außerdem bildet er neue Trainees und interne Mitarbeiter aus.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/an.dang

An Dang, Tobias Lindert
E124
An Dang, Tobias Lindert
E124
Vortrag: Di 6.4
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 18:30
Di 7.4
Das Spiel der Könige – eine SQL-Schach-Engine programmieren
Das Spiel der Könige – eine SQL-Schach-Engine programmieren

Wir programmieren gemeinsam von der grünen Wiese aus einen vollumfänglichen Schachcomputer: Spielbrett und Figuren zeichnen, alle Regeln (inkl. Bauernumwandlung, en passant, Rochade, Fesselung, ...), lange Notation, unterschiedliche Computergegner, Taktikstufen, Zugvorausberechnung usw. Das alles mit reinem T-SQL! Dank modularem Aufbau für Anfänger und Profis gleichermaßen geeignet. Alle relevanten Programmiertechniken: Rekursion, Pivotierung, Prozeduren, Funktionen, Laufzeitoptimierungen, Indizes, Constraints, Security, Architektur, ...

Benötigt wird ein Laptop, sofern Teilnehmer aktiv mitmachen wollen.

Zielpublikum: (DB-)Entwickler:innen, Data Scientists, Data Analysts, DB Admins
Voraussetzungen: erste Kenntnisse in einem beliebigen SQL-Dialekt (wir nutzen T-SQL) sinnvoll, Schachwissen nicht notwendig. Zum Mitmachen wir folgendes benötigt: SQL-Server (ab Version 2016), Management Studio als Programmierumgebung, 500 MB Plattenspeicher, 8 GB RAM
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Modularer Aufbau mit vielen Praxisübungen. Beliebige Schwierigkeitsgrade auch parallel bedienbar. Alle Aufgaben mit Lösungen. Idealer Trainingsgrundstoff, um die Datenbankabfragesprache SQL in ihrer ganzen Tiefe zu verstehen und anzuwenden.

Bei der arelium GmbH arbeitet der Wirtschaftsinformatiker als Projektleiter, SCRUM-Master oder T-SQL-Spezialist bei der Umsetzung komplexer DB-Projekte. Seit 2003 beschäftigt Torsten Ahlemeyer sich beruflich mit DB-Optimierungsaufgaben sowie ungewöhnlichen T-SQL-Queries. Auch SSAS, SSIS, SSRS, die Migration nach Azure und natürlich auch Power BI sind in seinem Fokus. Daneben gibt der Autor von Fachbeiträgen sein Wissen auch in Schulungen, Workshops und auf IT-Konferenzen weiter.

Torsten Ahlemeyer
E105
Torsten Ahlemeyer
E105
Vortrag: Di 7.4
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 16:05
Di 8.4
Fishbowl: Notwendiges Mindset beim Ansatz Data Mesh
Fishbowl: Notwendiges Mindset beim Ansatz Data Mesh

Eingeleitet mit einem Impulsvortrag über Data Mesh diskutieren Andreas Buckenhofer und Armin Wildenberg mit weiteren eingeladenen sowie spontanen Teilnehmern im Rahmen einer offenen und interaktiven Runde im FishBowl Format über das notwendige Mindset bei der Verfolgung der Datennutzung nach dem Ansatz Data Mesh.  

Wo unterscheidet sich Data Mesh von Data Ware House und Data Lake? Wie verändert sich die Sichtweise auf die Daten? Welche Veränderungen ergeben sich in der Zusammenarbeit? Sind wir bei Data Mesh bereits bei BizDevOps? Folgt auf Data as a product demnächst Data as a service? Nach den einleitenden Fragestellungen ergibt sich im Rahmen des Formats durch die dynamische Veränderung der Runde die Möglichkeit die Diskussion, um neue Aspekte und Sichtweisen zu ergänzen. 

Andreas Buckenhofer arbeitet bei Mercedes-Benz Tech Innovation in Ulm als Lead Expert 'Vehicle Data Platforms'. Er verfügt über langjährige Erfahrung in der Entwicklung datenintensiver Produkte. Seine Schwerpunkte dabei sind insbesondere Datenarchitektur, Datenspeicherung, Datenintegration und Datenqualität.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/andreas.buckenhofer

Gelernter Entwickler und seit 1984 in der IT der IKB Deutschen Industriebank AG in Düsseldorf. In den Jahren 2005-2018 als Teamleiter und Direktor zuständig für Entwicklung des Kreditsystems KreDa der Bank. Die Basis der Anwendung sind ORACLE DB, ORACLE FORMS und Reports sowie seit 2013 ORACLE ADF. Der aktuelle persönliche Schwerpunkt liegt auf Themen der Strategie und Innovation sowie insbesondere der agilen Methoden. Seit 2019 im Fachbereich im Competence Center Kredit. Über die Development Community ergaben sich die ersten Berührungspunkte mit der DOAG und war seit Gründung und bis 2020 Mitglied im DOAG-Anwenderbeirat.  

In den letzten Jahren hat er sich neben Vorträgen auf der DOAG K+A und der Arbeit im Anwenderbeirat auch im Arbeitskreis Strategie der DOAG und im Arbeitskreis Nachwuchsförderung in Verbindung mit der #nextgen engagiert. Über diese Aktivitäten ist sein Interesse an der DOAG weiter gestiegen und hat seit 2020 die Möglichkeit als Vorstand der Data Analytics Community die Entwicklung der DOAG mitzugestalten. 

Seit Juni 2020 im Vorruhestand und seitdem auch zeitweise als Trainer für Innodrei tätig. 

Andreas Buckenhofer, Armin Wildenberg
F106
Andreas Buckenhofer, Armin Wildenberg
F106
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 16:05
SDdi1.4
Special Day Confluent │ Data Analytics in Motion
Special Day Confluent │ Data Analytics in Motion

Data in motion itself requires a rethinking of how to handle data and what an IT architecture should look like. This opens new ways of analyzing data in near real-time. We’ll have a look at the possibilities of data analytics in motion.

  • Which use cases can be covered?
  • What technologies can be used for real-time analytics?
  • What differences are there to batch analytics?

Prerequisites: none
Level: Basic

Dr. Nadine Schoene: Technical generalist covering the whole data-value-chain (data storage and access, data engineering, data science, MLOps, Trusted AI) for batch as well as real-time data. Curious problem solver with an interdisciplinary and structured approach. Team builder that makes things happen.
Driven by continuous learning and research and passionate about passing on the results. Loves to speak to all kinds of audiences (technical experts, C-level, business, as well as students).

Nadine Schoene
F130
Nadine Schoene
F130
Vortrag: SDdi1.4
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 16:05
TDi4
Partner-Track TimeXtender │ Modernes Datenmanagement ist keine Raketenwissenschaft
Partner-Track TimeXtender │ Modernes Datenmanagement ist keine Raketenwissenschaft

In nur 20 Minuten können Sie eine hochmoderne Datenplattform einrichten, die Business Intelligence und Datenmanagement vereinfacht. Verwenden Sie eine attraktive Drag & Drop-Schnittstelle, um Ihre Analysen effizienter und einfacher zu gestalten, ohne dass Programmierkenntnisse erforderlich sind! Die Erstellung aller notwendigen Tabellen, Felder, Strukturen und Pipelines wird automatisiert, während Governance, Orchestrierung und Dokumentation im Hintergrund sichergestellt werden, wobei optimierter Code generiert wird. Lassen Sie TimeXtender – den Vorreiter für automatisierte Datenplattformen – Ihnen zeigen, wie Sie sich von hochspezialisierten Aufgaben bei der Informationsverwaltung befreien können, damit Ihre Arbeit einfacher und schneller wird!

Frank Wagner ist ein erfahrener Analytics-Experte, der seit über 15 Jahren Unternehmen dabei unterstützt, erfolgreicher im Bereich Business Intelligence und optimaler Datenverwaltung zu sein. Als Berater, Solution Specialist und Trainer bringt er sein umfassendes Wissen und seine Begeisterung für das Thema in jedes Projekt ein. In seiner aktuellen Rolle als TimeXtender-Solution Specialist treibt Frank die Entwicklung moderner Cloud-First-Datenarchitekturen voran und ist begeistert von intelligenter Automatisierung und extrem schnellen Implementierungsgeschwindigkeiten. Sein Mantra lautet: "Datenmanagement ist keine Raketenwissenschaft!"

Frank Wagner
F129
Frank Wagner
F129
Vortrag: TDi4
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:00
Di 1.5
Data Storytelling – wie aus Daten Geschichten werden
Data Storytelling – wie aus Daten Geschichten werden

Die Reise hin zum datengesteuerten Unternehmen geht über die reine Analyse von Daten hinaus. Viele Datenprojekte bringen nicht den geplanten Erfolg und Nutzen. Auch wenn das Projekt erfolgreich abgeschlossen wurde, die Ergebnisse den ursprünglichen Business Case bestätigen, haben Unternehmen Schwierigkeiten, die Ergebnisse zu nutzen. Die Befähigung der Mitarbeiter und Change Management in Datenprojekten werden oft vernachlässigt. In diesem Vortrag beleuchten wir, wie Data Storytelling helfen kann, Datenprojekte nachhaltig erfolgreich zu machen.

Zielpublikum: Data Analysts, Data Scientists, Projektmanager:innen, CDOs
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
 

Karen Mindermann ist Director im Bereich Data & Analytics bei Slalom. Sie verfügt über mehr als 15 Jahre Beratungs- und Führungserfahrung im Bereich Data & Analytics. Ihr Beratungsschwerpunkt liegt auf Datenstrategie, Datenmanagement und der Einführung von datengetriebenen Use Cases. Sie hilft ihren Kunden dabei, Mehrwert aus ihren Daten zu generieren und ungenutztes Potenzial auszuschöpfen.

Karen Mindermann
K3
Karen Mindermann
K3
Vortrag: Di 1.5
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:00
Di 2.5
Das T im Modern Data Stack – Praxiserfahrungen mit dbt
Das T im Modern Data Stack – Praxiserfahrungen mit dbt

Dbt hat sich als das ELT-Tool der Wahl des Modern Data Stack etabliert und erfreut sich immer größerer Beliebtheit. Das Tool ist Code-basiert und kann für SQL basierte ELT-Prozesse zur Transformation von Daten genutzt werden. Da es sich häufig noch nicht im produktiven Einsatz befindet, aber von vielen als mögliches Tool geprüft wird, wollen wir unsere Erfahrungen teilen, um den Einstieg zu erleichtern. Wir stellen dbt in diesem Vortrag praktisch vor, zeigen, wie es sich in der Nutzung anfühlt, und berichten über unsere Projekterfahrungen.

Zielpublikum: Data Engineers, Architekt:innen
Voraussetzungen: Grundkenntnisse in SQL und ELT-Prozessen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Dbt hat sich als das ELT-Tool der Wahl des Modern Data Stack etabliert und erfreut sich immer größerer Beliebtheit. Das Tool ist Code-basiert und kann für SQL basierte ELT-Prozesse zur Transformation von Daten genutzt werden. Da es sich häufig noch nicht im produktiven Einsatz befindet, aber von vielen als mögliches Tool geprüft wird, wollen wir Erfahrungen aus unseren Projekten teilen, um den Einstieg zu erleichtern. Wir stellen dbt in diesem Vortrag praktisch vor, zeigen, wie es sich in der Nutzung anfühlt, und berichten über unsere praktischen Erfahrungen aus verschiedenen Projekten. 

Dabei gehen wir im Laufe des Vortrages u. a. auf die folgenden Themen ein: 
- Dbt - Was ist das überhaupt? Installation und Einbettung in den Modern Data Stack. 
- Dbt - Projektaufbau und erste Schritte. Was darf man von Anfang an beachten? 
- Dbt - Automatisierung und Templating. Wie kann dbt das Coden erleichtern? 
- Dbt - Packages. Wie können die Erweiterungen helfen? 
- Dbt - Data Vault mit dbt. 
- Dbt - run. Wie können dbt jobs ausgeführt werden und wie helfen einem Tags dabei? 
- Dbt - Tests. Wie können ELT-Prozesse mit dbt getestet werden? 
- Dbt - Einbindung in CI/CD. Deployment und Orchestrierung in Pipelines. 
- Dbt - Was geht noch? Python zur Transformation und Definition von Metriken. 

Am Ende des Vortrags freuen wir uns auf eine rege Diskussion und einen Austausch: Was sind Ihre Erfahrungen mit dbt?
 

Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet im Bereich Corporate Development der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.

Seit über einem Jahrzehnt berät Sven Röhl in Analytics-Projekten. In dieser Zeit konzeptionierte, entwickelte und betreute er unterschiedlichste DWH-Lösungen - vom On-Prem-BI-System bis hin zur Cloud-only-Analytics-Lösung. Aktuell liegt sein Hauptaugenmerk im Bereich Datenstrategie und Cloud-Architekturen im Analytics-Bereich.

Jens Bleiholder, Sven Röhl
F111
Jens Bleiholder, Sven Röhl
F111
Vortrag: Di 2.5
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:00
Di 5.5
Data Mesh Governance
Data Mesh Governance

Governance im Data Mesh ist föderal und soll möglichst automatisiert sein. Eine Gruppe mit Expert:innen und Repräsentanten der Teams entscheidet über die Spielregeln im Data Mesh, bspw. zu Interoperabilität oder Security, mittels globaler Policies, die von der Plattform automatisiert werden. Aber wie genau soll das funktionieren? Wir stellen ein Governance-Betriebsmodell vor, basierend auf dem Ansatz von Architecture Decision Records. Wir diskutieren Beispiele globaler Policies, und wie diese automatisiert werden können.

Zielpublikum: Data Architects, Entscheider:innen, Data Mesh Adopters, Data Governance Expert:innen
Voraussetzungen: Grundkenntnisse in Data Mesh. Kenntnisse in Data Governance sind hilfreich, aber nicht erforderlich.
Schwierigkeitsgrad: Einsteiger

Dr. Simon Harrer ist Senior Consultant bei INNOQ. Er ist Softwareentwickler im Herzen, der sich mittlerweile der dunklen Seite, nämlich der Welt der Daten, zugewandt hat. Er hat datamesh-architecture.com mit ins Leben gerufen und das Data-Mesh-Buch von Zhamak Dehghani ins Deutsche übersetzt. Aktuell entwickelt er ein für alle Data-Mesh-Initiativen hilfreiches Werkzeug, den Data Mesh Manager.

Simon Harrer
E119
Simon Harrer
E119
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:00
Di 6.5
Kann KI aus der Krise führen?
Kann KI aus der Krise führen?

Natürlich ist Künstliche Intelligenz nicht das Allheilmittel, um aus den aktuellen Problemen zu führen. Aber je besser die Produktion, desto besser die Wirtschaftlichkeit und die Standortsicherheit. 

In diesem Vortrag werden Praxisbeispiele im Kontext Industrie 4.0 aufgezeigt, wie Energie mittels KI gespart wird, wie Ausschuss reduziert wird und wie Maschineneffizienz gesteigert wird.

Zielpublikum: Verantwortliche in der Produktion, bspw. Qualitätsmanager:innen, Energiemanager:innen, Instandhaltungsleiter:innen
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
 

Britta Hilt beschäftigt sich seit gut 10 Jahren mit der Anwenderseite von Künstlicher Intelligenz, hauptsächlich im produzierenden Gewerbe. Sie ist Mitbegründerin und Geschäftsführerin der KI-Firma IS Predict, die sich durch ihre Automatisierung von Data Science und erklärende KI für Industrie 4.0 einen Namen gemacht hat.

Britta Hilt
E124
Britta Hilt
E124
Vortrag: Di 6.5
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:00
Di 8.5
Künstliche Intelligenz, die Schwalbe die noch keinen Sommer macht. Oder, was man beim Einsatz Digitaler Assistenten wissen sollte.
Künstliche Intelligenz, die Schwalbe die noch keinen Sommer macht. Oder, was man beim Einsatz Digitaler Assistenten wissen sollte.

Welche KI benötige ich, und wenn ja, wie viele? Die Erfolge von Chat GPT und ähnliche Machine Learning Modelle lassen anderes vermuten, aber erfolgreiche digitale Assistenten beruhen nicht allein nur auf der Wahl der richtigen Künstlichen Intelligenz (KI). Die Entwicklung digitaler Assistenten ist ein Strategiespiel, besonders wenn das Entwickler Team den Umgang mit Sprache als Medium innerhalb der Anwendung nicht gewohnt ist. Gerade am Anfang eines Projektes gibt es eine Menge von Fragen zu klären die über den Rahmen der KI hinausgehen. Zu diesen Fragen gehört unter anderem die Anbindung der KI an Backend-Systeme wie Datenbanken, sowie die Definition von Erfolgsfaktoren. Und das ist dann auch nur die Spitze des Eisberges. Basierend auf die mehrjährige Erfahrung eines ganzen Teams bei Oracle, betrachtet dieser Vortrag die Entwicklung von digitalen Assistenten ganzheitlich; für jeden verständlich und ohne mathematische Formeln. Das Ziel ist es einen Wissens-Vorsprung zu vermitteln, der zukünftige Projekte schneller (und) erfolgreich macht. Sämtliche Beispiele basieren auf den Oracle Digital Assistant, können aber problemlos auf andere Technologien übersetzt werden. 

Seit mehr als 25 Jahren arbeitet Frank Nimphius für das Oracle US Produkt Management vornehmlich im Bereich der Anwendungsentwicklung. Im Jahr 2014 bekam er den Auftrag für einen Kunden im Rahmen einer Design-Kooperation einen ersten Chatbot basierend auf bestehenden Technologien zu entwickeln. Seit dieser Zeit beschäftigt sich Frank mit digitalen Assistenten und Künstlicher Intelligenz in der Konversation innerhalb des Oracle Digital Assistant Produkt Management. Als Produkt Manager vertritt er das Oracle Product Engineering auf Konferenzen, entwickelt und leitet Trainings, schreibt Beispiel-Programme, unterstützt Kunden und Partner bei der Implementierung von Oracle Digital Assistant basierten Lösungen, und trägt zur Weiterentwicklung der Oracle Digital Assistant Plattform bei. In seinem derzeitigen Projekt ist er an der Entwicklung digitaler Assistenz-Lösungen für das Oracle eigene Produkt Portfolio beteiligt. 

Frank Nimphius
F106
Frank Nimphius
F106
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:00
SDdi1.5
Special Day Confluent │ Accelerating Data Quality Assurance through Machine Learning: Data Reply's Data-in-Motion Accelerators
Special Day Confluent │ Accelerating Data Quality Assurance through Machine Learning: Data Reply's Data-in-Motion Accelerators

We will learn about the latest MLOPs strategies and how to approach application deployment for production using various cloud-native technologies.
We will illustrate how the infrastructure, model and pipeline templates built by Data Reply reduce the time needed to get a QA application into production, allowing manufacturers to reap the significant benefits these machine learning applications can offer.

Emiliano Tomaselli is a seasoned Solution Architect with over 15 years of IT experience. He specializes in delivering MLOps projects, bringing machine learning solutions into production using various methodologies and technology stacks.
With his deep understanding of technology, his passion for innovation, Emiliano can provide practical guidance on implementing MLOps solutions, emphasizing the importance of aligning machine learning projects with business objectives.

Emiliano Tomaselli
F130
Emiliano Tomaselli
F130
Vortrag: SDdi1.5
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:00
TDi5
Partner-Track VaultSpeed │ Abstract ETL – the next industry standard for automated data transformation
Partner-Track VaultSpeed │ Abstract ETL – the next industry standard for automated data transformation

Digital transformation forces companies to consider data an asset, making new business models or processes possible. Fast-changing markets lead to fast-changing business requirements. What delivers value today will not necessarily have value tomorrow.
That is why data transformation is so significant: it should transform data into a desired format with business value today and tomorrow.

Organizations lost control over data delivery:

  • DWH projects go over time and budget
  • Lack of trust in data projects
  • Data is not readily available across the organization, prohibiting cross-divisional collaboration
  • Lack of transparency in data results in suboptimal answers to cross-divisional questions
  • Maintenance costs are soaring

Some progress has been made in recent years, but it is not nearly enough. We need to raise the bar for data transformation seriously.
Learn how automated data transformation and abstract ETL will become the next industry standard in data transformation.

Toni Mata is the VP of Technology at VaultSpeed.
For more than 20 years, Data has been the cornerstone of his career in various roles and industries like banking, insurance, healthcare, and public services before joining VaultSpeed.
This background allows him to support customers in designing their information architecture using a business-oriented, data-driven approach.

Antonio Mata Gomez
F129
Antonio Mata Gomez
F129
Vortrag: TDi5
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 17:30
Pause
Kaffee & Ausstellung / Coffee & Exhibition
Kaffee & Ausstellung / Coffee & Exhibition

17:30 - 18:30
Di 1.6
Realitäts-Check Analytics
Realitäts-Check Analytics

Obwohl Unternehmen viel in Tools, Technologien, Prozesse und Ausbildung ihrer Mitarbeitenden investieren, wird der volle Wert von Daten & Analytics oft nicht ausgereizt. 
In meinen 20 Jahren Erfahrung im Bereich 'Reporting, BI und Analytics' bin ich zum Schluss gekommen, dass der weiche Faktor 'Mensch' dabei eine entscheidende Rolle spielt.
Anhand von einigen 'typischen' Themen möchte ich, mit einem Augenzwinkern, einen Realität-Check vornehmen und mögliche Auswege aus der bestehenden Diskrepanz aufzeigen.

Zielpublikum: Alle Interessierten
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Es werden verschiedene Topics (u. a. anhand von Personas) dem Realitäts-Check unterzogen:
- Analytics-Architektur / Datenarchitektur
- Data Scientist / Data Engineer
- Analytics Manager
- Self-Service / Datenmodellierung
- Consultants / Mitarbeitende bei einem Tool-Hersteller
und last but not least: der Nutzer/die Nutzerin von Analytics im Unternehmen

seit Juli 2019: Enterprise-Architekt Analytics bei der SBB 
2017 - 2019: Lead-Architekt Analytics bei MGB (Migros Genossenschaftsbund)
2014 - 2017: Senior Business Intelligence Consultant bei IT-Logix
2010 - 2014: Gesamtverantwortlicher DWH beim ASTRA (Bundesamt für Strassen)
2005 - 2008: Gesamtverantwortlicher EDWH bei PostFinance
1998 - 2004: Leiter BICC bei Swisscom Mobile

Bernd Meister
K3
Bernd Meister
K3
Vortrag: Di 1.6
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:30
Di 2.6
Supra Charger Data Foundation – mehr Zeit für Analytics!
Supra Charger Data Foundation – mehr Zeit für Analytics!

Stell Dir vor, Du könntest Deine Datenplattform ohne Widerstand beladen, Rohdaten aus heterogenen Quellen einfach sicher persistieren, Schema Drift wäre auch kein Problem und eine automatische Historisierung inclusive. All das ohne eine Zeile Code, rein durch Konfiguration. Als ob das nicht genug wäre, erstellst Du auf Knopfdruck eine vollständige Sandbox mit allen Daten für die weitere Entwicklung. Geht nicht? Geht doch! Wir zeigen Dir, wie die Kombination von Loading Framework, Snowflake und Datavault Builder genau das ermöglicht.

Zielpublikum: Data Engineers, Data Architects, Entscheider:innen, Solution Engineers
Voraussetzungen: Grundverständnis von Infrastruktur, Cloud Computing und Data Vault
Schwierigkeitsgrad: Fortgeschritten
 

Daniel works as a Cloud Data Warehouse Architect at Siemens Financial Services GmbH in Munich. He has many years of experience in data-intensive BI and analytics projects. As the lead data architect, he is responsible for the development and expansion of a new cloud data platform. His focus is on cloud architecture, data integration, data modeling, and automation.

Michael Bruckner has over 10 years of experience working in various roles and industries in the field of business intelligence, data analytics, data engineering, and data warehousing. At Siemens Financial Services, he currently leads the Data Management department within the IT department and is driving the development of an enterprise-wide, cloud-based data platform as an IT Program Manager.

Als Principal Consultant legt Meik Truschkowski den Fokus auf Business Intelligence, Data Warehousing und Integration sowie Datenmodellierung, v. a. für die produzierende Industrie und die Finanzbranche. Er verfügt über mehr als 14 Jahre Erfahrung in der Analyse, Planung, Konzeption und Umsetzung branchenübergreifender Projektvorhaben einschließlich der Prozess- und Anforderungsanalyse und ganz besonders der Architektur von Daten.

Ilja Schneider ist Senior Berater mit den Schwerpunkten Data Warehouse, Daten-Integration und Reporting. Er berät seit 18 Jahren Kunden aus verschiedenen Branchen wie z. B. Finanzwesen und verarbeitende Industrie.
Seine Projekterfahrung umfasst dabei den kompletten Wertschöpfungsprozess der Analyse, Planung, Konzeption und Umsetzung von anspruchsvollen Projektvorhaben.
 

Daniel Bialas, Michael Bruckner, Meik Truschkowski, Ilja Schneider
F111
Daniel Bialas, Michael Bruckner, Meik Truschkowski, Ilja Schneider
F111
Vortrag: Di 2.6
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:30
Di 3.6
Future of AI is Now: Potenziale in Computer Vision und NLP
Future of AI is Now: Potenziale in Computer Vision und NLP

Was kann Künstliche Intelligenz heute leisten? In diesem Vortrag zeigen wir anhand einer Vielzahl von Live-Beispielen, ob der Begriff ein überhyptes Buzzword oder die Schlüsseltechnologie der digitalen Zukunft ist. Das TNG Innovation Hacking Team arbeitet seit Jahren an zahlreichen KI-Projekten im Bereich Computer Vision und Natural Language Processing. Kommen Sie auf eine Reise durch die Welt der Künstlichen Intelligenz und deren Architektur, vorgestellt am Beispiel verschiedener Innovations-Projekte.

Zielpublikum: Entscheider:innen, Manager:innen, Entwickler:innen, IT-affine Menschen
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
 

Martin Förtsch ist ein IT-Berater der TNG Technology Consulting GmbH mit Sitz in Unterföhring bei München und studierte Informatik. Seine Arbeitsschwerpunkte sind Agile Development (hauptsächlich) in Java, Suchmaschinentechnologien, Information Retrieval und Datenbanken. Als Intel Software Innovator und Intel Black Belt Software Developer ist er darüber hinaus intensiv in der Entwicklung von Open-Source-Software im Bereich der 3-D-Kameratechnologien und dem Internet of Things involviert. Darüber hinaus hält er zahlreiche Vorträge auf nationalen und internationalen Konferenzen zu den Themen Künstliche Intelligenz, Internet der Dinge, Augmented Reality und Test-Driven Development. Er wurde u. a. mit dem Oracle JavaOne Rockstar ausgezeichnet.

Thomas Endres arbeitet in der Rolle eines Partners als IT-Consultant für TNG Technology Consulting in München. Mit dem TNG-Innovation-Hacking-Team entwickelt er verschiedene Prototypen - darunter ein Telepräsenz-Robotik-System, verschiedene KI-Prototypen und AR/VR-Showcases. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award.

Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Echtzeit-Deepfakes, einer Shitposting-KI oder autonom fliegenden Minidrohnen.
Jonas studierte Informatik: Games Engineering an der TU München und beschäftigte sich dabei neben den üblichen Spieleprojekten auch intensiv mit High Performance Computing und Künstlicher Intelligenz.

Martin Förtsch, Thomas Endres, Jonas Mayer
K4
Martin Förtsch, Thomas Endres, Jonas Mayer
K4
Vortrag: Di 3.6
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:30
Di 4.6
Dashboards und DWH aus einer Hand – DWH Automation bei Pixum
Dashboards und DWH aus einer Hand – DWH Automation bei Pixum

Datenmanagement und Business Intelligence sind eng verwobene Bereiche, werden allerdings in vielen Unternehmen in separaten Teams und Abteilungen strukturiert. In diesem Vortrag wollen wir vorstellen, wie Pixum Data Warehouse Automation nutzt, um damit eine zentrale Anlaufstelle für Daten und Dashboards im Unternehmen bereitzustellen.

Zielpublikum: Entscheider:innen, IT-Architekt:innen, Data Engineers
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Datenmanagement und Business Intelligence sind eng verwobene Bereiche, werden allerdings in vielen Unternehmen in separaten Teams und Abteilungen strukturiert. Pixum wählt hier seit Jahren einen anderen Ansatz und verwaltet sowohl das Data Warehouse als auch die Business Intelligence in einem Team - dem Team 42. Um die große Komplexität einer solchen Umgebung in einem kleinen Team abbilden zu können, müssen die genutzten Tools die Mitarbeiter bestmöglich unterstützen. In diesem Vortrag wollen wir daher vorstellen, wie Pixum Data Warehouse Automation nutzt, um alle Daten-Ladeprozesse effizient zu steuern und eine zentrale Anlaufstelle für Daten und Dashboards im Unternehmen bereitzustellen. Dies unterstützt die datengetriebene Unternehmenskultur.

Christian Moke verantwortet den Bereich Finanzen und Controlling und beschäftigt sich bei Pixum seit über 11 Jahren mit dem rasant wachsenden Analysebedarf im Unternehmen. Aus der Rolle des Qlik-Anwenders sowie Entwicklers heraus hat er die effiziente Datennutzung durch gezielte Business Intelligence-Lösungen als einer der Datenpioniere bei Pixum auf ein neues Level gehoben.

Hendrik Gruß hat an der RWTH Aachen studiert und bringt sein umfangreiches Know-how als Informatik B.Sc./M.Sc. seit vier Jahren bei Pixum als Data Engineer ein.

Christian Moke, Hendrik Gruß
E101/102
Christian Moke, Hendrik Gruß
E101/102
Vortrag: Di 4.6
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:30
Di 5.6
Data Governance: Vom Konzept zur gelebten Unternehmenspraxis
Data Governance: Vom Konzept zur gelebten Unternehmenspraxis

Die Entwicklung und Einführung eines Data Governance-Programms und eines Datenkatalogs ist für jedes Unternehmen eine Umstellung. Zuständigkeiten und Verantwortung für Daten wollen explizit definiert, Prozesse eingeführt und Wert und Bedeutung von Daten sichtbar gemacht werden.

Der Vortrag beleuchtet anhand einiger Fallbeispiele, wie die verschiedenen Herausforderungen eines solchen Vorhabens gemeistert werden und sich der Fortschritt messen lässt, damit ein langfristig erfolgreiches Programm entsteht.

Zielpublikum: Projektleiter:innen, Architekt:innen, Data Management, Senior Data Engineers
Voraussetzungen: Grundkenntnisse im Datenmanagement
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Jedes Jahr wachsen die Datenbestände eines Unternehmens weiter: Die existierenden Prozesse und Arbeitsabläufe generieren Unmengen an Daten, welche aufgrund günstiger Speicherpreise immer länger und feingranularer aufbewahrt werden können, Daten aus frei zugänglichen Quellen wie Social Media oder hinzugekaufte oder mit Partnerunternehmen ausgetauschte Daten werden in immer größerem Umfang gesammelt und genutzt.

Gesammelte Daten sind aber noch keine Informationen und erst recht keine Erkenntnisse, auf deren Basis man als Unternehmen handeln könnte. Die gesammelten Daten zu managen und für verschiedenste Zwecke auffindbar und nutzbar zu machen, ist also eine zunehmend komplexere Aufgabe. Data Governance als organisatorischer Rahmen und ein Datenkatalog als technisches Tool können hier Eckpfeiler für eine effiziente Datennutzung im Unternehmen liefern.

Dieser Vortrag zeigt anhand von Best Practices und einigen Fallbeispielen aus verschiedenen Branchen, wie die verschiedenen Herausforderungen bei der Einführung sowohl von Data Governance als auch eines Datenkatalogs gemeistert werden können, damit ein langfristig erfolgreiches Programm entsteht. Außerdem betrachten wir, wie sich Erfolg von Data Governance messen lässt, um damit nicht zuletzt Investitionen in diesem Bereich zu begründen.

Uwe Westerhoff leitet seit einigen Jahren bei der saracus consulting GmbH den Bereich Data Governance und Data Science. Zusammen mit seinem Team entwickelt er für Unternehmen aus verschiedenen Branchen Data-Governance-Strategien, führt Datenkataloge ein und berät und begleitet Unternehmen bei ihrer Transformationen hin zu einem datengetriebenen Unternehmen. In der Rolle als Data Scientist kennt er aber auch die Rolle des Datennutzers, welcher Daten für seine Aufgaben im Unternehmen finden und verstehen muss.
Vor seiner Zeit bei saracus hat Herr Westerhoff einige Jahre für ein Start-up im Bereich Robotik und Computer Vision sowie in der universitären Forschung im Bereich Kern- und Elementarteilchenphysik gearbeitet.
 

Uwe Westerhoff
E119
Uwe Westerhoff
E119
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:30
Di 6.6
Why AI? Explainable AI (XAI)
Why AI? Explainable AI (XAI)

Eine Möglichkeit, die Nachvollziehbarkeit der Entscheidungen von KI-Modellen zu erhöhen, ist Explainable AI (XAI). In unserem Vortrag geben wir eine Einführung in dieses sehr relevante und spannende Feld. Anhand eines Use-Cases zeigen wir die Wichtigkeit von XAI auf und gehen tiefer auf einige Methoden ein, die helfen können, die gestellten Anforderungen zu erfüllen. Zusätzlichen diskutieren wir den konkreten Nutzen, den XAI bringen kann, anhand einer Reihe von Beispielen aus der Praxis und geben einen Einblick, welche Bereiche besonders profitieren können.

Zielpublikum: Entscheider:innen, Data Scientists
Voraussetzungen: Grundsätzliche Kenntnis über Machine Learning-Anwendungen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Moderne KI-Algorithmen werden zunehmend komplexer und die getroffenen Vorhersagen können immer schwer nachvollzogen werden. Dies erschwert den Einsatz von KI im Allgemeinen und besonders in hochregulierten Bereichen, in denen Nachvollziehbarkeit eine große Rolle spielt (z. B. Finance und Insurance). Aktuelle Gesetzesvorhaben wie der European AI-Act verstärken dieses Problem zusätzlich, da Nachvollziehbarkeit mehr und mehr zu einer verpflichtenden Eigenschaft von KI-Modellen in vielen Bereichen wird. Eine Möglichkeit, die Nachvollziehbarkeit der Entscheidungen von KI-Modellen zu erhöhen, ist Explainable AI (XAI). In unserem Vortrag geben wir eine Einführung in dieses sehr relevante und spannende Feld. Anhand eines Use-Cases zeigen wir die Wichtigkeit von XAI auf und gehen tiefer auf einige Methoden ein, die helfen können, die gestellten Anforderungen zu erfüllen. Zusätzlichen diskutieren wir den konkreten Nutzen, den XAI bringen kann, anhand einer Reihe von Beispielen aus der Praxis und geben einen Einblick, welche Bereiche besonders profitieren können.
 

Andreas Gillhuber ist seit 2017 bei der Alexander Thamm GmbH tätig und verantwortet als Managing Director und Co-CEO das operative Geschäft in den über 300 Kundenprojekten (Delivery). Er verfügt über langjährige Expertise aus komplexen IT- und Transformationsprogrammen, Restrukturierungen, Digitalisierungs- sowie Data Strategy / Engineering-Projekten. Andreas Gillhuber hat über 25 Jahre Industrie- und Konzernerfahrung und war zuvor in Geschäftsleitungs- und IT-Management-Positionen bei BMW, RWE, Nokia Siemens Networks und Siemens. Nach seinem Studium der Elektrotechnik und Informationstechnik, das er als Dipl.-Ing. an der TU München abschloss, startete er in Vertrieb und Marketing bei der IBM in USA und Deutschland.
Er ist außerdem Buchautor und Vorstandsmitglied der German Data Science Society (GDS) e.V.
 

Johannes Nagele hat einen wissenschaftlichen Hintergrund in Biophysik und Hirnforschung und verfügt über mehr als 10 Jahre Erfahrung in Statistik, Datenwissenschaft, maschinellem Lernen und künstlicher Intelligenz. Er kombiniert seine langjährigen praktischen Erfahrungen mit konzeptionellen Ansätzen zur Analyse komplexer Systeme. 
Bei [at] leitet er den Exzellenzcluster zu erklärbarer KI.
 

Luca Bruder hat einen wissenschaftlichen Hintergrund in kognitiven Neurowissenschaften und kombiniert diesen mit Fachwissen in den Bereichen Reinforcement Learning und Bayes'sche Modellierung. 
Bei [at] leitet er ein großes Forschungsprojekt über erklärbare KI im Bereich autonomes Fahren und Computer Vision.
 

Andreas Gillhuber, Johannes Nagele, Luca Bruder
E124
Andreas Gillhuber, Johannes Nagele, Luca Bruder
E124
Vortrag: Di 6.6
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:30
Di 8.6
Wann sind Projekte erfolgreich? - eine interaktive Erzählung!
Wann sind Projekte erfolgreich? - eine interaktive Erzählung!

Wie gelingen und wieso scheitern Projekte? In der Regel hören wir mehr von gescheiterten als gelungenen Projekten. Welche Faktoren machen erfolgreiche Projekte aus? Im Rahmen dieses interaktiven Vortrages werden insbesondere die Rahmenbedingungen von Projekten (z.B. Termindruck) und die Beweggründe von Projektmitgliedern in einer Erzählung aus einem "alltäglichen" Projekt beleuchtet. Über eine Retrospektive zu drei Meilensteinen des Projektes werden Parallelen zu anderen Projekten gezogen und gemeinsam mit den Teilnehmern (u.a. über mentimeter) vertieft und erweitert 

Des Weiteren werden Bezüge zum Kapazitäten Management in Projektplanungen und der Problematik der Projektplanung generell hergestellt und gemeinsam mit den Teilnehmern betrachtet und erörtert. Diskutiert wird zum einen die Fragestellung: "Was alltägliche Projekte von Projekten in unseren Unternehmen unterscheidet?" sowie über das Pro und Conta von festen Terminvorgaben debattiert. 

Gelernter Entwickler und seit 1984 in der IT der IKB Deutschen Industriebank AG in Düsseldorf. In den Jahren 2005-2018 als Teamleiter und Direktor zuständig für Entwicklung des Kreditsystems KreDa der Bank. Die Basis der Anwendung sind ORACLE DB, ORACLE FORMS und Reports sowie seit 2013 ORACLE ADF. Der aktuelle persönliche Schwerpunkt liegt auf Themen der Strategie und Innovation sowie insbesondere der agilen Methoden. Seit 2019 im Fachbereich im Competence Center Kredit. Über die Development Community ergaben sich die ersten Berührungspunkte mit der DOAG und war seit Gründung und bis 2020 Mitglied im DOAG-Anwenderbeirat.  

In den letzten Jahren hat er sich neben Vorträgen auf der DOAG K+A und der Arbeit im Anwenderbeirat auch im Arbeitskreis Strategie der DOAG und im Arbeitskreis Nachwuchsförderung in Verbindung mit der #nextgen engagiert. Über diese Aktivitäten ist sein Interesse an der DOAG weiter gestiegen und hat seit 2020 die Möglichkeit als Vorstand der Data Analytics Community die Entwicklung der DOAG mitzugestalten. 

Seit Juni 2020 im Vorruhestand und seitdem auch zeitweise als Trainer für Innodrei tätig. 

Armin Wildenberg
F106
Armin Wildenberg
F106
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:30
TDi6
Partner-Track cimt │ Data Democratization: Eine neue Ära der Datennutzung
Partner-Track cimt │ Data Democratization: Eine neue Ära der Datennutzung

Willkommen in der Ära der Demokratisierung von Unternehmensdaten! Erfahren Sie, wie „Data Democratization“ Ihre Organisation agiler, datengetriebener und innovativer macht. Bessere Entscheidungen, intensive Zusammenarbeit und eine offene, datengesteuerte Kultur – lieber heute als morgen! 

Erfahren Sie in unserem Vortrag wie Ihre Daten einen Mehrwert für Ihr Unternehmen schaffen können, wenn Sie Unternehmensdaten „demokratisieren“. Doch was ist Data Democratization überhaupt? Welche Voraussetzungen sind dafür notwendig? Und welche Herausforderungen sind vorab zu lösen? 

Wenn Sie sich für Data Democratization entscheiden, entscheiden Sie sich nicht nur für eine gesteigerte Mitarbeiterperformance auf allen Unternehmensebenen, sondern auch dafür sich auf den Weg zu einer einfachen und breiten Datennutzung zu begeben – jenseits von Silos! 

Marco beschäftigt sich seit über 10 Jahren mit den Bereichen Data Warehousing, Data Engineering und Business Intelligence. Er kann sehr umfangreiche Erfahrungen aus den Branchen Handel, Lebensmittelindustrie und Gastronomie nachweisen. Seine Kernkompetenzen liegen in der Erstellung von Datenbanken, Bewirtschaftungsstrecken und Auswertungen. 

Marco Weigelmann
F129
Marco Weigelmann
F129
Vortrag: TDi6
flag VORTRAG MERKEN

Vortrag Teilen

18:40 - 19:25
KeyDi2
SPECIAL KEYNOTE: Das Limit bin nur ich
SPECIAL KEYNOTE: Das Limit bin nur ich

2017 machte Jonas sich auf, auf der Kontinentaldurchquerung durch Europa und Asien seinen ersten Weltrekord auf dem Fahrrad aufzustellen. 
Danach kündigte er seinen Job im Software-Vertrieb in München, wo er seit seinem International Business Studium arbeitete, und stellte in den Folgejahren weitere Weltrekorde auf den grossen Ultradistanzen Alaska-Feuerland und Nordkap-Kapstadt auf. 
Im September 2020 dann, brach Jonas zu seinem bislang grössten Abenteuer auf, dem Triathlon um die Welt.“ 
Einmal um die Erde, in den Triathlon-Disziplinen Schwimmen, Laufen und Radfahren. Ganz auf sich allein gestellt hat Jonas Deichmann das Unmögliche möglich gemacht: Während die Welt im Lockdown verharrt, umrundet er sie, in 14 Monaten voller Grenzerfahrungen und Momenten größten Glücks. Jonas schwimmt durch die Adria, gegen tückische Strömungen und teils in der Dunkelheit, fährt mit dem Fahrrad 20.000 Kilometer von Dubrovnik bis nach Wladiwostok bei klirrender Kälte, und durchläuft Mexiko in 120 Marathons. Begleitet von Menschen, jung und alt, die sich ihm spontan anschließen, um für ein paar Kilometer Teil seines Abenteuers zu werden, und beflügelt von Millionen Fans im Netz. Am Ende steht eine unglaubliche Geschichte von Mut und Motivation.

Jonas Deichmann ist der einzige Mensch, der Radrekorde auf allen großen Kontintaldurchquerungen aufgestellt hat und die Welt im Triathlon umrundete. Er ist mehrfacher Weltrekordhalter und Bestseller-Autor.

Jonas Deichmann
Keynote Area
Jonas Deichmann
Keynote Area
Track: #Keynote
Vortrag: KeyDi2
flag VORTRAG MERKEN

Vortrag Teilen

19:25 - 22:00
D&D
Data and Drinks
Data and Drinks

Genieße kühle Drinks und kleine Snacks, während du wertvolle Kontakte knüpfst und den ersten Messetag revue passieren lässt!

Ausstellung
Ausstellung
Vortrag: D&D
flag VORTRAG MERKEN

Vortrag Teilen

08:00 - 09:00
Pause
Kaffee & Registrierung / Coffee & Registration
Kaffee & Registrierung / Coffee & Registration

09:00 - 10:00
Mi 1.1
Transformation der Datenorganisation – ein Erfahrungsbericht
Transformation der Datenorganisation – ein Erfahrungsbericht

Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/michael.zimmer

Unternehmen stehen regelmäßig vor der Herausforderung, Datenorganisationen mit Business und IT erfolgreich zu organisieren. Hier stellt sich oft die Frage nach notwendigen Rollen, Werkzeugen, aber auch Vorgehen. Im Vortag wird die Datenstrategie der Zurich Deutschland kurz eingeführt, das Arbeitsmodell vorgestellt und aufgezeigt, wie sich die Zurich Deutschland in den letzten Jahren von einer DWH fokussierten Organisation zu einem datenzentrierten Unternehmen mit Lake, neuer Governance & einer KI-Serienfertigung gewandelt hat.

Zielpublikum: Von Fachbereichsmitarbeiter:innen bis zu CDOs
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger 

Dr. Michael Zimmer ist Chief Data Officer der Zurich Gruppe Deutschland und Teil des internationalen Daten-Leadership-Teams. Hierbei verantwortet Herr Zimmer das Thema Daten und KI von der strategischen Ausrichtung, über die tatsächliche Ownerschaft bis hin zur Umsetzung konkreter KI-Anwendungen oder Datenarchitekturen. Er hat über Agilität von Datenarchitekturen promoviert und war vor seiner Zeit bei Zurich mehr als 13 Jahre in der Beratung tätig. Er ist Herausgeber und Autor diverser Bücher und unter anderem TDWI Germany Fellow, männlicher Alliierter der Woman Leaders in Data & Analytics (WLDA) sowie Mitglied der Arbeitsgruppe Ethical AI der deutschen Aktuarsvereinigung.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei:  https://www.sigs.de/autor/michael.zimmer

Michael Zimmer, Markus Hatterscheid
K4
Michael Zimmer, Markus Hatterscheid
K4
Vortrag: Mi 1.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:00
Mi 2.1
Metadatenautomation im Data Mesh
Metadatenautomation im Data Mesh

In verteilten Data Mesh-Architekturen spielt die Sammlung, Anreicherung und Verteilung von Metadaten eine zentrale Rolle, um das flüssige und sichere Arbeiten an und mit Datenprodukten quer durch die Organisation und darüber hinaus zu ermöglichen. Der Vortrag gibt Einblicke in Zalandos Metadata Mesh und wie mithilfe von Metadaten über Cloud-Provider und Technologien hinweg effizient mit Daten gearbeitet werden kann.

Zielpublikum: Data Engineers, Principals, Architekt:innen, Leiter:innen, Führungskräfte
Voraussetzungen: Grundkenntnisse in Datenarchitekturen
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
In heterogenen Data Mesh-Architekturen fallen Unmengen an Metadaten an: Informationen über Schemata, Formate, Beschreibungen, Verantwortlichkeiten, Verwendung, Qualität, oder Klassifizierungen werden dezentral produziert, müssen weiterverarbeitet und weitergereicht werden, um flüssiges und sicheres Arbeiten mit Daten zu ermöglichen. Hierbei liegt ein großer Fokus auf der dezentralen Metadatenplattform, die quer über Technologien und Organisationen hinweg Metadaten integriert und bereitstellt. Dabei müssen nicht nur verteilte Datenkataloge, sondern auch diverse Tools wie z. B. zur Datenqualitätsmessung angeschlossen werden. Der Vortrag gibt Einblicke dazu in Zalandos jetzige und zukünftige Datenlandschaft.

Sebastian Herold treibt seit 5 Jahren die Entwicklung von Zalandos Datenlandschaft zu einem effizienten, skalierbaren, sicheren Data Mesh von Datenprodukten voran und arbeitet dabei eng mit den Nutzern und Cloud-Providern zusammen.
Zuvor hatte Sebastian für 7 Jahre die Datenplattform von Immobilienscout24 aufgebaut.
 

Sebastian Herold
F111
Sebastian Herold
F111
Vortrag: Mi 2.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:00
Mi 3.1
Anonymization 2.0: AI-Driven solution for text anonymization
Anonymization 2.0: AI-Driven solution for text anonymization

This talk will explore the concept of automated text anonymization powered by machine learning, a solution that can quickly and accurately protect sensitive data. The talk will cover all the necessary concepts and considerations to implement such a solution in the industry. Some of the key concepts that will be discussed include the data labeling process, training NLP models, a human-in-the-loop process to ensure privacy and monitor the performance of the ML model, and implementation of MLOPS principles.

Target Audience: ML Engineers, Data Scientists, Decision-Makers in the area of data privacy
Prerequisites: Familiarity with basic machine learning methods
Level: Advanced

Extended Abstract:
Data privacy and anonymization are important topics and will probably stay in the future. Balancing data privacy and data utilization is a crucial challenge for many organizations. On one hand, companies must protect sensitive information and comply with regulations. On the other hand, they can unlock new business insights from the text data they collect. This talk will explore the concept of automated text anonymization powered by machine learning, a solution that effectively balances both considerations by quickly and accurately protecting sensitive data while preserving its utility. The talk will cover all the necessary concepts and considerations to implement such a solution in the industry. Some of the key concepts that will be discussed include the data labeling process, training NLP models, a human-in-the-loop process to ensure privacy and monitor the performance of the ML model, and MLOPS concepts to ensure the model improves over time
 

Damir Kopljar is a Team Lead at Croz AI, a Ph.D. candidate in the field of explainable AI, and a passionate drone pilot.
He is always curious to learn more about complex problems and find the best solutions using data and machine learning. Currently, his efforts are concentrated on assisting clients in identifying opportunities to leverage AI and implement machine learning across various scenarios, as well as on establishing future-oriented ML factories grounded in MLOps best practices.
When he's not fixing broken drones, he enjoys mountain climbing.

Damir Kopljar
E124
Damir Kopljar
E124
Vortrag: Mi 3.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:00
Mi 4.1
Welche Services sollte eine Reporting-Plattform bieten?
Welche Services sollte eine Reporting-Plattform bieten?

Häufig kann Self-Service BI die hohen Erwartungen an Qualität und Vorbereitung nicht erfüllen, da die Reporting-Plattform den Fachanwender:innen wichtige Services nicht oder nur unzureichend anbietet. Durch Services wie CI/CD-Pipelines oder eine Testautomation werden Ressourcen freigesetzt, die Fehlerquote verringert und die Prozesse beschleunigt. Wir geben einen Überblick, welche technischen Services eine Reporting-Plattform bieten sollte, um Anwender von Self-Service zu empowern, und welche Faktoren für den Erfolg der Services entscheidend sind.

Zielpublikum: BI-Verantwortliche, IT-Leiter:innen, Data-Architekt:innen
Voraussetzungen: Grundlegendes Wissen/Erste Erfahrungen im Bereich 'Reporting'
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Self-Service Reporting/Analytics ist ein vorherrschender Trend in datengetriebenen Unternehmen, bei dem Fachbereiche befähigt werden, eigenständig Analysen und Dashboards anzufertigen. 

In den letzten Jahren haben Unternehmen verstärkt in die Standardisierung des Self-Service Reportings durch Visualisierungsstandards, Templates oder Einführung eines Datenkatalogs investiert. Ebenfalls gab es eine starke Weiterentwicklung der Self-Service Reporting Tools (Power BI, SAC etc.). Dagegen haben sich die technischen Serviceangebote der Reporting-Plattform, wie CICD-Pipelines oder automatisierte Test-Frameworks, kaum weiterentwickelt.

Im Rahmen dieses Vortrags geben wir eine Übersicht über die wichtigsten Serviceleistungen für die nachhaltige Nutzung von Self-Service BI. Der Vortrag ist nicht auf ein Tool fokussiert. Wir fokussieren uns auf technische Serviceangebote, die die Erstellung des Berichts unterstützen oder diese begleiten, z. B. das Deployment, die Testung oder die Zugriffsverwaltung.

Aufbau des Vortrags:

Wir zeigen, wie Fachanwender:innen durch technische Services unterstützt werden können. Dabei differenzieren wir die Anforderungsbereiche Qualitätsmanagement, Ease-of-use für die Anwender:innen, die Skalierbarkeit der Reports und Dashboards und die Ermöglichung der regulatorischen Korrektheit.

Im zweiten Teil des Vortrags stellen wir vor, welche Faktoren für den Erfolg der Serviceangebote maßgeblich sind. Anhand des automatisierten Test-Frameworks zeigen wir, wie eine Lösung konkret aussehen kann.

Miklas Horstmann arbeitet seit 2019 als Data Analytics Consultant/Architekt bei der Informationsfabrik. Sein Tätigkeitsschwerpunkt liegt in der Konzeption und Implementierung von modernen Reporting-Plattformen. Er ist für die inhaltliche und personelle Weiterentwicklung des Clusters Analytics Solutions bei der Informationsfabrik verantwortlich.

Thomas Löchte ist Gründer und Geschäftsführer der Informationsfabrik GmbH. Seit über 20 Jahren unterstützt er Kunden dabei, mehr Nutzen aus Daten zu gewinnen. Er war in verschiedenen Rollen in Data Analytics-, Business Intelligence- und Data Science-Projekten tätig. Heute berät er Führungskräfte hinsichtlich strategischer Themen und plant die Umsetzung komplexer Data Analytics-Lösungen für die Kunden der Informationsfabrik. Dabei legt er großen Wert auf die Erarbeitung Nutzen stiftender Business Cases, ein gutes Zusammenspiel zwischen Business und IT und eine positive Zusammenarbeit im Team.

Miklas Horstmann, Thomas Löchte
E119
Miklas Horstmann, Thomas Löchte
E119
Vortrag: Mi 4.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:00
Mi 5.1
Don't Talk Data to Me
Don't Talk Data to Me

Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/klausdieter.schulze

Laut dem BARC Data, BI & Analytics Trend Monitor 2023 sind die Top 5 Trends Master data / DQ Management, Data Culture, Data Governance, Data Discovery und Self-Service Analytics. Auch wenn der Begriff ,Data' dabei weiter gerne verwendet wird, drehen sich alle diese Trends eher um einen effizienten Umgang und den Mehrwert aus den Daten und nicht um die Daten selbst. Nach einer Bewertung von aktuellen Trends fokussiert sich der Vortrag im Schwerpunkt auf die konkrete Situation um die Mobilitätsbranche bei DKV Mobility.

Zielpublikum: Business Users, Entscheider:innen, Data Governance Spezialist:innen, Data Strategist
Voraussetzungen: Erfahrung mit Data & Analytics Projekten
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Die Schwerpunkte in der Diskussion um die Analyse von Daten verschieben sich. Laut dem BARC Data, BI & Analytics Trend Monitor 2023 sind die Top 5 Trends Master data / DQ Management, Data Culture, Data Governance, Data Discovery und Self-Service Analytics. Auch wenn der Begriff ,Data' dabei weiter gerne verwendet wird, drehen sich alle diese Trends eher um einen effizienten Umgang und den Mehrwert aus den Daten und nicht um die Daten selbst.

Wenn es um den Mehrwert oder Effizienzen geht, reichen wage oder qualitative Aussagen nicht mehr aus. Um das C-Level von langfristigen Investitionen und dem Mehrwert der Data-Driven Company zu überzeugen, müssen Mehrwertversprechen, wie die Verbesserung der Transparenz oder der Prozess-Qualität, entlang von konkreten Use Cases in Euro umgerechnet werden können.

Nach einer Bewertung von aktuellen Trends fokussiert sich der Vortrag im Schwerpunkt auf die konkrete Situation um die Mobilitätsbranche bei DKV Mobility.

Nach der Entwicklung einer Daten-Strategie in 2020 ist die Umsetzung der Strategie beim DKV in vollem Gange. Welche Use Cases erzeugen messbaren Mehrwert, welche sind die richtigen KPIs, um den Erfolg der Datenstrategie zu messen, und welche Rolle spielt Data Governance dabei, sind Themen, die im Vortrag entlang der konkreten Situation beim DKV Mobility dargestellt werden.

Ein Blick nach vorne beim DKV und Do's und Don'ts schließen den Vortrag ab.

Dr. Sönke Iwersen verantwortet seit mehr 15 Jahren Data & Analytics-Organisationen in verschiedenen Industrien (u.a. Telefónica, Handelsblatt, XING, Fitness First, HRS). Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/soenke.iwersen

Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Juli 2022 ist er Geschäftsführer bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/klausdieter.schulze

Sönke Iwersen, Klaus-Dieter Schulze
K3
Sönke Iwersen, Klaus-Dieter Schulze
K3
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:00
Mi 6.1
Agile Transformation und Kollegiale Führung
Agile Transformation und Kollegiale Führung

Agile Vorgehensmodelle haben sich in der SW-Entwicklung flächendeckend etabliert. Viele Unternehmen stehen jedoch vor der Herausforderung, Agilität und die damit verknüpfte Philosophie nicht nur auf der operativen, sondern auf allen Ebenen zu nutzen. Frameworks für die Skalierung agiler Vorgehensmodelle (z.B . SAFe) sind dafür nur bedingt geeignet.
Der Vortrag führt die Themen Agile Transformation, Digitalisierung und New Work zusammen und zeigt am Beispiel der esentri AG, wie eine solche Transformation erfolgreich umgesetzt werden kann.

Zielpublikum: Personengruppen, die mit ihrem Unternehmen vor der Herausforderung einer agilen Transformation stehen und wissen möchten, was es dabei zu beachten gilt und wie man sein Unternehmen in eine agile Organisation überführt.
Voraussetzungen: Teilnehmer:innen sollten idealerweise Erfahrungen mit agilen Vorgehensweisen haben und offen für neue Ideen sein.
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
'Stellt Euch vor, Euer Unternehmen kann wie eine Software entwickelt werden. Neue Features und Changes sind möglich, Reaktion auf die Umgebung sind schnell und agil möglich; der CEO ist der Product Owner des Vorhabens und die Kreise die Komponenten ...'
Agile Vorgehensmodelle haben sich in der Softwareentwicklung mittlerweile flächendeckend etabliert. Viele Unternehmen stehen dabei jedoch gerade vor der Herausforderung, Agilität und die damit verknüpfte Philosophie nicht nur auf der operativen, sondern auf allen Ebenen des Unternehmens zu nutzen. Bestehende Frameworks für die Skalierung agiler Vorgehensmodelle, wie z. B. SAFe oder LeSS, sind dabei nur bedingt geeignet, die sogenannte Agile Transformation voranzutreiben. 
Die Einführung agiler Methoden wird vielfach als ein disruptives Element für die Unternehmen bezeichnet, da diese nicht nur mit einer neuen Arbeitsweise einhergehen, sondern darüber hinaus auch zu einem kulturellen Wandel führen. Dieser kulturelle Wandel ist es aber, der häufig zu Problemen führt. Nicht der Wandel selbst, sondern die unterschiedlichen Geschwindigkeiten, mit denen er sich auf den verschiedenen hierarchischen Ebenen vollzieht, kann dabei zu Konflikten führen. Während die Produktentwicklung selbst agil geschieht, wird auf den oberen Leitungsebenen häufig noch klassisch geführt. Eine solche Zweigleisigkeit kann zu Ineffizienzen und letzten Endes auch zu unproduktiven Konflikten führen, wenn bottom-up mehr Agilität eingefordert wird. 
Aus diesem Grund ist es für die Unternehmen unerlässlich, sich mit dem Thema der agilen Organisationsentwicklung frühzeitig zu beschäftigen, soll die angestrebte Transformation gelingen. Während SAFe und Co. eher von der Entwicklungsseite kommen, bieten neue Ansätze, wie etwa die von Oestereich/Schröder (2020) vorgeschlagene 'Kollegiale Führung', Alternativen an, die auf die Anpassungsfähigkeit der Organisation und auf ihre Fähigkeit, mit komplexen Problemen umzugehen, abzielen. Bei dieser Art der agilen Organisationsentwicklung arbeitet man, unter anderem ausgehend von den Holacracy-Ansätzen von [Robertson (2016) ] und der Soziokratie 3.0 [Bockelbrink et al. (2019)], mit einem Kreismodell. Die Aspekte Selbstorganisation und Anpassungsfähigkeit nehmen dabei einen besonderen Stellenwert ein und die Rolle der Führung verändert sich von command-and-control hin zu einem servant-leader und damit zu einer Agile Leadership im Sinne von Sieroux et al. (2020). 
Gerade in datengetriebenen Unternehmen erhalten die obigen Themenkomplexe eine zunehmende Bedeutung. Marktteilnehmer, die diese Herausforderungen nicht offensiv angehen, werden zumindest mittelfristig mit Wettbewerbsnachteilen rechnen müssen. Der Vortrag führt insbesondere die Themen Agile Transformation, Digitalisierung und New Work zusammen und zeigt am Beispiel der esentri AG, wie die Umsetzung der vorgestellten Ideen gelingen kann. An diesem konkreten Beispiel wird verdeutlicht, wie eine solche Transformation, unterstützt durch den Ansatz der kollegialen Führung, gelingen kann, welche organisatorischen Herausforderungen zu meistern sind und wie sich nicht zuletzt die Rolle der Führung ändert. Wenn dies gelingt, dann kann die zu Beginn genannte Vision tatsächlich Realität werden.

Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe (HKA). Dort vertritt er u. a. die Bereiche Business Intelligence und Projektmanagement im Fachgebiet Informatik. Den Bachelor-Studiengang 'Data Science' an der HKA hat er maßgeblich mitgestaltet. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Uwe_Haneke

Frank Szilinski ist Gründer und CTO der esentri AG, Experte für digitale Transformation und Unternehmer aus Leidenschaft. Als digitaler Vordenker brennt er für Innovationen in Unternehmen und beschäftigt sich hauptsächlich mit neuen Arbeitswelten und dem dafür geeigneten Einsatz von Technologie. Er verantwortet die Umsetzung von nachhaltigen Digitalisierungsprojekten für Kunden aus verschiedenen Branchen und hat auch die esentri AG in ein kollegial geführtes Unternehmen transformiert.

Uwe Haneke, Frank Szilinski
E101/102
Uwe Haneke, Frank Szilinski
E101/102
Vortrag: Mi 6.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:00
Mi 7.1
Limitiert Grundlagen der Datenanalyse
Grundlagen der Datenanalyse

Diese Session ordnet die Themenfelder und stellt den organisatorischen Rahmen dar, in den die Nutzung von Analytics in Unternehmen eingebettet sein sollte. Dazu werden zunächst statistische Grundlagen aufgefrischt. Darauf aufbauend werden Algorithmen und deren potenzielle Eignung für Anwendungen vorgestellt und diese anhand kleiner Beispiele durchgerechnet.

Maximale Teilnehmerzahl: 20
Bitte halten Sie einen Taschenrechner (die Taschenrechner-App Ihres Smartphones ist ausreichend) für diese Session bereit.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger
 

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/carsten.felden

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt. 

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/claudia_koschtial

Carsten Felden, Claudia Koschtial
F127
Carsten Felden, Claudia Koschtial
F127
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:00
Mi 8.1
Data Warehouse Automation Challenge for Willibald – Seeds and Plants
Data Warehouse Automation Challenge for Willibald – Seeds and Plants

DWH automation is wonderful, but which tool? Using 13 typical data constellations, a fictitious data model is presented that can be used to evaluate the implementation performance of an automation tool. In 4 follow-up presentations, one implementation each will be presented based on the data.

Prerequisites: Basic Data Warehouse Knowledge
Level: Basic

Extended Abstract:
The automation of data warehouse development, especially in connection with Data Vault, drastically increases the speed of development in BI. Before using this technology, the question of the right tool for DWH automation arises:

  • Does the tool fulfil all the necessary functionalities?
  • What are the necessary functionalities in the first place?
  • What suits the existing team and the company technology or culture?

Based on several tool evaluations and with a lot of know-how about typical Data Vault problems, the German Data Vault User Group (DDVUG) has created a fictitious company: Willibald - seeds and plants.
A data model with 13 typical problems is available for this purpose. Based on these typical problems, the implementations within the DWH automation tools can be evaluated.
In this presentation, these challenges are described and a catalogue of criteria for selection and evaluation is presented. In four further presentations, users/manufacturers will show how the challenge was implemented, giving an impression of how to use the tool and an insight into general functions.
This is an ideal start to your own tool selection as well as an ideal opportunity to get a tool overview or to update your own tool overview.

Christian Hädrich ist BI-Spezialist und unterstützt seit über 20 Jahren Unternehmen bei der Entwicklung von dispositiven Anwendungen und Data Warehouses. Durch seinen Mainframe-Hintergrund ist er häufig bei großen Unternehmen wie Versicherungen und Banken tätig. Neben der Implementierung liegt der Schwerpunkt seiner Arbeit in der Architektur- und Prozessberatung. Seit 8 Jahren beschäftigt er sich intensiv mit den Themen DWH-Automatisierung und Data Vault. Er ist Mitglied im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V.

Michael Müller ist seit mehr als 20 Jahren im BI-Bereich tätig. Seine Schwerpunkte liegen in den Bereichen Datenmodellierung und Datenarchitektur sowie Data Vault, DWH-Automatisierung und Einbettung von BI im Unternehmen. Derzeit ist er im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V. tätig.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/michael.mueller

Christian Hädrich, Michael Müller
F106
Christian Hädrich, Michael Müller
F106
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:30
SDmi1.1
Special Day INFOMOTION │ Freude an Daten wecken: Menschenzentriertes Datenplattformdesign mit Google Cloud
Special Day INFOMOTION │ Freude an Daten wecken: Menschenzentriertes Datenplattformdesign mit Google Cloud

Den Wert einer Datenplattform zu realisieren, scheitert häufig an der Akzeptanz der Nutzer. In diesem Vortrag erfahrt Ihr, wie Google Menschenzentriertes Plattformdesign einsetzt, um Datenplattformen zu entwickeln, die genau auf die Bedürfnisse ihrer Benutzer zugeschnitten sind und so schnell und nachhaltig Wert zu schaffen.

Voraussetzungen: Grundlagen in Datenarchitekturen, Grundlagen in agilem Arbeiten, Grundlagen im Produktmanagement
Schwierigkeitsgrad: Fortgeschritten

Max Tschochohei ist bei Google Cloud für das Thema Data, Analytics und AI in Zentral- und Nordeuropa zuständig. Mit seinem Team unterstützt er die Kunden von Google Cloud dabei, das Meiste aus der Plattform herauszuholen. Vor seiner Zeit bei Google war Max bei NTUC Enterprise an der digital Transformation von Singapur beteiligt und arbeitete als Technologieberater bei der Boston Consulting Group.

Max Tschochohei
F129
Max Tschochohei
F129
Vortrag: SDmi1.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 12:00
SDmi2
Special Workshop SAP │ Hands-On Experience SAP – SAP Datasphere Hands-On Exercise
Special Workshop SAP │ Hands-On Experience SAP – SAP Datasphere Hands-On Exercise

In diesem Hands-On Workshop erhalten Sie eigenen Zugang zu den Kursmaterialien sowie einer geteilten SAP Datasphere Umgebung. Mit der Hilfe von SAP-Mentoren werden Sie durch die Kursmaterialien geleitet und führen die Übungen durch um erste, eigene, Erfahrungen mit der SAP Datasphere zu sammeln.

Inhaltlich werden wir uns dem Thema Data Modeling, unter Zuhilfenahme des Data Layers und des Analytical Model, sowie dem Thema Data Governance, unter Zuhilfenahme des Data Catalog, widmen.

Sebastian Wiefett ist Data Management Expert für SAP Data Warehousing mit Hauptexpertise für die Produkte SAP Business Warehouse (SAP BW/4HANA) und SAP Datasphere. Sebastian ist spezialisiert auf SAP BW/4HANA, SAP Datasphere sowie moderne Analytics Architekturen auf den verschiedenen Hyperscalern.
Bevor Sebastian Wiefett im Jahre 2020 in das deutsche Customer Advisory Team wechselte, war er zwölf Jahre in der SAP-Beratung tätig, wo es Teil seiner Aufgabe war, BW basierte Datawarehousing Architekturen zu implementieren.

Gordon Witzel startete im Jahr 2007 bei der SAP als BW-Berater. Hier unterstütze er internationale Kunden bei der Architektur und Implementierungen von SAP BW und SAP BWA.
2015 wechselte er in das SAP Data Warehouse Produktmanagement der SAP SE und hat hier basierend auf Anforderungen der Kunden mit der Entwicklung neue Features definiert, priorisiert und zur Umsetzung gebracht. Bei diversen nationalen und internationalen Events präsentiert Gordon zu den Themen SAP BW und SAP Data Warehouse Cloud und stellt die SAP Data Warehouse Produkte in Hands-On Workshops vor.
Weiterhin unterstütze er bei Definition der SAP Data Warehouse Strategie und begleitete die erfolgreiche Einführung der SAP BW bridge als Teil der SAP Data Warehouse Cloud im Jahr 2021. Seit 2022 ist Gordon Principal Presales Expert für das Data Warehouse Portfolio der SAP.

Sebastian Wiefett, Gordon Witzel
F130
Sebastian Wiefett, Gordon Witzel
F130
Vortrag: SDmi2
flag VORTRAG MERKEN

Vortrag Teilen

09:30 - 10:00
SDmi1.2
Special Day INFOMOTION │ Pillars for building & activating a modern data strategy
Special Day INFOMOTION │ Pillars for building & activating a modern data strategy

In an ideal world, every data user at a company has timely access to the data and insights they need, in the format they need, using tools that they are familiar with.
This presentation covers the three key factors to consider when you establish your data strategy (the “3 E’s”)

  • Data Experiences:
    Productive user experiences enabling all users to access and create value from relevant data
  • Data Economy:
    Principles and practices to ensure that data can be published, discovered, built on, and relied on
  • Data Ecosystem:
    A unified, open and intelligent platform with end-to-end data capabilities for all users and needs

In the second Part, we will show you how to activate your data strategy in real world scenarios.

Target Audience: Whoever loves Data!

Dinesh Sandra, Christine Schulze
F129
Dinesh Sandra, Christine Schulze
F129
Vortrag: SDmi1.2
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:30
Pause
Kaffee & Ausstellung / Coffee & Exhibition
Kaffee & Ausstellung / Coffee & Exhibition

10:30 - 11:15
Mi 1.2
SPOT-Ansatz durch Datenvirtualisierung in einer Förderbank
SPOT-Ansatz durch Datenvirtualisierung in einer Förderbank

Mit der Weiterentwicklung zu einem eigenständigen Kreditinstitut stand die Investitionsbank Sachsen-Anhalt vor der Anforderung, ein bankenaufsichtsrechtlich konformes Datenmanagement zu bauen. In diesem Fachbeitrag werden die folgenden Punkte näher beleuchtet:  

  • Überblick über die Anforderungen an das Datenmanagement in Banken
  • Exkurs: Was ist eine Förderbank / Verselbstständigung der IB-LSA?
  • Motivation hinsichtlich des Einsatzes von Datenvirtualisierung
  • Konzept und Architektur des Ansatzes
  • Nutzen und Potenziale der geschaffenen Lösung

Zielpublikum: Projektmanager:innen, Entscheider:innen, Datenarchitekt:innen ..., die an Datenvirtualisierungs-Use-Cases interessiert sind
Voraussetzungen: Grundsätzliches Verständnis von Datenbanken
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die Investitionsbank Sachsen-Anhalt (IB-LSA) wurde zum 01.03.2023 von einem Geschäftsbereich der Norddeutschen Landesbank (Nord/LB) zu einem eigenständigen Kreditinstitut mit eigener Banklizenz weiterentwickelt, was u. a. ein aufsichtsrechtlich konformes Datenmanagement erfordert. In dem dazu aufgesetzten Projekt hat sich die IB-LSA für einen auf einer Datenvirtualisierungs-Software basierenden Single Point of Truth (SPOT) für das Weiterverarbeiten von Daten entschieden. In diesem Vortrag wird beschrieben, wie mithilfe dieses Ansatzes eine Datenzentrale sowohl für die Datenversorgung von Statistiken und Datenauswertungen als auch für den Datenaustausch zwischen den einzelnen bankfachlichen Anwendungen unter Einhaltung der aufsichtsrechtlichen Vorgaben für das Datenmanagement in Banken geschaffen wurde.

Nach seinem Informatikstudium an der Otto-von-Guericke-Universität mit
Schwerpunkt Datenbanken und einer sich anschließenden zweijährigen Tätigkeit als wissenschaftlicher Mitarbeiter wechselte Andreas Christiansen 1998 in die Investitionsbank Sachsen-Anhalt. Dort leitete er bis 2021 den IT-Bereich und leitete in jüngster Vergangenheit 2 Teilprojekte im Rahmen der Verselbständigung der Investitionsbank Sachsen-Anhalt.

Andreas Christiansen
K4
Andreas Christiansen
K4
Vortrag: Mi 1.2
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 11:15
Mi 2.2
The Need for Modern Data Architectures (e. g. Data Mesh)
The Need for Modern Data Architectures (e. g. Data Mesh)

The definition of a well-designed, stable & scalable data architecture has changed due to the increasing complexity & volume of a modern system landscape. To keep up with the latest technology, this session will provide an overview of the components of a modern data architecture. By outlining the benefits of a well-designed & structured data architecture, this session will provide clear guidelines for the current data management challenges in the area of technology, processes & organization.

Target Audience: Decision Maker, CTO, CIO, Head of BI, Data Engineer, IT
Prerequisites: Basic knowledge in technical architecture & data management
Level: Basic

Extended Abstract:
The goal of a modern data architecture is to provide organizations with the ability to effectively manage and utilize their data in a manner that supports their business goals and objectives. This session will focus on two arising modern data architectures: Data Mesh & Data Fabric.

Data Mesh is a decentralized approach to data management that focuses on empowering teams to own and manage their own data. In a data mesh architecture, data is managed by a set of microservices, each of which is responsible for a specific set of data. This approach allows teams to work with their data in a more flexible and autonomous manner, while still maintaining a high level of data governance and security.

Data Fabric refers to a unified data architecture that enables data to be accessible and usable across different systems, applications, and teams. It is a flexible and scalable solution that helps to overcome data silos and enables a single view of data across an organization. A data fabric is designed to adapt to changing data needs over time and to provide a seamless solution for data management and processing.

In my current position as the Head of Data Intelligence at Camelot, I serve as a Managing Consultant and Architect, guiding clients in the selection of optimal data management tools for their modern data architectures. My focus extends to realizing the principles of data mesh across organizational, process, and technological dimensions. I am committed to delivering comprehensive solutions and ensuring that organizations harness the full potential of their data assets. I have cultivated expertise in data integration platforms, including SAP Datasphere, Informatica Intelligent Data Management Cloud (IDMC), and Denodo.

Marcel Oenning
F111
Marcel Oenning
F111
Vortrag: Mi 2.2
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 12:10
Mi 3.2
Text Analytics mit Python und PowerBI
Text Analytics mit Python und PowerBI

Die systematische Nutzung von Freitexten bietet ein großes Potenzial für die Gewinnung neuer Erkenntnisse oder die Automatisierung von Prozessen, das Unternehmen verstärkt nutzen wollen. Der Workshop soll Datenanalysten den Einstieg in das Thema Text Analytics erleichtern. Anhang konkreter Anwendungsbeispiele werden die nötigen Schritte und aktuelle Analyse- und maschinelle Lernverfahren erläutert. Für die Datenvorbereitung und das Mining wird dabei Python genutzt, die Auswertung und Visualisierung der Ergebnisse erfolgt mit PowerBI.

Benötigt wird ein Laptop. 
Zum Mitmachen sollten Python (Anaconda + zusätzlich spaCy) sowie PowerBI auf dem Laptop installiert sein

Zielpublikum: Data Engineers, Data Analysts, Projektleiter:innen
Voraussetzungen: Grundlegendes Verständnis von Data Mining bzw. Machine Learning sowie elementare Programmierkenntnisse (nicht notwendigerweise in Python) werden vorausgesetzt. 
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Die analytische Erschließung von Texten ist für viele Unternehmen der erste Schritt in die Welt unstrukturierter Daten. Die Anwendungsgebiete sind vielfältig und reichen von der Auswertung von Kunden-Kommunikation für Marketing-Zwecke bis zum automatisierten Routing von Dokumenten oder der Priorisierung von Service-Requests.

Im Workshop wird anhand von Fallballspielen durchgespielt, wie ausgehend von einer Fragestellung ein Modell erstellt, evaluiert und visualisiert werden kann. Dabei wird gezeigt,
- wie Datenvorbereitung mit modernen NLP-Bibliotheken wie spaCy funktioniert
- wie sich schnell und elegant statistische Analysen auf den aufbereiteten Daten in Python und PowerBI umsetzen lassen
- wie aus Texten Feature-Vektoren erzeugt werden
- wie mit maschinellen Lernverfahren Texte klassifiziert und gruppiert werden können
- wie die Stärken und Schwächen der Modelle mit PowerBI transparent gemacht werden können
- wie Anwender selbst mit den Ergebnissen in PowerBI arbeiten können.
 

Prof. Dr. Jens Albrecht beschäftigt sich an der TH Nürnberg mit den Themengebieten Data Analytics und Natural Language Processing. Er ist Co-Autor des Buchs 'Blueprints for Text Analytics Using Python', das bei O'Reilly erschienen ist. Neben seiner Hochschultätigkeit ist er in der Industrie als Trainier, Data Scientist und Data Architect engagiert.

Prof. Dr. Roland Zimmermann ist ein Architekt für die Entwicklung anspruchsvoller IT-Systeme im Bereich Datenanalyse. Seine Lösungen umfassen die Definition von Indikatoren auf Basis von Erfolgsfaktoren, das Management von Daten (Analyse von Quellen, Integrationskonzepte, Automatisierungslösungen), die Konzeption integrierter Analytiklösungen (Multidimensionale Analysen, Process Mining und KI-gestütztes Maschinelles Lernen) sowie die Präsentation von Ergebnissen (Informationsdesign, Interaktionskonzepte, UI/UX).

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei:  https://www.sigs.de/autor/roland.zimmermann

Jens Albrecht, Roland Zimmermann
E124
Jens Albrecht, Roland Zimmermann
E124
Vortrag: Mi 3.2
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 11:15
Mi 4.2
Was ist Self-Service Analytics? Eine analoge Erklärung.
Was ist Self-Service Analytics? Eine analoge Erklärung.

Was hat Self-Service BI mit der Führerscheinprüfung zu tun?
Self-Service BI und Analytics wird oft selbstverständlich gelebt, ist aber nicht einfach abzugrenzen und zu erklären. In dieser Session nähere ich mich einer Erklärung anhand von Beispielen aus dem realen Leben (z. B. Straßenverkehr) und ordne dabei plakativ die einzelnen Komponenten wie Data Literacy, Datenkultur und Self-Service Governance ein. Dieser Schritt hilft bei der Prüfung und Einordnung von Thesen zum Thema Self-Service & Analytics.

Zielpublikum: Alle, die sich für Daten interessieren
Voraussetzungen: Ein paar Buzzwords zu kennen hilft
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Beispiele aus dem realen Leben (z. B. Straßenverkehr) helfen dabei, die einzelnen Komponenten wie Data Literacy, Datenkultur und Self-Service Governance plakativ einzuordnen. Dieser Schritt hilft bei der Prüfung von Thesen zum Thema Self-Service & Analytics, um sich dem Thema ganzheitlich zu nähern.
Dies ist insofern wichtig, weil Self-Service oft unterschiedlich verstanden und erlebt wird - Erklärungen sind immer wieder notwendig und sinnvoll, um die Erwartungshaltung in der Breite einzufangen.

Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe. 
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld. 

Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.

Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.

Artur König
E119
Artur König
E119
Vortrag: Mi 4.2
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 11:15
Mi 5.2
Bessere Stammdatenqualität durch Machine Learning
Bessere Stammdatenqualität durch Machine Learning

Duplikaterkennung in Stammdaten ist essenziell für alle Geschäftsberichte und -analysen. Klassische Methoden erfordern die manuelle, datenspezifische und zeitintensive Formulierung von Regeln und Ähnlichkeitsmaßen. Machine Learning-Methoden hingegen sind in der Lage, Muster und Regeln automatisch abzuleiten, um Duplikate zu erkennen und die Datenqualität in den Stammdaten zu erhöhen. In diesem Beitrag wird gezeigt, wie eine bestehende Master Data Management Software um individuelle und austauschbare ML-Methoden erweitert werden kann.

Zielpublikum: Data Engineers, ETL/DWH-Entwickler:innen, Enterprise Architects, Entscheider:innen
Voraussetzungen: Grundlagen Datenmanagement, Datenintegration, Data Governance und Machine Learning
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Stammdaten bilden die Grundlage für essenzielle Geschäftsprozesse oder betrieblich relevante Aufgaben in Unternehmen. In diesen Situationen verfälscht ein mehrfaches Vorhandensein identischer Datenobjekte jedoch das gewünschte Ergebnis. Mit Master Data Management-Systemen lassen sich die Datenmodellierung und daraus folgende Datenqualitätskriterien schnell und spezifisch definieren. Durch die Kombination verschiedener Funktionen (z. B. Datenmodellierung, Workflow-Engine, konfigurierbare User-Interfaces etc.) sind sie der zentrale Knoten für die Erzeugung einer 360°-Sicht auf die geschäftskritischen Daten.

Viele dieser Systeme bieten zwar die Möglichkeit, eine Funktion zum Matching (Duplikaterkennung ohne gemeinsamen Primärschlüssel) auf Basis von Zeichenkettenvergleichen umzusetzen, jedoch ist diese Vorgehensweise von der Konfiguration und auch von den zu vergleichenden Daten abhängig. Bei einer Änderung der Daten muss auch die Erkennung überarbeitet werden. Damit die Datenqualität jedoch weiterhin hoch bleibt und die Prozesse zuverlässig ausgeführt werden können, müssen unerwünschte Duplikate effektiv erkannt werden - unabhängig vom Datenkontext. Insbesondere bei komplexen Datensätzen oder Matching-Problemen (z. B. Erkennung von Duplikaten in unterschiedlichen Sprachen) können klassische Verfahren (z. B. basierend auf Levenshtein-Distanzen) nur unzureichende Ergebnisse liefern.

In diesem Beitrag wird gezeigt, wie Machine Learning-Algorithmen in diesen Fällen das Matching von Datensätzen übernehmen können. Es wird gezeigt, wie neuronale Netze in den Matching-Ablauf der Software integriert werden können und komplexe Matching-Situationen auflösen können. In einer Demo soll der Ablauf eines prototypischen Szenarios exemplarisch in einem MDM-System gezeigt werden.

Stammdaten nehmen in praktisch allen Einsatzzwecken eine zentrale Rolle ein. Sie bilden die Grundlage für viele Datenanwendungen in Unternehmen (z. B. in Analytics, DWH-Anwendungen und Operative Systeme). In Summe führt eine verbesserte Stammdatenqualität direkt zu besseren Berichten und damit auch zu besseren Entscheidungen in Unternehmen.

Igor Shmelev ist Software-Engineer bei der PRODATO Retail Solutions GmbH und absolviert sein Masterstudium in Informatik an der FAU Erlangen-Nürnberg. Sein Anwendungsgebiet ist die Full-Stack-Entwicklung mit C# und Data Governance mit besonderem Fokus auf Datenqualität.

Melanie B. Sigl ist Managing Consultant und leitet den Bereich Machine Learning bei PRODATO Integration Technology GmbH. Zusätzlich ist sie Lehrbeauftragte für 'Knowledge Discovery in Databases' am Lehrstuhl für Datenmanagement an der FAU Erlangen-Nürnberg.

Igor Shmelev, Melanie B. Sigl
K3
Igor Shmelev, Melanie B. Sigl
K3
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 11:15
Mi 6.2
In 3 ungeahnten Schritten zur datenkompetenten Organisation
In 3 ungeahnten Schritten zur datenkompetenten Organisation

Wie datenkompetent ist ein Unternehmen, wenn ein Großteil datenintensiver Aufgaben in Excel zurechtgeschustert wird? Wie geht man mit plötzlichen Abweichungen und Fehlern in Auswertungen und Dashboards um? Was ist, wenn man die eigentliche Arbeit vor lauter Datenverwaltung nicht mehr schafft? Solche Fragen werden entweder nicht gestellt oder bleiben zu lange unbeantwortet. Erfahren Sie, wie Unternehmen mithilfe der NewDataWork-Prinzipien lernen können, organisatorische und individuelle Datenkompetenzen schrittweise auf ein neues Level zu heben.

Zielpublikum: Angestellte und Führungskräfte in datenintensiven Organisationseinheiten, Excel-Fans und die, die es mal waren oder werden wollten
Voraussetzungen: Begegnungen mit oder Angst vor monströsen Excel-Dateien und manuellen wiederkehrenden Copy-Paste-Reportings
Schwierigkeitsgrad: Einsteiger

Andrea Weichand ist Autorin des Buchs 'Agile Datenkompetenz: Reporting-Prozesse mit und ohne Excel gestalten'. Als ehemalige Controllerin und aktive Business-Intelligence-Expertin unterstützt sie seit 2007 Unternehmen und Einzelpersonen dabei, Datenprodukte und Datenstrategien umzusetzen. Aus diesen Erfahrungen hat sie die NewDataWork-Prinzipien abgeleitet und aufgeschrieben, die neben technischen auch auf kreative und agile Veränderungen abzielen.

Andrea Weichand
E101/102
Andrea Weichand
E101/102
Vortrag: Mi 6.2
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 11:15
Mi 7.2
Limitiert Einführung in ein grafisches Analysewerkzeug
Einführung in ein grafisches Analysewerkzeug

Diese Session erarbeitet Auswahlkriterien von Algorithmen und überträgt die Umsetzung in das Werkzeug RapidMiner. Natürlich ist dies nur ein Werkzeug unter vielen, jedoch soll es den Teilnehmern einen Eindruck vermitteln, wie in Projekten mit großen Datenbeständen und entsprechenden Analyseanforderungen werkzeugunterstützt gearbeitet wird.

Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:  
Rapidminer rapidminer.com (falls Sie kein Rapidminer Account anlegen möchten, suchen Sie bitte im Web nach der Version 5 und installieren Sie diese nach Download auf Ihrem Rechner)

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/carsten.felden

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt. 

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/claudia_koschtial

Carsten Felden, Claudia Koschtial
F127
Carsten Felden, Claudia Koschtial
F127
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 11:15
Mi 8.2
DWH Automation Challenge: DWH for Willibald on datavaultbuilder
DWH Automation Challenge: DWH for Willibald on datavaultbuilder

With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with datavaultbuilder. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald has been explained by DDVUG in session 1 previous lecture.

Prerequisites: Basic Data Warehouse Knowledge
Level: Basic

Extended Abstract:
The fictitious company Willibald has asked Datavault Builder to perform a POC for their new DWH. For this purpose, it has defined 13 typical challenges to be solved. In this talk we will present how the task was solved in Datavault Builder. For this, we agilely create a business model, which is automatically converted into working code. We load and analyse data, present the created documentation and data lineage and give an outlook on how the solution can be rolled out and operated.
About Datavault Builder
Datavault Builder is the award-winning business-driven data warehouse automation solution that allows you to trust your data and trust your decisions.
It is an efficient visual data integration solution replacing up to nine different software tools. Datavault Builder leverages standardization and cooperation between business and IT people as the key to success.
Increase productivity and benefit from the fastest possible time-to-insights without compromising on full auditability.

Petr Beles verfügt über fundierte Erfahrungen in Data-Warehouse-Projekten in den Bereichen Telekommunikation, Finanzen und Industrie. Seit mehreren Jahren führt er als Senior Consultant erfolgreich Projekte mit Data Vault durch. Nachdem er den Bedarf an Automatisierung mit Data Vault erkannt hatte, begann er zusammen mit seinen Kollegen mit der Entwicklung eines Automatisierungstools, das in der Erstellung des Datavault Builders gipfelte. Petr Beles ist heute CEO der 2150 Datavault Builder AG.
----
Petr Beles (Data-Vault-Specialist, Senior Consultant) has profound experience in data warehouse projects in the telecommunications, financial and industrial sectors. For several years he has been successfully implementing projects with Data Vault and trains teams in the application of this data modelling technique.

Petr Beles
F106
Petr Beles
F106
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 11:15
SDmi1.3
Special Day INFOMOTION │ Der Wert einer Business Data Fabric im SAP Umfeld: SAP Datasphere
Special Day INFOMOTION │ Der Wert einer Business Data Fabric im SAP Umfeld: SAP Datasphere

Es werden die Kerncapabilities und Architektur von SAP Datasphere vorgestellt. Dabei wird auch insbesondere auf Real World Beispiele eingegangen.

Voraussetzungen: Grundlegende Konzepte des Data Warehousing und Data Fabric sind bekannt
Schwierigkeitsgrad: All Level
 

Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. Im Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Matthias Stemmler das Technologie Presales Team der SAP Deutschland SE. Ab April 2016 war er in der Rolle des „Platform Architect“ tätig und unterstützte die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) beim Scoping, der Auswahl sowie Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.
Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.

Matthias Stemmler
F129
Matthias Stemmler
F129
Vortrag: SDmi1.3
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 12:10
SDmi3.1
Special Workshop dataspot. │ Teil 1: How to make a Datenlandkarte?
Special Workshop dataspot. │ Teil 1: How to make a Datenlandkarte?

Um Daten im Unternehmen nutzbar zu machen und unter Governance zu bringen, müssen diese beschrieben und katalogisiert sein - und das aus fachlicher Sicht, die übergreifend über die gesamte Systemlandschaft gültig ist. Doch wie fängt man an? ... mit einer Datenlandkarte! 
In diesem Workshop modellieren wir live gemeinsam eine Datenlandkarte anhand eines Use Cases, den gerne eine:r der Teilnehmer:innen einbringen darf. 

Outline:

  • Was ist eine Datenlandkarte?
  • Nutzen einer fachlichen Unternehmens-Datenlandkarte
  • Live-Use Case - Modellierung Datenlandkarte
  • Überführung der Datenlandkarte in die fachliche Datenarchitektur

Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach. 

Tobias Tschipan ist Business Consultant bei dataspot. Schon während des Studiums beschäftigte er sich ausführlich mit Daten und deren Einfluss auf strategische Entscheidungen. Aktuell setzt er sich im Projektgeschäft mit Fragestellungen an der Schnittstelle zwischen Fachbereich und Technik auseinander und erarbeitet kundenindividuelle Lösungen. Seine Erfahrungen kommen dabei im gesamten Lebenszyklus von Metadaten und Data Governance zur Geltung, wobei sein Schwerpunkt auf Data Governance Organisation, Metadatenmanagement und Datenmodellierung liegt.

Barbara Kainz, Tobias Tschipan
E105
Barbara Kainz, Tobias Tschipan
E105
Vortrag: SDmi3.1
flag VORTRAG MERKEN

Vortrag Teilen

11:25 - 12:10
Mi 1.3
Kunden verstehen & erreichen durch Data Analytics
Kunden verstehen & erreichen durch Data Analytics

Die Sparkassen-Finanzgruppe verfügt über mehrjährige Erfahrungen und Erkenntnisse zur Entwicklung und dem produktiven Betrieb von ML-Algorithmen. Insbesondere die Nutzung von datengetriebenen Banking-Anwendungen im Vertriebsumfeld hilft Sparkassen bei der Kundenzentrierung und Automatisierung. Als Digitalisierungspartner betreibt die Finanz Informatik die entwickelten analytischen Anwendungen in Ihrer Finanzplattform „OSPlus“ und sorgt für eine Skalierung bei über 300 Sparkassen. Einen Einblick zur Entwicklung und Bereitstellung von analytischen Anwendungen für die 50 Mio. Kunden und Umsetzung einer kundenzentrierte Vertriebsstrategie sowie der Weiterentwicklung werden vorgestellt.

Zielpublikum: Produktmanager:innen, Projektmanager:innen, Prozess-Owner, Daten-Architekt:innen
Voraussetzungen: Basiswissen zu Datenarchitekturen und Enterprise-Anforderungen
Schwierigkeitsgrad: Fortgeschritten 

Malte Lange ist ein innovativer und ergebnisorientierter Experte für Datenanalyse mit nachgewiesener Erfolgsbilanz bei der strategischen Implementierung von Process Mining und der Entwicklung einer Marketingautomatisierungslösung. Technischer Architekt einer Datenanalyse- und KI-Plattform für über 350 Sparkassen, spezialisiert auf Business Development und Use-Case-Enablement. Karriereentwicklung vom Datenbankexperten zum Analytics-Enabler, gekennzeichnet durch Innovation, strategisches Denken und effektive Teamführung.

Malte Lange
K4
Malte Lange
K4
Vortrag: Mi 1.3
flag VORTRAG MERKEN

Vortrag Teilen

11:25 - 12:10
Mi 2.3
Data mesh patterns make life easier
Data mesh patterns make life easier

Data mesh is an outstanding approach to build and manage modern data management solutions, but it is hard to implement practically without using implementation patterns. Certainly, data mesh is fundamentally an organizational approach, but experience has shown that democratization also results in losses in the technical governance of such solutions. In this talk, we will show how implementation patterns can be used to keep the data mesh under control without limiting the flexibility of the individual data products.

Target Audience: Data Engineer, Project Leader, Decision Makers, CDO, Product Owner
Prerequisites: Basic knowledge, experience in DWH, Data Lake, Lakehouse concepts
Level: Basic

Gregor Zeiler has been working in various functions in business intelligence consulting for thirty years. In the course of his professional activities, he has gained extensive project experience in many industries and on the basis of a wide range of technologies. Numerous publications and lectures accompany his professional activities. As CEO at biGENIUS AG, he pursues his passion for optimizing processes in the development of data analytics solutions.

Daniel Zimmermann is Product Owner for the Generator part of biGENIUS. He started his career as an ERP Consultant and Developer, and after 10 years switched to the Business Intelligence field for the past 15 years. In his current role, he uses his expertise from multiple BI projects across different industries, to design and program the blueprints that are used to automate the creation of Data Warehouse solution with a Metadata driven approach. 

Gregor Zeiler, Daniel Zimmermann
F111
Gregor Zeiler, Daniel Zimmermann
F111
Vortrag: Mi 2.3
flag VORTRAG MERKEN

Vortrag Teilen

11:25 - 12:10
Mi 4.3
Self-Service und Reporting Community bei Peri
Self-Service und Reporting Community bei Peri

Die PERI SE hat in den letzten Jahren eine weltweite interne Community im Bereich Reporting etabliert, im Rahmen dessen zahlreiche Self-Service-Datenprodukte (Power BI) parallel zu den Standardreports (Power BI / SAP) entstanden sind. Im Rahmen der Session wird die Gesamtarchitektur vorgestellt, die Rolle des BI-Bereichs als zentrale Kompetenz- und Steuerungseinheit, aber auch das Zusammenspiel mit der internationalen Community und Endanwendern.

Zielpublikum: Entscheider:innen, BI-Verantwortliche
Voraussetzungen: Grundwissen im Bereich Daten ist von Vorteil
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Im Rahmen der Session wird die Gesamtarchitektur vorgestellt, die Rolle des BI-Bereichs als zentrale Kompetenz- und Steuerungseinheit, aber auch das Zusammenspiel mit der internationalen Community und Endanwendern.

Bernd Rehm beschäftigt sich seit seinem Wirtschaftinformatik-Studiums Ende 2014 mit BI und arbeitet heute als BI-Spezialist bei PERI SE. In der Abteilung Business & Process Intelligence befasst er sich insbesondere mit Themen aus den Bereichen Reporting, Planung und Self Service.

Simon Stützle arbeitet seit Ende 2019 als BI Business Partner bei der PERI SE. Immer mit Blick auf Daten und Reporting mit dem Ziel, der User Community von ca. 4.000 aktiven Reportnutzern die beste User Experience bieten zu können.

Mathias Prähofer arbeitet seit Ende 2015 in verschiedenen Funktionen bei der PERI SE. Immer mit Blick auf Daten und Reporting mit dem Ziel, der User Community von ca. 4.000 aktiven Reportnutzern die beste User Experience bieten zu können.

Bernd Rehm, Simon Stützle, Mathias Prähofer
E119
Bernd Rehm, Simon Stützle, Mathias Prähofer
E119
Vortrag: Mi 4.3
flag VORTRAG MERKEN

Vortrag Teilen

11:25 - 12:10
Mi 5.3
Governing Data Sharing Using an Enterprise Data Marketplace
Governing Data Sharing Using an Enterprise Data Marketplace

This session looks at how companies can use a data marketplace to share data (and analytical) products in a data mesh and to govern the sharing of data across the enterprise.

Target Audience: Chief Data Officers, Data Governance Directors, Data Engineers, Data Security Officers
Prerequisites: Basic understanding of data governance
Level: Basic

Extended Abstract:
Most firms today want to create a high quality, compliant data foundation to support multiple analytical workloads. A rapidly emerging approach to building this is to create DataOps pipelines that produce reusable data products in a data mesh. However, there needs to be somewhere where these data products can be made available so data to be shared. The solution is a data marketplace where ready-made, high quality data products that can be published for others to consume and use. This session looks at what a data marketplace is, how to build one and how you can use it to govern data sharing across the enterprise and beyond. It also looks at what is needed to operate a data marketplace and the trend to become a marketplace for both data and analytical products.

  • The need for a high-quality data foundation to support decision making
  • Incrementally building a data foundation using DataOps pipelines to product Data Products
  • Using an enterprise data marketplace to share data
  • What is the difference between a data catalogue and a data marketplace?
  • Challenges in establishing a data marketplace
  • What processes are needed to operate a data marketplace?
  • Governing the sharing of data using a data marketplace
  • Trends - publishing analytical products in a marketplace
  • Progressively shortening time to value using a marketplace

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

Mike Ferguson
K3
Mike Ferguson
K3
flag VORTRAG MERKEN

Vortrag Teilen

11:25 - 12:10
Mi 6.3
Technical Debts – der langsame Tod für jedes Data Warehouse
Technical Debts – der langsame Tod für jedes Data Warehouse

Bei der Entwicklung von IT-Systemen, so auch Data Warehouses und analytische Applikationen, kommt es zu unerwünschten Nebeneffekten. Neben Fehlern gibt es Abweichungen von Architektur-Vorgaben oder Design Patterns, die als technische Schuld (Technical Debt) bezeichnet werden. Im Gegensatz zu Fehlern läuft das System zwar korrekt, jedoch hat es Auswirkungen auf die Weiterentwicklung und den Betrieb (Kosten, Zeit, Incidents etc.).
Typische Gruppen von Technical Debts werden kurz erklärt, was deren Auswirkungen sind und wie sie diese vermeiden können.

Zielpublikum: Architekt:innen, Projektleiter:innen, Entscheider:innen, Entwickler:innen
Voraussetzungen: Grundlagen in Data Warehousing oder analytischen Infrastrukturen
Schwierigkeitsgrad: Einsteiger

Herbert Stauffer, TDWI Fellow, hat über 30 Jahre Erfahrung in Business Intelligence und Analytics, als Projektleiter, Hochschuldozent und Berater. Seine Schwerpunkte sind Strategie und Architektur sowie Governance und Methodik. Er ist Hauptautor des Buches 'Testen von Data-Warehouse- und Business-Intelligence-Systemen' und Autor des Buches 'Security für DWH- und BI-Systeme'. Er ist Leiter des TDWI-Roundtables in Zürich seit 2009.

Herbert Stauffer
E101/102
Herbert Stauffer
E101/102
Vortrag: Mi 6.3
flag VORTRAG MERKEN

Vortrag Teilen

11:25 - 12:10
Mi 7.3
Limitiert Einführung in die Programmiersprache R
Einführung in die Programmiersprache R

Diese Session beschäftigt sich mit dem Werkzeugunterstützungsgedanken mittels der Sprache R. Die in diesem Umfeld prominent genannte Sprache ist für statistische Berechnungen und Grafiken geschaffen worden. In der Session werden ausgewählte kleine Beispiele im Werkzeug umgesetzt.

Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
RStudio DESKTOP www.rstudio.com/products/rstudio/ (berücksichtigen Sie bitte, dass RStudio die zusätzliche Installation der R-Bibliotheken während der Schulung verlangt, z. B. von cran.r-project.org/mirrors.html)

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger
 

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/carsten.felden

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt. 

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/claudia_koschtial

Carsten Felden, Claudia Koschtial
F127
Carsten Felden, Claudia Koschtial
F127
flag VORTRAG MERKEN

Vortrag Teilen

11:25 - 12:10
Mi 8.3
DWH Automation Challenge: DWH for Willibald on dbt
DWH Automation Challenge: DWH for Willibald on dbt

With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with the open source software dbt. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald will be explained by DDVUG in a previous lecture.

Prerequisites: Basic Data Warehouse Knowledge
Level: Basic

Extended Abstract:
For the fictitious company Willibald, a complete data model with data is available that was created by DDVUG and provided with 13 typical challenges. In this presentation, a possible solution using dbt, datavault4dbt and our own extensions will be shown and combined into a complete data warehouse. This will give you an overall impression and the possibility to get your own comprehensive impression of the tool. 
 Dbt (data build tool) is a development framework that enables teams to build, test and deploy analytics solutions faster. It can be used to create a unified development environment for all data engineering and data analyst teams. Scalefree's open-source Datavault4dbt package extends dbt with dbt macros to build a Data Vault 2.0 compliant data warehouse.  
In some places, we have supplemented this setup with self-developed macros. We have chosen Snowflake as the target platform, but other databases would also be possible for this setup, in part with a certain amount of adaptation. 
In our view, the use of a data governance tool is highly recommended for the development of a data warehouse that can be maintained in the long term.  
For this reason, we have extended our approach with an adapter to a graphical data governance tool to enable an almost completely automatic construction of the raw vault based on the centrally maintained metadata.

Andreas Haas has been working as a consultant in the business intelligence sector for over 20 years. During this time, he has successfully implemented data warehouse projects in various industries, mainly in the roles of data warehouse architect, data engineer and in project management. As a certified Data Vault 2.0 Practitioner, large metadata-driven Data Vault implementations are the main focus of his work.

Jan Binge has gained over 25 years of experience in the field of IT, out of which he has spent more than a decade as a freelance consultant specializing in "data warehouse design". Following his certification as a Datavault Practitioner in 2014, he has directed his attention towards modeling and developing data warehouse systems while also emphasizing the automation of creation processes.

Andreas Haas, Jan Binge
F106
Andreas Haas, Jan Binge
F106
flag VORTRAG MERKEN

Vortrag Teilen

11:25 - 12:10
SDmi1.4
Special Day INFOMOTION │ Platz für Innovationen: Freiräume schaffen durch Effizienzsteigerung in Datenprozessen
Special Day INFOMOTION │ Platz für Innovationen: Freiräume schaffen durch Effizienzsteigerung in Datenprozessen

In diesem Vortrag geht es um das Zusammenspiel von Value und Efficiency im Kontext von Daten und deren Bedeutung für Unternehmen mit begrenzten Ressourcen. Wir werden diskutieren, warum es wichtig ist, effiziente Prozesse zu schaffen, um Raum für Innovationen und Fortschritt zu schaffen, insbesondere im Datenbereich. Dabei werden konkrete Ansätze zur Effizienzsteigerung in den Datenprozessen vorgestellt und erläutert, wie diese dazu beitragen können, die Data Performance trotz Ressourcenbeschränkungen zu optimieren.

Kay Kasperkowitz, Kim Stange
F129
Kay Kasperkowitz, Kim Stange
F129
Vortrag: SDmi1.4
flag VORTRAG MERKEN

Vortrag Teilen

12:20 - 13:05
KeyMi
KEYNOTE: A gleam of hope in a challenging world
KEYNOTE: A gleam of hope in a challenging world

Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/klausdieter.schulze

A COVID19-pandemic and the resulting lockdowns with a global recession, an accelerating climate change and the Russian war in the Ukraine causing a high inflation are only some major challenges why decisions, forecast and predictions are getting more difficult for companies and for government. As a community of experts, it is our obligation to find the right solutions and meet the high expectations that we have set for ourselves.
Let’s face the facts! Even after all the trends and hypes we have seen and the impressive technology development in the last years, we haven’t solved the problem yet. We are still struggling with our promises to bring the right data to the right people at the right time or to make data the new oil of the 21st century.

Despite these challenges, there are promising trends such as data culture, data Mesh, decision intelligence, and generative AI that can be leveraged to increase the value of data. This presentation will highlight these trends and it will encourage to rethink the focus in data & analytics initiatives. Business potential beyond descriptive analytics with internal, structured data in batch processing, a realistic picture of the user in a self service world or the adaption of our data focused language to find a better acceptance on a C-level are some of the topics that will be addressed.

Let us work together to elevate the data & analytics market to the next level of maturity.

Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Juli 2022 ist er Geschäftsführer bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/klausdieter.schulze

Klaus-Dieter Schulze
Keynote Area
Klaus-Dieter Schulze
Keynote Area
Track: #Keynote
Vortrag: KeyMi
flag VORTRAG MERKEN

Vortrag Teilen

13:05 - 14:35
Pause
Mittagessen & Ausstellung / Lunch & Exhibition
Mittagessen & Ausstellung / Lunch & Exhibition

13:55 - 14:25
CSmi1
Case Study APARAVI │ Einfach mal aufräumen: Wie Dark Data vom Risikofaktor zum Wettbewerbs- und Sicherheitsvorteil für die Finanzbranche wird
Case Study APARAVI │ Einfach mal aufräumen: Wie Dark Data vom Risikofaktor zum Wettbewerbs- und Sicherheitsvorteil für die Finanzbranche wird

Wer bei Dark Data instinktiv an Darth Vader denkt, liegt nicht verkehrt: Riesige Mengen an „bösen“ Daten lauern unerkannt seit Jahrzehnten in den dunklen Tiefen Ihres Daten-Imperiums – und es werden täglich mehr.
PDFs oder Fotos mit personenbezogenen Informationen, „Individualsoftware“ mit Excel-Makros, vertrauliche Präsentationen mit Provisionserträgen, Videos mit zweifelhaftem Inhalt oder die völlige Intransparenz auf dem Sharepoint-Server – die Liste an Daten-Risiken lässt sich beliebig verlängern. Egal, ob nun eine Migration in die Cloud ansteht oder Sie sich präventiv vor Data Breaches schützen wollen, Sie müssen den Risikofaktor Dark Data JETZT beseitigen, um Ihre Datenqualität dauerhaft zu verbessern!

In dieser Case Study erfahren Sie von Daten-Jedi-Großmeister und Co-CEO Gregor Bieler…

  • Warum Dark Data eine tickende Zeitbombe für Ihre Compliance- und Sicherheits-Richtlinien ist
  • Wie führende Finanzdienstleister schnell und mit wenig Personal Dark Data finden, analysieren und dauerhaft bereinigen
  • Und wie Sie dadurch Kosten sparen, weniger Energie verschwenden und meßbar Ihren CO2-Fußabdruck verringern
Gregor Bieler
F111
Gregor Bieler
F111
Vortrag: CSmi1
flag VORTRAG MERKEN

Vortrag Teilen

13:55 - 14:25
CSmi2
Case Study Snowflake │ IOT-Datawarehouse von Heidelberger Druckmaschinen
Case Study Snowflake │ IOT-Datawarehouse von Heidelberger Druckmaschinen

Die Heidelberger Druckmaschinen AG setzt als Markt- und Technologieführer in der Druckbranche ihren Schwerpunkt auf konsequente ›End-to-end‹-Digitalisierung der Kundenwertschöpfung, also vor allem auf integrierte und automatisierte Systemlösungen für Maschinen, Software, Verbrauchsgüter und Services.
Im Rahmen der digitalen Transformation wurde das IOT-Datawarehouse mit dem Ziel der zentralen Verarbeitung von Druckmaschinendaten und Bereitstellung von wichtigen Kennzahlen (KPI) ins Leben gerufen. Diese werden in Form von Reports und Apps dem Kunden direkt zur Verfügung gestellt.
Das IOT Datawarehouse Team setzt dabei auf die Datenplattform Snowflake.
Durch ein Zusammenspiel aus verschiedenen Technologien und Tools wie dbt core, Snowpipe, Snowpark, gitlab und der Unterstützung durch Experten von areto consulting konnte eine Lösung realisiert werden, die die Grundlage einer standortunabhängigen Optimierung der Druck- und Produktionsprozesse bildet.

Dr. Johanna Geiß ist seit 4 Jahren bei der Heidelberger Druckmaschinen AG tätig. Als Product Owner ist sie verantwortlich für die Bereitstellung, Weiterentwicklung und Koordination des IOT Data Warehouses, in dem Maschinen- und Produktionskennzahlen berechnet werden.
Zuvor arbeitete sie u.a. in der Database Systems Research Group der Universität Heidelberg und promovierte im Bereich Natural Language Processing an der University of Cambridge.

Dr. Florian Petersen arbeitet als Data Engineer/Scientist im Team IOT Datawarehouse bei der Heidelberger Druckmaschinen AG. Zuvor sammelte er Erfahrungen mit diversen Datenstrukturen/-banken und Verarbeitungsalgorithmen während seiner Tätigkeit an der Universität Kiel und seiner Promotion in Mariner Geophysik am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel.

Johanna Geiß, Florian Petersen
E119
Johanna Geiß, Florian Petersen
E119
Vortrag: CSmi2
flag VORTRAG MERKEN

Vortrag Teilen

13:55 - 14:25
CSmi3
Case Study btelligent/2150 Datavault Builder │ Containerbahnhöfe der DUSS – Business Intelligence, Abrechnungen, Pricing Simulationen und Planung
Case Study btelligent/2150 Datavault Builder │ Containerbahnhöfe der DUSS – Business Intelligence, Abrechnungen, Pricing Simulationen und Planung

Mehr als 70% aller Stückgüter werden derzeit weltweit per Container transportiert.
Im Zuge der CO2-Reduzierung ist das Ziel, möglichst viele Container auf der Schiene zu transportieren. Für die letzte Meile übernehmen dann LKWs den Transport.
Die Deutsche Umschlaggesellschaft Schiene-Straße (DUSS) mbH, eine DB-Tochter, betreibt 19 Containerterminals in Deutschland, um die Container auf die verschiedenen Verkehrswege um zu laden.
Für die Abrechnung, die Planung und die Simulation der Arbeiten an den Terminals wurden 2021 die Systeme neu konzipiert und umgesetzt und sind seit 2022 im produktiven Betrieb und von PWC zertifiziert.
Der Vortrag soll das Zusammenspiel der einzelnen Komponente der Datenintegration, des Datawarehousing und Business Intelligence in einem agilen Entwicklungsprozess beschreiben, der das Projekt zum Erfolg geführt hat.
Dabei wurden einzelne Quellen additiv in das Data Warehouse der DUSS integriert. Damit wird dem Controlling der DUSS ermöglicht, das Reporting effizient zu erstellen und Umsatz-Simulationen durchführen zu können.
Ein wesentlicher Faktor für den Erfolg ist hier das Zusammenspiel zwischen Datavault Builder, TM1 und Apache Airflow.

Rüdiger Koch - Über mich:

• Produkt Owner Service dataXpress (von der Idee bis zur produktiven Nutzung)
• Projekt DORIS (DUSS-Abrechnung)
• Treiber von Innovationen (datavault, dataXpress, ODI, NiFi, ExaSol)
• Bei DB Systel seit 2009

Meine Expertise:
• Fachliche und technische Datenmodellierung
• Big Data
• Architekturmanagement
• Serviceaufbau in AWS
• Daten Back-End Systeme (Oracle, Hadoop, ExaSol, RedShift)
• ETL (BODS, Talend, NiFi, ODI, dvb

Petr Beles verfügt über fundierte Erfahrungen in Data-Warehouse-Projekten in den Bereichen Telekommunikation, Finanzen und Industrie. Seit mehreren Jahren führt er als Senior Consultant erfolgreich Projekte mit Data Vault durch. Nachdem er den Bedarf an Automatisierung mit Data Vault erkannt hatte, begann er zusammen mit seinen Kollegen mit der Entwicklung eines Automatisierungstools, das in der Erstellung des Datavault Builders gipfelte. Petr Beles ist heute CEO der 2150 Datavault Builder AG.
----
Petr Beles (Data-Vault-Specialist, Senior Consultant) has profound experience in data warehouse projects in the telecommunications, financial and industrial sectors. For several years he has been successfully implementing projects with Data Vault and trains teams in the application of this data modelling technique.

Rüdiger Koch, Petr Beles
E124
Rüdiger Koch, Petr Beles
E124
Vortrag: CSmi3
flag VORTRAG MERKEN

Vortrag Teilen

13:55 - 14:25
CSmi4
Case Study coalesce | The Sustainable Data Platform
Case Study coalesce | The Sustainable Data Platform

Why did we change the way we used to work, and what are the challenges and risks today? Which ingredients are key for a data platform that will scale? Mark van der Heijden will cover the past, present and future of data engineering to answer these questions leading to a sustainable data platform.

Mark is lead engineer and part of the EMEA founding team at Coalesce.io. He started his career in data 18 years ago with an internship at Oracle, and later graduated at Getronics where he received a thesis award from Accenture. Since then, Mark has covered roles across the data lifecycle and across all parts of the data ecosystem.

With his extensive background in data integration, data modelling and data architecture, Mark has specialized in data automation. He is a strong believer that automation plays a key part in every successful data warehouse implementation. Prior to joining Coalesce.io, he has worked as an independent advisor and different roles at WhereScape, Teradata, and several consultancy firms. He is known as an honest, highly experienced professional with a broad general interest for technology, always striving for the optimal result.

Mark van der Heijden
K4
Mark van der Heijden
K4
Vortrag: CSmi4
flag VORTRAG MERKEN

Vortrag Teilen

13:55 - 14:25
CSmi5
Case Study Confluent | Using Kafka and Flink for Customer Transactions Data Enrichment
Case Study Confluent | Using Kafka and Flink for Customer Transactions Data Enrichment

Diese Session zeigt, wie die Open-Source-Technologien Apache Kafka und Apache Flink gemeinsam genutzt werden können, um Kundentransaktionsdaten anzureichern und ihren Wert zu erschließen. Die Teilnehmer erhalten praktische Umsetzungsstrategien und bewährte Verfahren, um Kafka und Flink optimal zu nutzen und Erkenntnisse aus rohen Transaktionsdaten in Echtzeit zu gewinnen.

Bevor Jan Svoboda bei Confluent seine Apache-Kafka-Reise begann, war er unter anderem als Advisory Platform Architect bei Pivotal. Seit April 2020 ist Jan bei Confluent als Solutions Engineer beschäftigt und hat dabei die Entwicklung von Stream Processing als sein Lieblings-Thema etabliert. Jan hält Abschlüsse in Management of Information Systems der UNYP sowie Computer Science an der UCF.

Jan Svoboda
F106
Jan Svoboda
F106
Vortrag: CSmi5
flag VORTRAG MERKEN

Vortrag Teilen

13:55 - 14:25
CSmi6
Case Study Denodo │ Data Fabric vs. Data Mesh: Agilität, Performance und schnellere Insights für das Business
Case Study Denodo │ Data Fabric vs. Data Mesh: Agilität, Performance und schnellere Insights für das Business

Datenlandschaften sind heute zunehmend komplex, hoch fragmentiert und global verteilt. Aus diesen Gründen rücken immer mehr Unternehmen von monolithischen und zentralisierten Datenarchitekturen ab und orientieren sich stattdessen an neuartigen Architektur-Paradigmen wie der Data Fabric oder Data Mesh. Im Vortrag gibt Otto Neuer, Regional Vice President und General Manager bei Denodo, spannende Einblicke in zentrale Fragestellungen:

  • Was steckt hinter den Konzepten von Data Fabric und Data Mesh – wo liegen die Gemeinsamkeiten, wo die Unterschiede?
  • Weshalb eignen sich diese Architekturen, um schnell und effizient auf aktuelle und zukünftige Business-Anforderungen zu reagieren?
  • Wie kann man eine Data Fabric oder ein Data Mesh mit einer logischen Datenschicht effizient und Governance-konform implementieren?

Otto Neuer - “I am passionate about working in one of the hottest spaces in the industry: Data Management. It is not just about data – it's also about people and the way we use data and related technologies. Therefore, I am proud to work with leading customers and partners, helping them to tackle their challenges and to build a sustainable data platform.”
- Regional Vice President and General Manager, Central Europe at Denodo since 2019
- Previous Sales Management roles in organizations like Talend, Informatica, Cognos & more

Otto Neuer
K3
Otto Neuer
K3
Vortrag: CSmi6
flag VORTRAG MERKEN

Vortrag Teilen

13:55 - 14:25
CSmi7
Case Study Fivetran | Business Intelligence 3.0 - Datenbasierte Entscheidungsfindung auf einem neuen Level
Case Study Fivetran | Business Intelligence 3.0 - Datenbasierte Entscheidungsfindung auf einem neuen Level

In dieser Session werden wir uns kurz die Entwicklung von Business Intelligence und Data Analytics im Laufe der Zeit anschauen und dann unsere Aufmerksamkeit auf die Zukunft datengesteuerter Organisationen richten. Raphael Teufel wird über seine Erfahrungen sprechen, die er in Zusammenarbeit mit verschiedenen Organisationen machen konnte. Ausgehend von diesen Perspektiven betrachten wir die notwendigen Komponenten für die Umsetzung einer erfolgreichen Datenstrategie in Unternehmen jeder Größenordnung. Wir werden herausfinden, was durch das Zusammenspiel eines modernen Analytics-Stacks und den richtigen Menschen und Prozessen möglich ist und wie man seine datenbasierte Entscheidungsfindung auf ein neues Level hebt.

Raphael Teufel hilft in seiner Rolle als Solutions Architecture Lead EMEA bei InterWorks seit über sechs Jahren Unternehmen dabei, einen Mehrwert aus ihren Daten zu generieren. Seine Philosophie für eine gute Datenstrategie besteht aus drei Kernkomponenten: People, Process und Platform (Technologie). Gemeinsam mit seinen Kunden arbeitet er daran, eine Datenvision und -strategie zu erschaffen, den für sie passenden modernen Analytics-Stacks zu implementieren und so Mitarbeitende im gesamten Unternehmen dazu zu befähigen, datengestützte Entscheidungen zu treffen.

Rafael Teufel
F127
Rafael Teufel
F127
Vortrag: CSmi7
flag VORTRAG MERKEN

Vortrag Teilen

13:55 - 14:25
CSmi8
Case Study Informatica | Operationalisierung & Automatisierung – Potenzial von Machine Learning voll ausschöpfen
Case Study Informatica | Operationalisierung & Automatisierung – Potenzial von Machine Learning voll ausschöpfen

Als Marktführer im Bereich Cloud-Datenmanagement versteht Informatica die Bedeutung von Machine Learning (ML) in modernen Datenworkflows. Um jedoch das volle Potenzial von ML auszuschöpfen, müssen Organisationen auch MLops akzeptieren - die Praxis, DevOps-Prinzipien auf Machine-Learning-Projekte anzuwenden.
In diesem informativen Vortrag tauchen wir in die Welt von MLops ein und erkunden bewährte Methoden, um ML nahtlos in Ihre Datenmanagementstrategie zu integrieren. Von der Datenerfassung und -vorbereitung über die Modellentwicklung, Bereitstellung und Überwachung diskutieren wir die wichtigsten Herausforderungen und Chancen von MLops und geben praktische Tipps, wie Sie diese bewältigen können.
Erfahren Sie, wie Sie Ihre ML-Workflows optimieren, Bereitstellungspipelines automatisieren, kontinuierliche Integration und Bereitstellung (CI/CD) für ML-Modelle implementieren und die Leistung von Modellen in der Produktion optimieren können. Entdecken Sie, wie die innovativen Lösungen von Informatica Ihnen helfen können, die Einführung von MLops in Ihrer Organisation zu beschleunigen, die Zusammenarbeit zwischen Data Scientists und IT-Betrieb zu verbessern und das volle Potenzial von Machine Learning für datengetriebene Entscheidungsfindung freizuschalten.

Dr. Martin Hebach verantwortet als Senior Solutions Architect bei Informatica seit beinahe 9 Jahren die Konzeption und kontinuierliche Weiterentwicklung der Architektur von cloudbasierten Datenmanagement-Lösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Dr. Hebach verfügt über eine langjährige Erfahrung in den Bereichen IT-Management, Unternehmensarchitektur und Beratung bei internationalen und größeren mittelständischen Unternehmen aus Finanz, Automotive und Bioscience. 

Martin Hebach
E101/102
Martin Hebach
E101/102
Vortrag: CSmi8
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Mi 1.4
Durch Federated Learning die Potenziale von KI erschließen
Durch Federated Learning die Potenziale von KI erschließen

Federated Learning ist eine innovative KI-Technologie mit großem Potenzial für sensible Branchen, wie Banken- und Versicherungen. In diesem Vortrag geben wir einen Überblick über Anwendungsfälle und Vorteile der Technologie, einschließlich Performance, Datenschutz und Effizienzgewinne durch Dezentralität. Außerdem demonstrieren wir die technische Funktionsweise, inklusive Referenzarchitektur und zeigen Anwendungsbeispiele um zu demonstrieren, wie mittels Federated Learning innovative KI getriebene Anwendungsszenarien umgesetzt werden können.

Zielpublikum: Entscheider:innen, Projektleiter:innen, Data Scientists und Data Engineers
Voraussetzungen: Kein tieferes Vorwissen notwendig. Ein Grundverständnis von KI ist hilfreich.
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Einführung in FL und Plattform

Federated Learning (FL) ist eine Methode, bei der Daten auf verteilten Systemen gesammelt und verarbeitet werden, um ein gemeinsames Machine Learning-Modell zu erstellen, ohne dass die Rohdaten jemals zentral geteilt werden. Dies ermöglicht es, Datenschutz und Datensicherheit zu wahren, da die Daten nicht an einen zentralen Ort übertragen werden müssen. Federated Learning eignet sich daher besonders für Anwendungen, bei denen Daten dezentral vorliegen, oder für Anwendungsfälle auf Basis sensibler Daten.

Die von uns entwickelte Plattformlösung für Federated Learning ermöglicht es, diese Technologie schnell und einfach in Ihre Produkte und Dienstleistungen zu integrieren. Hierdurch kann das Federated Learning einfach auf Daten angewendet werden, ohne sich Gedanken über die technischen Details der Implementierung und den Aufbau einer komplexen Infrastruktur machen zu müssen. Auf diese Weise können schnell und einfach Machine Learning-Modelle auf der Grundlage der Daten von verteilten Entitäten erstellt werden. 

 

Henrik Kortum ist Manager bei der Strategion GmbH und als Projektleiter am Deutschen Forschungszentrum für Künstliche Intelligenz tätig. Nach seinem Studium der Wirtschaftsinformatik und Zertifizierung zum Data Scientist hat er zunächst mehrere Jahre als Koordinator für KI-Projekte in einem Versicherungskonzern gearbeitet. Derzeit koordiniert er bei der Strategion eine Reihe von KI- und Data-Science-Projekten und leitet ein BMWK-gefördertes Projekt im Bereich Federated Learning.

Dominik Hubertus ist Geschäftsführer der Strategion GmbH und hat mehr als 15 Jahre Erfahrung in der Beratung, Projektleitung und Softwareentwicklung. Er ist Experte für Digitale Transformation, Digitalisierung und Prozessautomatisierung. Sein technischer Schwerpunkt liegt in der Konzeption (Architektur) und Koordination der Entwicklung komplexer Softwaresysteme.

Henrik Kortum, Dominik Hubertus
K4
Henrik Kortum, Dominik Hubertus
K4
Vortrag: Mi 1.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 16:15
Mi 2.4
Data Mesh on Azure Cloud Version 1
Data Mesh on Azure Cloud Version 1

At SWICA we started our movement towards data mesh 2021. At TDWI 2022 we presented our latest platform which basically consists of resources and patterns to hold and manage decentralized compute and storage services for our data. For this year’s session we are prepared to show working platform services like discovery, publishing and compliance. Our user interfaces and recap best practices during the implementation phasis.

Target Audience: Platform Engineers, Data Engineers, Data Analysts, Project Leaders, Decision Makers
Prerequisites: Basic understanding of the data mesh concept, data warehouse architectures and the challenges of diverse analytical use cases from multiple lines of business
Level: Expert

Extended Abstract:
A long with 'Version 1' we realized, that we need to refactor some components of our mesh. We will share our 'lessons learned' and 'best practices' with you and hope to answer a couple of questions that you might be thinking or haven’t thought of. E.g., orchestration, provisioning, cicd and much more.

SWICA

  • Data Platform Engineer
  • SWICA Health Organization
  • Concept and Implementation of the next gen data platform based upon the principles of Data-Mesh, Data Vault and Azure Cloud.
  • Development of analytical dashboards incl. budgeting and forecasting.

2019 - 2021
BUCHI LABORTECHNIK AG

  • Konzeption und Implementation des Unternehmensweiten Datawarehouses und der Abteilungsspezifischen Warehouses mittels Azure Synapse und Power BI Service.
  • Rollierende Finanz- und Absatzplanung mittels Jedox (Web), inkl. Workflowsteuerung. 
  • Power Apps und Logic Apps/Flows zur Automatisierung der wiederkehrenden Abläufe.

2018 - 2019
Informatec Ltd.

  • Senior Solution Architect Qlik Sense und Qlik View.
  • Diverse Kundenprojekte als Lead Consultant im Bereich Architektur und Business Logik.
  • Training, Consulting und Implementierung von Jedox Budgetierungen sowie deren Integration mit Qlik Sense.

2008 - 2018
Frenzel GmbH

  • Mitglied der Geschäftsleitung und Leitung des Entwicklerteams.
  • Entwicklung diverser Datawarehouse für Kunden. Sowie der Analyse- und Reporting-Plattformen.
  • Individualsoftwareentwicklung unter strenger Einhaltung von Kosten- / Nutzenanforderungen. Dazu gehören z. B. Telemarketing-CRM, Versicherungs-CRM und Abwesenheitsverwaltung.

15 years of BI industry experience as a project manager, analyst, team lead and solution architect. Closely following new concepts and technologies, aiming for practical application in the enterprise world.

Philipp Frenzel, Tobias Rist
F111
Philipp Frenzel, Tobias Rist
F111
Vortrag: Mi 2.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Mi 3.4
Sequential Learning – Iterativ zu umweltfreundlicherem Beton
Sequential Learning – Iterativ zu umweltfreundlicherem Beton

Die Zement- und Betonproduktion ist für knapp 10 % der globalen CO2 -Emissionen verantwortlich und stellt damit einen gewaltigen Hebel bei der Erreichung wichtiger Klimaziele dar. Die Suche nach klimafreundlicheren Alternativen erfolgt heute aber größtenteils aufwendig manuell auf Basis von Erfahrungswerten. Wir zeigen das enorme Potenzial KI-gestützter Priorisierung auf, insbesondere des sequenziellen Lernens, und stellen eine Applikation vor, die eine Feedback-Schleife zwischen Vorhersage und Validierung neuer Rezepturen realisiert.

Zielpublikum: Data Scientist, Product Owner, Fachabteilung
Voraussetzungen: Grundlagen im Bereich Machine Learning
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die Bauindustrie und insbesondere die Beton- und Zementherstellung tragen massiv zum weltweiten CO2-Ausstoß bei. Daher ist es zwingend notwendig, möglichst schnell alternative Baustoffe zu entwickeln. Gleichzeitig ist Beton als Baustoff in weiten Bereichen als alternativlos zu betrachten. CO2-optimierte Betonrezepturen stehen daher im Fokus der Forschung. Neben verbesserter Umweltfreundlichkeit müssen diese allerdings Mindestanforderungen an mechanischen Eigenschaften wie Druckfestigkeit erfüllen. Schließlich müssen Faktoren wie Kosten und Verfügbarkeit berücksichtigt werden. 

Die Suche nach neuen Varianten ist dabei sehr aufwendig: Typische Rezepturen werden durch 40 oder mehr Parameter charakterisiert. Neben chemischer Komposition sind hier auch Informationen zum Herstellungsprozess, sowie Mischverhältnisse mit Gesteinen, Wasser usw. relevant. Während sich die CO2-Bilanz des Herstellungsprozesses auf Basis dieser Parameter heuristisch abschätzen lässt, ist es a priori nicht möglich, Eigenschaften wie Druckfestigkeit des resultierenden Materials auf Basis von Modellen vorherzusagen. Zeitaufwendige und kostenintensive Experimente sind notwendig, um diese zu ermitteln. 

Statt basierend auf Erfahrungswerten mögliche Kandidaten zu verproben, stellt sich die Frage, ob hier ein KI-basierter Ansatz helfen kann. Allerdings gibt es aufgrund des aufwendigen Herstellungsprozesses wenige gelabelte Daten. Die Kombination aus komplexem Parameterraum bei gleichzeitig wenigen bekannten Labels führt dazu, dass Standard-Regressionsalgorithmen nicht oder nur sehr eingeschränkt helfen. 

Typischerweise können Machine Learning-Algorithmen verlässliche Vorhersagen machen, wenn ein repräsentatives Sample von Features und zugehörigen Labels für das Training verfügbar ist. Es stellt sich daher die Frage, ob und wie ein solches Sample möglichst effizient generiert werden kann, insbesondere bei hoher Dimensionalität der Daten und wenn Labels teuer sind. Je nach Problemstellung kann es dabei helfen, sich auf spezifische Bereiche der Verteilung zu fokussieren. Möchte man zum Beispiel nur Werte oberhalb einer definierten Grenze vorhersagen, reicht es aus, den Teil der Verteilung zu lernen, der zu eben solchen Werten führt. 

Ein vielversprechender Ansatz ist Sequential Learning, eine Form der Bayes'schen Optimierung. Über sukzessives und gezieltes Anreichern der Trainingsdaten um weitere Labels ist es möglich, effizient die Vorhersagen der Algorithmen in noch nicht explorierten Parameterbereichen zu verbessern. Statt zufällig Daten auszuwählen und möglicherweise aufwendig zu labeln, wird versucht mithilfe passender Metriken gezielt Datenpunkte zu priorisieren. Im Kontext der Materialwissenschaften wird somit ein Feedback Loop zwischen KI-Vorhersage und tatsächlichem Experiment realisiert. Schritt für Schritt wird der Algorithmus mit neuem Wissen aus dem Labor angereichert und somit werden Vorhersagen iterativ verbessert.

Mit Kollegen der Bundesanstalt für Materialforschung und -prüfung (BAM) haben wir im Detail die Implikationen dieses Ansatzes für die Betonforschung analysiert. Pro Iteration werden die Rezepturen gemäß dem Kriterium 'Nützlichkeit' priorisiert. Dieses umfasst sowohl Vorhersagen für Parameter wie Druckfestigkeit, als auch a priori Information zu sozioökonomischen Faktoren wie CO2-Ausstoß. Unsere Ergebnisse implizieren, dass sich mit Sequential Learning sehr viel schneller Rezepturen mit den gewünschten Eigenschaften identifizieren lassen, als es beim zufälligen Samplen der Fall ist. Diese Ergebnisse und die Universalität des Ansatzes legen nahe, dass Sequential Learning auch in anderen Forschungs- und Industriebereichen erfolgreich angewandt werden kann. 

Schließlich gebe ich einen kurzen Einblick in SLAMD, eine Webapp, die wir mit der BAM entwickelt haben. Diese stellt intuitive Funktionen für eine konkrete experimentelle Kampagne zur Verfügung und ermöglicht es so, die beschriebenen Ideen schneller umzusetzen. Aufgrund der einfachen Bedienbarkeit ist es somit möglich, moderne Materialforschung und Sequential Learning auch jenseits der Forschungsinstitute einem breiteren Publikum zugänglich zu machen.
 

Dr. Tehseen Rug hat nach seiner Promotion mit anschließendem Post Doc in der theoretischen Physik die Software-Welt für sich entdeckt. Als Senior AI & Data Engineer bei iteratec unterstützt er Kunden bei diversen Softwareprojekten in den Bereichen Data Analytics, AI und Software- und Cloud-Architektur. Privat interessiert er sich für alle Themen rund um Technologie und Forschung.

Tehseen Rug
E124
Tehseen Rug
E124
Vortrag: Mi 3.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Mi 4.4
Wie Scrum mit Data Science unterstützt werden kann!
Wie Scrum mit Data Science unterstützt werden kann!

Scrum-Teams sammeln in ihren Jira-Projekten einen immensen Datenschatz. Wir zeigen, wie diese Daten mithilfe von Data Science-Methoden im gesamten Scrum-Prozess vom Planning bis zur Retrospektive eingebracht werden können. Geplante vs. umgesetzte Velocity, Kopfmonopole und Chaos im Backlog werden besprochen.
Ziel ist es, dem Scrum-Team Methoden in die Hand zu geben, um offene Entscheidungen datenbasiert zu treffen. Dafür lernt es, eigenverantwortlich die notwendigen Daten mithilfe eines Self-Service BI-Tools zu erheben und zu analysieren.

Zielpublikum: Data Scientists und Scrum-Teams
Voraussetzungen: Grundlegende Scrum-Kenntnisse
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die Einflussnahme und die unterschiedlichen Interessen der Stakeholder in Scrum-Projekten können eine fokussierte Ausrichtung auf Sprint-Ziele schwierig machen. Wir zeigen, dass in Jira-Projekten durch moderne Natural-Language-Processing-Methoden (NLP-Methoden) die Messung der inhaltlichen Heterogenität der einzelnen Aufgaben des Sprints möglich ist. Hierbei wird eine thematische Ähnlichkeit der Jira-Tickets über die Inhalte der Beschreibungstexte und der Titel angenommen - ähnlich zum Vorgehen einer Suchmaschine. Ein Jira-Projekt mit einigen Monaten Laufzeit reicht hierzu als Datenbasis aus. Diese Methode ist aber auch für sämtliche Projektgrößen, bis hin zu großen Entwicklungsprojekten, geeignet.

Auch mehrsprachige Aufgabenbeschreibungen und projektbezogene Fachsprache im Ticket stellen kein Problem dar. In unserem Vortrag fokussieren wir uns auf die Fragestellungen: Ist Excel wirklich das effizienteste Tool, um die langfristige Entwicklung der Velocity in einem Projekt zu untersuchen? Trägt eine starke Ausrichtung auf das Sprint-Ziel zu einer hohen Velocity bei? Wurde mein Team im Laufe des Sprints vom Tagesgeschäft abgelenkt?

Diese Fragen können wir mithilfe der zuvor beschriebenen Methodik zuverlässig analysieren. Als Ergebnis entstehen automatisch aus Jira abgeleitete Dashboards, die Teams bspw. mit PowerBI einsehen und reflektieren können. Wir berichten von unserer Praxiserfahrung und insbesondere wird es um die Korrelation von Heterogenität und Velocity gehen. Danach möchten wir gemeinsam mit dem Auditorium die Schlussfolgerungen für Scrum-Teams und deren inhaltliche Steuerung daraus diskutieren.

Dr. Ina Humpert ist Mathematikerin und als Beraterin bei der viadee IT-Unternehmensberatung tätig. Ihr Schwerpunkt ist Data Engineering auf SQL basierten Datenbanken im Bankenumfeld. Außerdem interessiert sie sich für Daten-Visualisierung unter anderem mit Power BI.

Ronja Köhling ist Beraterin bei der viadee. Ihr aktueller Schwerpunkt liegt im Bereich Data Science, unter anderem Maschinelles Lernen, Operations Research und Process Mining. Darüber hinaus interessiert sie sich für agile Themen und deren Schnittstellen zum Bereich Data Science.

Ina Humpert, Ronja Köhling
E119
Ina Humpert, Ronja Köhling
E119
Vortrag: Mi 4.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Mi 5.4
Data Performance Management als Treiber der Digitalisierung
Data Performance Management als Treiber der Digitalisierung

Ohne Zweifel sind Daten einer der Kernbestandteile der Digitalisierung. Leider scheitern Digitalisierungs- und Datenprojekte häufig an fehlenden, heterogenen oder fehlerhaften Daten. Den notwendigen Datenqualitätsgrad zu erreichen, ist jedoch alles andere als einfach, da es Menschen, Prozesse und Technologie im Einklang erfordert. In dieser Präsentation gibt DB Regio Bus einen Einblick in ihre Erfolgsstory, wie die Organisation den Level der Datenqualität für geschäftskritische Daten deutlich steigern konnte.

Zielpublikum: Manager:innen, Data Governance Manager, CIOs, CDOs, Entscheider:innen, Head of Data, Data Analytics Leader
Voraussetzungen: Grundkenntnisse im Datenmanagement
Schwierigkeitsgrad: Einsteiger

Marcus Gilg is Head of IT/CIO at DB Regio Bus. He has a long experience in data management, digitization and public transportation. After previous positions in transport management, e-commerce and M&A, he took over the position as Head of IT in 2014 with the ambition to modernize the ICT of the bus company of Deutsche Bahn. Marcus established a 100% cloud strategy and renewed the whole IT-infrastructure for around 9.000 employees. At present, the focus of his team is digitization, automation and modularization. In this context, Marcus successfully established the data excellence initiative of DB Regio Bus. Since its start, data availability and data quality have enormously improved, as well as the ability related to transform the company with data.

Dr. Christian Fürber ist Gründer und Geschäftsführer der Information Quality Institute GmbH (iqinstitute.de), einem spezialisierten Beratungsunternehmen für Data-Excellence- und Data-Management-Lösungen. Vor der Gründung von IQI im Jahr 2012 war er in verschiedenen Positionen im Datenmanagement der Bundeswehr tätig, wo er eine der ersten Data-Governance-Initiativen in Europa konzipierte und umsetzte. Christian und sein Team haben diverse Datenprojekte und -strategien für bekannte Unternehmen verschiedener Branchen erfolgreich umgesetzt und ihnen dabei geholfen, erheblichen Mehrwert aus ihren Daten zu ziehen. Neben seiner Tätigkeit bei IQI ist Christian auch Autor und Redner auf Konferenzen und organisiert den TDWI-Themenzirkel 'Data Strategy & Data Governance'.

Marcus Gilg, Sebastian Fischer, Asha Joseph Pattani, Daniel Schwarzkopf, Christian Fürber
K3
Marcus Gilg, Sebastian Fischer, Asha Joseph Pattani, Daniel Schwarzkopf, Christian Fürber
K3
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Mi 6.4
World Café: Next Generation Data Management
World Café: Next Generation Data Management

Kontrovers, provokativ und konstruktiv – wir diskutieren mit Ihnen das Thema Next Generation Data Management.

Gordon Witzel startete im Jahr 2007 bei der SAP als BW-Berater. Hier unterstütze er internationale Kunden bei der Architektur und Implementierungen von SAP BW und SAP BWA.
2015 wechselte er in das SAP Data Warehouse Produktmanagement der SAP SE und hat hier basierend auf Anforderungen der Kunden mit der Entwicklung neue Features definiert, priorisiert und zur Umsetzung gebracht. Bei diversen nationalen und internationalen Events präsentiert Gordon zu den Themen SAP BW und SAP Data Warehouse Cloud und stellt die SAP Data Warehouse Produkte in Hands-On Workshops vor.
Weiterhin unterstütze er bei Definition der SAP Data Warehouse Strategie und begleitete die erfolgreiche Einführung der SAP BW bridge als Teil der SAP Data Warehouse Cloud im Jahr 2021. Seit 2022 ist Gordon Principal Presales Expert für das Data Warehouse Portfolio der SAP.

Markus Ganser startete 1999 bei Bitburger als ABAP-Entwickler und in der Modulbetreuung im MM. Im Laufe der nächsten Jahre war er zusätzlich verantwortlich, für die Betreuung und Entwicklung von SAP Business Workflows und die Einführung der SAP Supplier Relationship Management (SRM).
Im Jahre 2005 wechselte er in das Themengebiet Analytics und übernahm die Betreuung des SAP Business Warehouses (SAP BW). Dort war er die Provisionierung, die Modellierung der Daten und deren Bereitstellung zuständig (”vom Extraktor bis zur Query”).
Seit 2021 ist Markus Teamleiter ”SAP Analytics” und verantwortet und betreut mit zwei Mitarbeiterinnen die Themenkomplexe BW/4, SAC, DWC und Hana Modellierung in der Bitburger Braugruppe.

Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. Im Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Matthias Stemmler das Technologie Presales Team der SAP Deutschland SE. Ab April 2016 war er in der Rolle des „Platform Architect“ tätig und unterstützte die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) beim Scoping, der Auswahl sowie Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.
Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.

Harry Enns war nach seinem Betriebswirtschaftsstudium mit Schwerpunkt Informatik an der Fachhochschule Niederrhein (Mönchengladbach) 1999 zunächst als Berater mit dem Fokus auf Business Intelligence-Projekte im SAP Umfeld tätig, bevor er 2011 zu INFOMOTION wechselte. Dort verantwortet er seitdem den Bereich SAP BW/HANA und dessen Weiterentwicklung, außerdem leitet Herr Enns seit 2012 den INFOMOTION Standort Saarbrücken. Mitte 2017 trat er als Partner in die Geschäftsleitung von INFOMOTION ein und entwickelt gesamtverantwortlich das SAP Portfolio.

Gordon Witzel, Markus Ganser, Matthias Stemmler, Harry Enns
E101/102
Gordon Witzel, Markus Ganser, Matthias Stemmler, Harry Enns
E101/102
Vortrag: Mi 6.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Mi 7.4
Limitiert Einführung in die Programmiersprache Python
Einführung in die Programmiersprache Python

Diese Session fokussiert die Programmiersprache Python anhand vorgefertigter Code-Beispiele, um den Teilnehmern eine Grundlage zu schaffen, die Einsatzpotenziale und Aufwände der Sprache im Bereich Advanced Analytics besser abschätzen zu können.

Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
Anaconda www.anaconda.com/products/individual, um Python nutzen zu können.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger
 

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/carsten.felden

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt. 

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/claudia_koschtial

Carsten Felden, Claudia Koschtial
F127
Carsten Felden, Claudia Koschtial
F127
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Mi 8.4
DWH Automation Challenge: DWH for Willibald on VaultSpeed
DWH Automation Challenge: DWH for Willibald on VaultSpeed

With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with VaultSpeed. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald will be explained by DDVUG in a previous lecture.

Prerequisites: Basic Data Warehouse Knowledge
Level: Basic

Extended Abstract:
For the fictitious company Willibald, a complete data model with data is available that was created by DDVUG and provided with 13 typical challenges. In this presentation, the typical solutions are shown in VaultSpeed and combined to form a complete data warehouse. This will give you an overall impression and the opportunity to get your own comprehensive impression of the tool.
VaultSpeed provides a best-in-class data automation solution, building on the Data Vault 2.0 methodology. Enterprise customers worldwide rely on VaultSpeed to automate multi-source data integration as well as industry-specific metrics stores, on top of the integrated datasets. VaultSpeed is the default SaaS solution for companies looking to simplify the creation and maintenance of their data cloud.
VaultSpeed is headquartered in Leuven, Belgium, with offices in Seattle, USA and Vilnius, Lithuania. For more information, visit www.vaultspeed.com

Jonas De Keuster is VP Product Marketing at VaultSpeed. He had close to 10 years of experience as a DWH consultant in various industries like banking, insurance, healthcare, and HR services, before joining the company. This background allows him to help understand current customer needs and engage in conversations with members of the data industry.

Jonas De Keuster
F106
Jonas De Keuster
F106
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
SDMi1.5
Special Day INFOMOTION │ Data Value Factory
Special Day INFOMOTION │ Data Value Factory

Auf dem Weg zur Data Driven Company ist es wesentlich messbare Mehrwerte aus Daten zu generieren.
Damit die Identifikation der dafür notwendigen Use Cases nicht nur eine einmalige Aktion im Rahmen eines Projekts wird, sollte die Kontinuität über eine organisatorische Verankerung in Form einer Data Value Factory erfolgen.
Im Vortrag stellen wir Ihnen vor welche Ansätze hierzu existieren und welche Herausforderungen überwunden werden müssen.

Markus Enderlein studierte Wirtschaftsinformatik an der Hochschule für Ökonomie und Management in Frankfurt am Main. Nach seinem Berufseinstieg 1998 bei CSC arbeitete er ab 2003 als Senior Consultant im Bereich IT-Architektur und IT-Projektmanagement bei einem mittelständischen IT-Beratungshaus. Mit seinem Einstieg in 2007 ist er seit über 14 Jahren bei INFOMOTION aktiv und unterstützt Kunden dabei, ihre "Data Performance" im Unternehmen zu steigern. Aktuell ist Markus Enderlein als Business Unit Manager für die Strategieberatung unserer Kunden bei INFOMOTION verantwortlich. Er ist regelmäßiger Sprecher auf Konferenzen und Autor zahlreicher Veröffentlichungen.

Markus Enderlein
F129
Markus Enderlein
F129
Vortrag: SDmi1.5
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
SDMi3.2
Special Workshop dataspot. │ Teil 2: Wie geht Fachdatenmodell? Und was ist das überhaupt?
Special Workshop dataspot. │ Teil 2: Wie geht Fachdatenmodell? Und was ist das überhaupt?

Wieso kann man nicht einfach die physischen Datenmodelle als Unternehmensdatenmodell verwenden? Wie unterscheidet sich ein Fachdatenmodell von einem Datenbankmodell? Welches Vorgehen ist notwendig, um für ein unternehmensweites Gesamtverständnis aller Unternehmensdaten zu sorgen? Und wieso kann nur das Fachdatenmodell die Grundlage für Data Governance sein?
Diese und weitere Fragen werden in diesem Workshop beantwortet und anhand eines spontanen Teilnehmer:innen-Use Cases live gemeinsam modelliert.

Outline:

  • Was ist ein Fachdatenmodell?
  • Anwendungsfälle und Nutzen des Fachdatenmodells
  • Live-Use Case - Modellierung Fachdatenmodell
  • Defintion der Data Governance Aspekte auf Basis des Fachdatenmodells

Nach mehr als 10 Jahren Projektarbeit in den Bereichen BI und Data Analytics hat sich die Data Excellence-Spezialistin Lisa Parmentier in den letzten 4 Jahren insbesondere auf die Themen Data Governance und Metadaten Management spezialisiert. Seit 2020 leitet sie die Schweizer Ländergesellschaft von dataspot. und unterstützt insbesondere CDOs und CIOs dabei, ihre Projekte erfolgreich zu stemmen und Daten- und Digitalisierungsstrategien effizient umzusetzen.

Wanja Eiche ist Senior Consultant bei dataspot. Er setzt sich im Projektgeschäft mit Fragestellungen an der Schnittstelle zwischen Fachbereich und Technik auseinander und erarbeitet kundenindividuelle Lösungen. Seine Erfahrungen kommen dabei im gesamten Lebenszyklus von Metadaten und Data Governance zur Geltung, wobei er besonderen Wert auf Datenmodellierung, das Metadatenmanagement und Schulungsthemen legt. 

Lisa Parmentier, Wanja Eiche
E105
Lisa Parmentier, Wanja Eiche
E105
Vortrag: SDMi3.2
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 18:25
SDmi4
Special Day BI or DIE Women in Data │
Special Day BI or DIE Women in Data │

BI or DIE Women in Data meets TDWI. Diesmal wird das von LinkedIn und YouTube bekannte Format Women in Data live auf der TDWI vertreten sein. Im gewohnten Impuls- und Diskussionsformat wird breit gefächertes Wissen rund um Data Themen vermittelt. In diesem besonderen Format sind die Impulsgeberinnen ausschließlich weiblich. Im Publikum sind Männer wie Frauen herzlich willkommen. 
Sabine Schwenninger von BI or DIE führt durch den Tag und übernimmt die Moderation. Für alle die nicht live in München dabei sein können, wird es am Tag drauf alle Impulse bei YouTube zum Nachschauen geben.

Sabine Schwenninger ist Consultant bei BI or DIE. Als Ex-Controllerin kennt sie die Herausforderungen der Kunden und bereichert die Projekte um ihre Expertise. In den Workshops vermittelt sie Wissen rund um Datenvisualisierung und berät bei der Einführung unternehmensweiter Standards. Gemeinsam mit den Kund*innen erarbeitet sie prototypische Dashboards und weiß mit Tipps und Tricks bei der Umsetzung in Power BI zu unterstützen.

Veronique Schmitz ist Business Development Managerin bei BI or DIE. Seit fast 15 Jahren sind Datenanalysen und die Produktentwicklung im Umfeld Business Intelligence, Data Science und eines zentralen Data Warehouses als Controllerin, Projektmanagerin und Agile Coach ihre Themen. In Projekten bringt sie die Erfahrung im Change- und Anforderungsmanagement mit dem Wunsch der Kund:innen nach verlässlichen Analysen zusammen.

Sabine Schwenninger, Veronique Schmitz
F130
Sabine Schwenninger, Veronique Schmitz
F130
Vortrag: SDmi4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
SDmi4.1
Special Day BI or DIE Women in Data │ Data Governance – Nice to have oder richtig wichtig?
Special Day BI or DIE Women in Data │ Data Governance – Nice to have oder richtig wichtig?

Data Governance bezeichnet das Framework, was Unternehmen implementieren, um die Nutzung von Daten möglich zu machen. Aber ist das wirklich nötig oder nur eine Entschuldigung, ein weiteres Tool anzuschaffen? Der Impulsvortrag leitet das Thema ein und die Diskussion liefert die Antwort: Kann es nur eine geben?

Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Stefanie Kostorz ist Senior Project Managerin und auf Finanzprojekte spezialisiert. Ursprünglich als Controllerin tätig, entwickelte sie ein ausgeprägtes Verständnis für Geschäftsanforderungen und die Fähigkeit, diese in Datenanforderungen zu übersetzen. Sie ist an der Entwicklung einer völlig neuen Datenanalyselösung für die CHRIST-Gruppe beteiligt. Ihr Fokus liegt darauf, die digitale Transformation voranzutreiben. Mit ihrer Familie und Rauhaardackel Lumpi lebt sie in Menden (Sauerland).

Stefanie Kostorz
F130
Stefanie Kostorz
F130
Vortrag: SDmi4.1
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Mi 1.5
IDV erfolgreich verstehen und implementieren: Praxis-Tipps
IDV erfolgreich verstehen und implementieren: Praxis-Tipps

Individuelle Datenverarbeitung (IDV) wird in Unternehmen vor allem dann eingesetzt, wenn klassische IT-Systeme zu komplex, teuer oder zeitaufwendig sind oder der Arbeitsaufwand für die IT-Abteilung zu hoch ist. In diesem Vortrag möchte ich Ihnen praxisnahe Tipps und Best Practices vorstellen, um Ihnen zu helfen, das Thema IDV zu beherrschen. Sie werden lernen, wie Sie individuelle Datenverarbeitung erfolgreich in Ihr Unternehmen integrieren und wie Sie die Sicherheit Ihrer Daten gewährleisten können.

Zielpublikum: Alle
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger

 

Robert Mäckle ist ein Experte im Bereich der Informationssicherheit und Principal Consultant bei der ADVISORI FTC GmbH. Er hat sich unter anderem auf Transformationsprojekte sowohl auf strategischer als auch auf operativer Ebene spezialisiert. Er verfügt weiterhin über umfangreiche Erfahrung in der Beratung von Unternehmen bei IT-Prüfungen und ist als Trainer in diesem Bereich tätig.
Robert Mäckle ist ein zertifizierter CISA, CDPSE, ISO27001 Lead Auditor and Implementer, Datenschutzbeauftragter, BSI Grundschutz Praktiker und hat eine Vielzahl von weiteren Zertifizierungen erworben. 
 

Robert Mäckle
K4
Robert Mäckle
K4
Vortrag: Mi 1.5
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Mi 3.5
Analyseplattform für eine Zentralbank – 1 Jahr nach Go Live
Analyseplattform für eine Zentralbank – 1 Jahr nach Go Live

Datenanalyse ist essenzieller Teil vieler Zentralbankaufgaben, sei es in der Analyse von Kreditportfolien im Rahmen der Bankenaufsicht oder in der Betrachtung wirtschaftlicher Zusammenhänge zur Steuerung der Geldpolitik.
In den vergangenen Jahren sind die Anforderungen in diesem Bereich stark gestiegen. Aus diesem Grund wurde die Plattform IDA auf Basis modernen Hadoop-Architektur und großzügiger Hardware-Ausstattung geschaffen. Wir präsentieren unsere Erfahrungen aus dem Aufbau der Plattform und ersten umgesetzten Anwendungsfällen.

Zielpublikum: Architekt:innen, Entscheider:innen, Technology Strategists, Personen, die Analysen in großem Maßstab bereitstellen möchten
Voraussetzungen: keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Agenda:

  • Datenanalyse in einer Zentralbank

Intro IDA:

  • Vision
  • Ziele
  • Zielgruppen
  • Technische Grundlage
  • Lab/Factory-Gedanke als Grundlage
  • Begleitung der Technik durch neuartige Methoden und Arbeitsweisen

Verlauf AIDA:

  • Setup: Zentralbereichs-übergreifend, starke Einbindung von Key-Usern
  • Wichtige Entscheidungen im Verlauf: Analyseplattform

Benjamin Diemann ist Product-Manager für die Plattform IDA und fokussiert sich stark auf die Betreuung der internen Kunden und die strategische Weiterentwicklung. Er hat vor seiner Tätigkeit für die Bundesbank über 10 Jahre als Berater Data Science und Machine Learning basierte Projekte umgesetzt.

Benjamin Diemann
E124
Benjamin Diemann
E124
Vortrag: Mi 3.5
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Mi 4.5
Data-Driven-Vision – Als Mittelständler Schritt für Schritt
Data-Driven-Vision – Als Mittelständler Schritt für Schritt

Der Duisburger Hafen - als weltgrößter Binnenhafen auf dem Weg zur Data-Driven-Company. Durch eine unternehmensweite Daten- und Analyseorientierung soll die Entscheidungsfindung zukünftig stärker datengetrieben stattfinden. Der Aufbau einer modernen BI-Plattform in der Cloud soll dazu beitragen, sich zukunftssicher aufzustellen. Er bietet neben einer höheren Flexibilität, Funktionalität und Skalierbarkeit den Vorteil, möglichst viele Anwender in die datengesteuerte Zusammenarbeit und die Diskussion zu den Möglichkeiten von Daten zu integrieren.

Zielpublikum: BI-Verantwortliche, Digitalisierungsverantwortliche, Business-Analyst:innen, CIO/ IT-Leiter:innen
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Weltgrößter Binnenhafen wird 'Data-Driven-Company'
Der Duisburger Hafen steht als größter Binnenhafen der Welt vor den zentralen Herausforderungen, die sich aus der Digitalisierung ergeben. Die effiziente Auswertung der zahlreich anfallenden Datenmengen innerhalb der gesamten duisport-Gruppe ist ein wichtiger Faktor für den Unternehmenserfolg. In diesem Zusammenhang rückte das Thema Business Intelligence schon vor ein paar Jahren stärker in den Fokus und wurde im digitalen Leitbild der duisport-Gruppe nachhaltig verankert. Durch eine unternehmensweite Daten- und Analyseorientierung soll die Entscheidungsfindung zukünftig stärker datengetrieben stattfinden. Dabei geht es nicht nur um eine Entscheidung: Es geht darum, den Kontext der Daten zu verstehen, Prioritäten zu setzen und die Ursache-Wirkungs-Zusammenhänge zu finden. 

Ausgangspunkt der Reise zur Data-Driven-Company war, wie bei vielen mittelständischen Unternehmen, dass sich im Laufe der Zeit Datensilos gebildet hatten und bereichsübergreifende Analysen erschwerten. So sollte mit der unternehmensweiten Einführung einer flexiblen Business Intelligence-Lösung auch eine zentrale Datenplattform geschaffen werden, die alle relevanten Daten an einem Ort zusammenführt und jedem Mitarbeitenden den Zugriff auf diese Daten und deren Analyse ermöglicht. Doch die Einführung einer solchen modernen Datenplattform stellte duisport vor neue Herausforderungen. Eine der Herausforderungen liegt darin, Mitarbeitende bei duisport dazu zu befähigen, Daten aktiv zu nutzen und die Mehrwerte der BI-Lösung aufzuzeigen. Dazu zählt insbesondere, dass durch die Optimierung von Berichten, der Benutzerfreundlichkeit und des Informationsaustausches mehr Zeit fürs Wesentliche übrigbleibt und dies zu einer höheren Wirtschaftlichkeit führt. Daher kam bei duisport eine wichtige Maßnahme besonders zum Tragen: die Etablierung einer Data Culture, um das volle Datenpotenzial im Unternehmen ausschöpfen zu können.

Die Migration und der Aufbau einer modernen BI-Plattform in der Cloud soll dabei unterstützen und dazu beitragen, dass duisport sich zukunftssicher aufstellen kann, indem auf eine flexible, kosteneffiziente und auf dem neusten Stand befindliche Lösung gesetzt wird. Die Verwendung einer Cloud-basierten BI-Lösung hat vor allem den Vorteil, Power BI besser und einfacher in die täglichen Arbeitsprozesse der Mitarbeitenden zu integrieren und somit die Nutzerakzeptanz weiter zu steigern. So sollen die datengesteuerte Zusammenarbeit, die Innovation und die Diskussion zu den Möglichkeiten von Daten bei duisport stärker fokussiert werden. Diese Entwicklung soll Mitarbeitenden bei duisport ein Werkzeug an die Hand geben, mit dem sich datengetriebene Herausforderungen noch besser meistern lassen.

Data2Value - ein Praxisbeispiel
Ein gelungenes Beispiel hierfür sind bereichsübergreifende, einfach zugängliche und benutzerfreundliche BI-Berichte zu Auswertungen der historischen/aktuellen Pegelstände und Prognosewerte des Rheins nicht nur am Standort Duisburg, sondern auch an noch weiteren wichtigen Messstellen, wie beispielsweise Köln und Düsseldorf. Durch die Verknüpfung mit weiteren Datenquellen, wie Umschlagleistungen und Verkehrsdaten von Bahn und Schiff, können die Auswertungen dazu beitragen, dass durch eine verbesserte Planung mehr Güter mit Bahn und Schiff transportiert werden können. Das Ziel ist es daher, die Verkehrssituation frühzeitig zu erkennen und vorherzusagen. 

Heute Daten analysieren, um zu wissen, was morgen wichtig ist
Zahlreiche Informationsquellen für BI und deren Kombination werden dabei helfen, wichtige Handlungsimpulse frühzeitig zu bekommen. Aus der steigenden Menge an Daten, die täglich verwaltet wird (z. B. Kransensorik, Wind- und Wetterdaten sowie Umweltdaten), gilt es, verwertbare Erkenntnisse zu gewinnen. Und das nicht nur mittels klassischer BI, sondern auch mittels fortgeschrittener Analysemethoden, um Trends und Muster zu erkennen. Der Schritt in die Cloud bietet duisport dabei flexible Lösungen, um die Architektur dahingehend zu erweitern. Aber auch eine hohe Kerneigenleistung ist entscheidend auf dem Weg zu einer Data-Driven-Company. Um das Datenbewusstsein immer stärker in der Unternehmenskultur zu verankern, braucht es weiterhin jegliche Unterstützung aller unternehmensrelevanten Fachbereiche und die kontinuierliche Ausrichtung der BI-Plattform an den Unternehmenszielen. Denn letztlich geht es um nicht weniger als das Zukunftsbild für eine datengesteuerte Organisation.

Stephanie Starke verantwortet als Projekt-Managerin - Data & Analytics alle BI-Aktivitäten in der duisport-Gruppe und hält die Fäden in der Hand. Zu den wesentlichen Aufgaben gehört die Umsetzung der definierten BI-Strategie und damit die fortlaufende Sicherstellung des Geschäftsnutzens aller BI-Initiativen. Zuvor studierte sie Business Analytics (M.Sc.) und sammelte neben ihrem Studium Berufserfahrungen bei einer großen Beratungsgesellschaft in Hamburg und Düsseldorf.

Florian Grell has over 6 years of experience in the business intelligence environment. His focus was on Microsoft BI software in the cloud environment at an early stage. In his role as Managing Director Microsoft, he continues to drive the development and expansion of Modern Data Platform / Modern Data Stack Solutions at areto. He brings his many years of expertise in the area of Azure and data analysis to the table.

Stephanie Starke, Florian Grell
E119
Stephanie Starke, Florian Grell
E119
Vortrag: Mi 4.5
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Mi 5.5
Panel: Data Mesh oder Data Mess? Datenprodukte zwischen Zentralismus und Dezentralität
Panel: Data Mesh oder Data Mess? Datenprodukte zwischen Zentralismus und Dezentralität

Die Data Mesh Konzeption ist in aller Munde. Sie verspricht durch eine dezentrale Verantwortung über fachliche Datendomänen und ihre jeweiligen Datenprodukte eine bessere Skalierung. Data Mesh steht damit diametral zu vielen eher zentralistisch geprägten Organisationsstrukturen und damit häufig verbundenen Architekturkonzeptionen für analytische Systeme, die in der Vergangenheit propagiert wurden. Eine föderale Data Governance soll in der Data Mesh Konzeption für Harmonisierung und Standardisierung bei größtmöglicher Flexibilität und Unabhängigkeit sorgen.
Wie immer besteht zwischen der Realität und der idealistischen Welt der Folien und Marketing-Botschaften eine große Diskrepanz. Daher wollen wir die Anwender zu Wort kommen lassen. In einer Diskussionsrunde mit Praktikern werden entlang von Diskussionsthesen die Erfolgsfaktoren und Stolperfallen einer föderalen Data Governance innerhalb der Data Mesh Konzeption erörtert. Dabei werden wir uns auch der Frage widmen, welche Aufgaben der Data Governance dezentral in den Fachbereichen gelöst werden können und welche zentral vorgegeben werden müssen und somit den Rahmen vorgeben?

Dr. Carsten Dittmar ist Partner und Area Director West bei der Alexander Thamm GmbH. Er beschäftigt sich seit über 20 Jahren intensiv mit den Themenfeldern Business Analytics, Data Science und Artificial Intelligence mit dem Fokus auf strategische und organisatorische Beratung von datengetriebenen Vorhaben. Carsten Dittmar ist europäischer TDWI Fellow und Autor diverser Fachpublikationen und Referent bei zahlreichen Fachveranstaltungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/carsten.dittmar

Dr. Christian Fürber ist Gründer und Geschäftsführer der Information Quality Institute GmbH (iqinstitute.de), einem spezialisierten Beratungsunternehmen für Data-Excellence- und Data-Management-Lösungen. Vor der Gründung von IQI im Jahr 2012 war er in verschiedenen Positionen im Datenmanagement der Bundeswehr tätig, wo er eine der ersten Data-Governance-Initiativen in Europa konzipierte und umsetzte. Christian und sein Team haben diverse Datenprojekte und -strategien für bekannte Unternehmen verschiedener Branchen erfolgreich umgesetzt und ihnen dabei geholfen, erheblichen Mehrwert aus ihren Daten zu ziehen. Neben seiner Tätigkeit bei IQI ist Christian auch Autor und Redner auf Konferenzen und organisiert den TDWI-Themenzirkel 'Data Strategy & Data Governance'.

Michael Kolb ist seit 14 Jahren im Business Intelligence-Umfeld tätig - davon seit über 8 Jahren als BI-Projektleiter und BI-Architekt im BICC der HUK-COBURG. Seit zwei Jahren begleitet er die Themen Data Cataloging und Data Governance im Kontext des erweiterten Daten-Ökosystems der HUK-COBURG.

Carsten Dittmar, Christian Fürber, Michael Kolb
K3
Carsten Dittmar, Christian Fürber, Michael Kolb
K3
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Mi 6.5
Turning your (maritime) data into a profit with Gaia-X
Turning your (maritime) data into a profit with Gaia-X

Daten sind das neue Gold” ist schon seit längerem ein Schlagwort oder eine eingängige Phrase. Und obwohl dies sicherlich stimmt, ist es wesentlich schwieriger, das Potenzial von Daten zu nutzen als das von Gold. Unternehmen sitzen auf Bergen von Daten, die sie oft kaum für ihre eigenen Zwecke nutzen, und schon gar nicht mit anderen Unternehmen teilen, um einen zusätzlichen Nutzen zu erzeugen. Die Gründe hierfür sind vielfältig und oftmals organisatorisch, rechtlich, technischer Natur. 

In diesem Talk werden wir zeigen, wie Gaia-X helfen kann, diese Hürden zu überwinden, indem wir aktuelle Use-Cases aus dem Projekt Marispace-X diskutieren. 

Zielpublikum: Decision Makers, Data Owners
Voraussetzungen: Ein grundlegendes Verständnis von Data Governance wäre hilfreich.
Schwierigkeitsgrad: Einsteiger

Extended Abstract:

Die maritime Welt basiert auf Daten. Große Infrastrukturprojekte wie Windparks, Unterseekabel und Pipelines benötigen riesige Mengen an Daten für die Planung, den Bau und die Wartung. Leider bleiben viele, bereits existierende, Datensätze unbenutzt oder sind von vornherein nicht zugänglich. Oft liegt dies an dem Aufwand, sie regelkonform zu teilen bzw. darauf zuzugreifen. Wenn es um die gemeinsame Nutzung von und den Zugriff auf kommerzielle Daten innerhalb der EU geht, ist die derzeitige Landschaft durch technische, rechtliche und organisatorische Hindernisse gekennzeichnet, die eine effektive Zusammenarbeit zwischen Unternehmen erschweren.
Dabei sitzen viele Unternehmen auf einem Berg an wertvollen Daten. In diesem Vortrag erläutern wir, wie Gaia-X dazu beitragen kann, diese Daten gewinnbringend zu nutzen und dabei viele Risiken und Reibungspunkte zu vermeiden.
Gaia-X ist eine europäische Initiative, die darauf abzielt, diese Hindernisse zu beseitigen und den Datenaustausch einfacher, sicherer und effizienter zu gestalten. Dieser Vortrag wird einige der Konzepte von Gaia-X einem breiteren Publikum näherbringen.
Anhand von realen Use-Cases aus dem Projekt Marispace-X (IoUT, Offshore-Wind, Munition im Meer, biologischer Klimaschutz) werden wir zeigen, welche Vorteile Gaia-X in diesem Szenario bieten kann und wie es dazu beitragen kann, die Herausforderungen des Datenaustauschs zu überwinden und die Zusammenarbeit und Innovation zu verbessern.

Nach diesem Vortrag wissen Sie mehr über Windparks, das maritime Daten-Ökosystem, Gaia-X und wie gemeinsame Daten zu einem Gewinn werden können.

Lars Francke has been involved in the OpenSource space since 2009. He's mainly focused on the Big Data ecosystem and has been a contributor and committer to various projects like Apache HBase or Apache Hive. He is also an Apache Foundation member and speaker at conferences about technical as well as community topics.
Lars co-founded two startups so far: OpenCore which focuses on consulting and Stackable (the GAIA-X member). He's currently serving as the CTO for Stackable.
Lars is 41 years old and lives with his girlfriend and two small children in northern Germany.

Sarah Gebauer is 31 years old, born in Kiel, therefore inevitably linked to the sea, and works at north.io as a project manager. Sarah is responsible for the research projects at north.io, which include Marispace-X among others. On the side, she is currently finishing her Master's degree in IT Management and will graduate this autumn. She has a strong background in digitalization due to her nine years at one of the largest logistic companies in northern Germany, where she lead several digitalization-projects.

Lars Francke, Sarah Gebauer
E101/102
Lars Francke, Sarah Gebauer
E101/102
Vortrag: Mi 6.5
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Mi 7.5
Limitiert Text Mining vs. Data Mining
Text Mining vs. Data Mining

Diese Session vermittelt die Unterschiede zwischen Data Mining und Text Mining, so dass auch hier die Teilnehmer in der Lage sind, diese zu erkennen und in eigenen Projekten zu berücksichtigen. Während der Session zeigen wir ein kleines Code-Beispiel, so dass der Eindruck für den Aufwand vermittelt wird.

Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
Rapidminer rapidminer.com (falls Sie kein Rapidminer Account anlegen möchten, suchen Sie bitte im Web nach der Version 5 und installieren Sie diese nach Download auf Ihrem Rechner. Bedenken Sie dann aber bitte, dass in der Software teilweise alternative Abläufe zu beachten sind.)

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/carsten.felden

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt. 

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/claudia_koschtial

Carsten Felden, Claudia Koschtial
F127
Carsten Felden, Claudia Koschtial
F127
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Mi 8.5
DWH Automation Challenge: DWH for Willibald on wherescape
DWH Automation Challenge: DWH for Willibald on wherescape

With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with WhereScape Data Vault Express. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald will be explained by DDVUG in a previous lecture.

Prerequisites: Basic Data Warehouse Knowledge
Level: Basic

Extended Abstract:
For the fictitious company Willibald, a complete data model with data is available that was created by DDVUG and provided with 13 typical challenges. In this presentation, the typical solutions are shown in WhereScape and
combined to form a complete data warehouse. This will give you an overall impression and the opportunity to get your own comprehensive impression of the tool.
WhereScape Data Warehouse Automation software solves one of IT’s biggest problems: how do I build a Data Warehouse with efficiency, reduced risk, and long-term viability?
Using automation, templates, and built-in intelligence, WhereScape increases architect and developer productivity, provides scalability with standards and allows you to take control of your own data whilst fostering collaboration between IT and the business.
With its breadth of technical support, including virtually every source, target, and design methodology, WhereScape helps you design, develop, deploy, and operate your Data Vault (or any other data architecture) at speed with ease.
Create raw vaults, business vaults, and star schema in just a few minutes and realise the performance and quality improvements by reducing hand-offs, tool changes, and other pitfalls of hand-written or partially-automated development efforts.

Dr. Sultan Shiffa is a senior solutions architect at WhereScape, helping customers and partners to maximise their use of WhereScape across a broad range of target database platforms, modelling styles and design patterns. Previously he worked within Enterprise Data Management at IDERA, as an expert for complex and diverse data management solutions and methodologies. The two decades before that he worked as an Oracle Certified Professional (OCP) DBA and database consultant.

As the Operations Director at WhereScape, Simon Spring is dedicated to developing the product roadmap and meeting the demands of customers and partners in the constantly evolving data warehousing and analytics landscape. Trained in software engineering and with a wealth of experience in successful analytics projects spanning multiple technologies and industries, Simon combines his passion for technology and automation with his commercial background in software sales and professional services, bringing a distinctive outlook to the realm of Data Warehouse Automation.

Thomas Heuer, based in Germany, is an experienced business and communications professional in the field of IT / Business Intelligence. His background in channel & direct sales at Sony and Samsung gives him a distinct perspective on the IT industry. Thomas is a strong proponent of automation and helps his clients unlock the full potential of their data. As Sales Director EMEA he has a thorough knowledge of the benefits that data warehouse automation can bring to businesses of any scale, and he is dedicated to assisting his clients in achieving their objectives and advancing their organizations.

Sultan Shiffa, Simon Spring, Thomas Heuer
F106
Sultan Shiffa, Simon Spring, Thomas Heuer
F106
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
SDmi1.6
Special Day INFOMOTION │ From Industrial Revolution to Hyperautomation: Exploring the Past, Present, and Future of Automation with Snaplogic and ChatGPT
Special Day INFOMOTION │ From Industrial Revolution to Hyperautomation: Exploring the Past, Present, and Future of Automation with Snaplogic and ChatGPT

Voraussetzungen: Awareness of what integration is. But not a must.
Schwierigkeitsgrad: Beginner/Entry-Level

Sebastian Flach ist Senior Strategic Account Executive bei SnapLogic. In den letzten 10 Jahren im Applikations- und Middleware-Business war Sebastian für verschiedene DAX-Konzerne sowie als Global Account Executive für Volkswagen tätig und betreut seit 5 Jahren Enterprise-Unternehmen in unterschiedlichen Industrien speziell im iPaaS und API LCM Umfeld. In früheren Tätigkeiten war Sebastian bereits für Training und softwarenahe Dienstleistungen verantwortlich.

Sebastian Florian Flach
F129
Sebastian Florian Flach
F129
Vortrag: SDmi1.6
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
SDmi4.2
Special Day BI or DIE Women in Data │ Brauchen wir Dashboard Standards? Unbedingt!
Special Day BI or DIE Women in Data │ Brauchen wir Dashboard Standards? Unbedingt!

Der Impulsvortrag geht am Beispiel von congstar und Pyramid Analytics darauf ein, wie Dashboard Standards den Weg zur Data Driven Company ebnen können. In der anschließenden Diskussion werden wir das Thema weiter vertiefen.

Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Janine Ellner ist als Lead Consultant für OPITZ CONSULTING Deutschland GmbH im Bereich Analytics tätig. Hier liegt ihr Schwerpunkt auf der ganzheitlichen Betreuung des Kunden. Dies umfasst die Analyse von Anforderungen, die Unterstützung bei fachlichen Fragestellungen sowie die Weiterentwicklung von DWH-Systemen. Ihr besonderes Interesse gilt Data-Culture-Themen sowie innovativen Technologien und modernen Analytics-Werkzeugen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/janine.ellner

Janine Ellner
F130
Janine Ellner
F130
Vortrag: SDmi4.2
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 16:45
Pause
Kaffee & Ausstellung / Coffee & Exhibition
Kaffee & Ausstellung / Coffee & Exhibition

16:45 - 17:30
Mi 1.6
Data Driven Insurance – was lässt sich mit Daten machen?
Data Driven Insurance – was lässt sich mit Daten machen?

Daten können sich positiv auf alle Versicherungsprozesse auswirken - vom Underwriting, der Preisgestaltung, der Risikoprüfung und der Rückversicherung bis hin zur Kuratierung persönlicher Empfehlungen und anderen strategischen Marketingentscheidungen. Bislang wird von diesen Möglichkeiten aber nur begrenzt Gebrauch gemacht. Wir zeigen Möglichkeiten und Grenzen des Einsatzes von (externen) Daten im Versicherungsbereich sowie konkrete Use Cases aus verschiedenen Versicherungssparten.

Externe Daten liefern viele zusätzliche oder aktualisierte Erkenntnisse und eröffnen damit neues Geschäftspotenzial.

Zielpublikum: Versicherungsfachleute, Data-Analyst:innen, Innomanager:innen, Produktentwickler:innen
Voraussetzungen: Grundlagen Versicherung
Schwierigkeitsgrad: Fortgeschritten

Markus Gützlaff hat mehr als 20 Jahre Erfahrung in der Beratung und Prüfung von Erst- und Rückversicherungsunternehmen mit Schwerpunkt auf den europäischen, südostasiatischen und afrikanischen Versicherungsmärkten. Er ist derzeit Client Data Analytics Deutschland.

Markus Gützlaff
K4
Markus Gützlaff
K4
Vortrag: Mi 1.6
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:30
Mi 2.6
Finding the right Data Strategy – Welcher Mesh-Typ sind Sie?
Finding the right Data Strategy – Welcher Mesh-Typ sind Sie?

Data Mesh erobert die Datenwelt im Sturm, obwohl das wegweisende Architekturkonzept in der Reinform für die meisten IT-Abteilungen noch nicht praktikabel ist. In verschiedenen Ausbaustufen der Dezentralisierung kann der Ansatz aber auch heute schon zu einer deutlich effizienteren Datennutzung in Unternehmen beitragen.

Jens Kröhnert stellt Ihnen anhand von Praxisbeispielen die wichtigsten Entscheidungskriterien für unterschiedliche Data Mesh-Ausprägungen vor. Ausgangspunkt bilden dabei Full-, Governed- und Hybrid-Varianten. 

Zielpublikum: Data Engineers, Data Architects, Projektleiter:innen, Entscheider:innen
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger

Jens Kröhnert verfügt über langjährige Erfahrung in der Planung und Umsetzung von Digitalisierungsprojekten. Als Innovationsexperte hat er für ORAYLIS immer die neuesten Technologien und Entwicklungen im Blick.

Jens Kröhnert
F111
Jens Kröhnert
F111
Vortrag: Mi 2.6
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:30
Mi 3.6
Closing the loop: Product innovation fueled by IoT and AI
Closing the loop: Product innovation fueled by IoT and AI

The theory of a data flywheel in consumer IoT devices is simple. However, implementation is challenging and realising sustainable value from it is even harder. This talk will outline our journey with IoT appliances at Miele, and how we are combining the power of IoT and AI to drive continuous improvement and shape the next generation of appliances.

Target Audience: Product Owners, Decision Makers, AI & Data Leaders/Strategists, Data Scientists
Prerequisites: None - I will break it down to understandable pieces
Level: Basic

Florian Nielsen is Director of AI & Data in the Smart Home/Electronics division at Miele & Cie. KG, the premium home appliance manufacturer. The main challenge is to help leading a manufacturing company through digital transformation by building AI & Data capabilities to infuse decision making with data and manoeuvre the company towards a mastery of data-driven product development.

Florian Nielsen
E124
Florian Nielsen
E124
Vortrag: Mi 3.6
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:30
Mi 4.6
Globale Fabrik-Anbindung & Auswertung mit Self-Service Tools
Globale Fabrik-Anbindung & Auswertung mit Self-Service Tools

Anbindung von mehr als 30 Fabriken weltweit mittels Self-Service Tools unter Beachtung von ISO-Standards zur Konsolidierung und Analyse der Daten. Reduzierung der Implementierungszeit von durchschnittlich mehr als 6 Monaten auf weniger als 2 Wochen pro Fabrik.

Zielpublikum: Projektmanager:innen, Data Engineer, Business User
Voraussetzungen: keine, Grundverständnis von Datenverarbeitung nicht von Nachteil
Schwierigkeitsgrad: Einsteiger

Markus Dörnhöfer ist ein ergebnisorientierter Elektroingenieur mit Fachkenntnissen in der Automatisierungstechnik und nachgewiesener Erfahrung im Produktmanagement und in der Anwendungstechnik. Er ist in der Lage, technische Lösungen zu implementieren, Anforderungen zu erfassen und zu priorisieren sowie hervorragenden technischen Support zu leisten.

Alexander Gross ist studierter Informatiker, der aktuell als lösungsorientierter Automatisierungs- und Daten-Experte bei M2 arbeitet. Er publizierte zwei Bücher zur Mathematik des 16. Jahrhunderts. Er leitet die deutsche Alteryx User Group und ist einer von zwei deutschen Alteryx ACEs.

Markus Dörnhöfer, Alexander Gross
E119
Markus Dörnhöfer, Alexander Gross
E119
Vortrag: Mi 4.6
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:30
Mi 5.6
Data Governance Plattform Austria @ Finanzministerium
Data Governance Plattform Austria @ Finanzministerium

Das Bundesministerium für Finanzen (BMF) leistet alle operativen Prozesse der Finanzverwaltung und hat daher umfassende Daten über alle Geschäftsfälle. Die Data Governance Plattform Austria schafft nun die Basis für ein fachliches Verständnis dieser Daten für alle Datennutzer:innen, das durch Data Stewards bereitgestellt wird. Gleichzeitig bildet sie die Grundlage für die technische Implementierung im zentralen DWH bis hin zur DWH Automation. Nur durch konsequente Awarenessbildung war dieses Projekt möglich und die Anstrengung geht noch weiter.

Zielpublikum: Data Governance Manager, DWH-Verantwortliche, IT-Projektleiter:innen
Voraussetzungen: Grundwissen im Bereich von Reporting & DWH
Schwierigkeitsgrad: Einsteiger

Leiter der Applikation Controlling- und Managementinformationssysteme des BMF
Alexander Franz verantwortet als Applikationsleiter im Bundesministerium für Finanzen den großen Datenschatz im Zollwesen der Republik Österreich. Sein unermüdlicher Einsatz zum Thema Data Governance hat dazu geführt, dass das BMF nun eine Data Governance-Grundlage für viele Ministerien und öffentliche Organisationen geschaffen hat.
 

Alois Caraet bildet die Brücke zwischen der IT-Welt im Bundesrechenzentrum und dem Fachbereich im Bundesministerium für Finanzen. Mit seinem Datenverständnis und einem breiten fachlichen Wissen legt er den inhaltlichen Grundstein für Data Governance im BMF.

Alexander Franz, Aloisious Caraet
K3
Alexander Franz, Aloisious Caraet
K3
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:30
Mi 6.6
Modern analytics platform in the railway industry
Modern analytics platform in the railway industry

A traditional Swiss railway company that operates train connections throughout the alps. Swisscom implemented a modern analytics platform based on Microsoft Azure to integrate vast amounts from technical and commercial sources. Among other use cases, the customer can now predict the arrival times of their trains in near-real time. The platform is based on a loosely-coupled architecture consisting solely of native PaaS services and leverages modern IaC capabilities to fully automate the deployment.

Target Audience: Business Decision-Makers, Architects, Data Engineers, and people from the transportation industry
Prerequisites: Basic understanding of data & analytics platforms
Level: Advanced

Tim Giger is an experienced developer, architect, and project manager with over eight years of experience in the data management consulting industry, and with a variety of technologies (SAP, Microsoft, Open Source, Cloudera) in various industries. Proven expert and speaker at Big Data conferences as well as a lecturer for Data & Analytics at the Zurich University of Applied Sciences for Business (HWZ).

Matthias Mohler is a result-oriented leader and consulting practice manager with 15+ years of experience in the technology industry. Proven track record in line management and project management. Successfully delivered projects and advisory mandates with responsibility for people, budget, and scope. Experience includes assignments for national and international clients in many industries. Holder of an MBA, certificates of advanced studies (IT management, leadership), a college degree in business information systems, and several professional certifications in technology (SAP, Microsoft, AWS) and methodology (e.g. PMP, TOGAF, ITIL). Lecturer at the University of Applied Sciences in Business Administration Zurich (HWZ) and the Lucerne University of Applied Sciences (HSLU).

Tim Giger, Matthias Mohler
E101/102
Tim Giger, Matthias Mohler
E101/102
Vortrag: Mi 6.6
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:30
Mi 8.6
Panel Discussion “DWH Automation Pioneer Talk”
Panel Discussion “DWH Automation Pioneer Talk”

Being well informed about tools and their capabilities is one thing, but what can I expect when I embark on data warehouse automation?
We have three experts with very different experiences and three completely different approaches who will talk about implementation, reasoning, development speed, costs/benefits, metadata and lessons learned in this panel discussion.

Andreas Buckenhofer arbeitet bei Mercedes-Benz Tech Innovation in Ulm als Lead Expert 'Vehicle Data Platforms'. Er verfügt über langjährige Erfahrung in der Entwicklung datenintensiver Produkte. Seine Schwerpunkte dabei sind insbesondere Datenarchitektur, Datenspeicherung, Datenintegration und Datenqualität.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/andreas.buckenhofer

Michael Kwiatkowski - Head of Data & AI at Volkswagen Commercial Vehicles. Together with his Team they had been early adaptors of Data Vault Automation Solutions within the Volkswagen Group.
Together with his Team they had been early adaptors of Data Vault Automation Solutions within the Volkswagen Group.

Oliver Grohmann - IT Staff Data Engineer at ams OSRAM - IT Data Analytics
As an IT Staff Data Engineer at ams OSRAM Oliver Grohmann is responsible for the Enterprise Data Model in the Cloud Data Warehouse. In the IT Data Analytics team he supports the setup and evolution of the Cloud Data Platform as well as the definition of implementation standards and best practices.

Christian Hädrich ist BI-Spezialist und unterstützt seit über 20 Jahren Unternehmen bei der Entwicklung von dispositiven Anwendungen und Data Warehouses. Durch seinen Mainframe-Hintergrund ist er häufig bei großen Unternehmen wie Versicherungen und Banken tätig. Neben der Implementierung liegt der Schwerpunkt seiner Arbeit in der Architektur- und Prozessberatung. Seit 8 Jahren beschäftigt er sich intensiv mit den Themen DWH-Automatisierung und Data Vault. Er ist Mitglied im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V.

Michael Müller ist seit mehr als 20 Jahren im BI-Bereich tätig. Seine Schwerpunkte liegen in den Bereichen Datenmodellierung und Datenarchitektur sowie Data Vault, DWH-Automatisierung und Einbettung von BI im Unternehmen. Derzeit ist er im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V. tätig.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/michael.mueller

Andreas Buckenhofer, Michael Kwiatkowski, Oliver Grohmann, Christian Hädrich, Michael Müller
F106
Andreas Buckenhofer, Michael Kwiatkowski, Oliver Grohmann, Christian Hädrich, Michael Müller
F106
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:30
SDmi1.7
Special Day INFOMOTION │ Domain-orientierte Datenarchitekturen als Business-Enabler am Beispiel ESG-Reporting
Special Day INFOMOTION │ Domain-orientierte Datenarchitekturen als Business-Enabler am Beispiel ESG-Reporting

Der Anspruch der Unternehmen an die Datenanalyse steigt stetig. Das benötigt einerseits immer mehr und aktuellere Daten, andererseits aber auch eine hohe Fach- bzw. Branchen-Kenntnis. Daher muss eine moderne Datenarchitektur den fachlich orientierten Datenanalysten einen einfachen und agilen Umgang mit Daten ermöglichen. Wie aber kann das gelöst werden, wo doch die IT-Systeme immer komplexer und heterogener werden? Jan Ulrich Maue, Senior Sales Engineer bei Denodo, zeigt am Praxisbeispiel ESG-Reporting, wie dieser Spagat mit einer Domain-orientierten Datenarchitekturen effizient und zukunftssicher gelöst werden kann.

Voraussetzungen: Grundkenntnisse Datenarchitektur
Schwierigkeitsgrad: medium

Jan Ulrich Maue ist Senior Sales Engineer bei Denodo Technologies. In dieser Funktion berät er Kunden zu komplexen Datenmanagement- und Datenintegrationsprojekten und führt Proof of Concepts in der Region Zentral- und Osteuropa. Jan Maue bringt ein breites Spektrum an Branchenkenntnissen mit, darunter Business Intelligence, Datensicherheit und -speicherung, und verfügt über mehr als zwei Jahrzehnte Erfahrung im Bereich Pre-Sales und Consulting.

Jan Ulrich Maue
F129
Jan Ulrich Maue
F129
Vortrag: SDmi1.7
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:30
SDmi4.3
Special Day BI or DIE Women in Data │ 5 Fehler, die Du bei der Arbeit mit Daten auf keinen Fall machen sollst!
Special Day BI or DIE Women in Data │ 5 Fehler, die Du bei der Arbeit mit Daten auf keinen Fall machen sollst!

Wir beschäftigen uns mit häufigen Fehlern, die bei der Arbeit mit Daten passieren können. In dem Vortrag werden fünf grobe Datenpannen vorgestellt und erläutert, wie man diese vermeiden kann. Dabei geht es nicht nur um technische Fehler, sondern um Fehler in der Datenanalyse und der Interpretation von Daten. Der Vortrag richtet sich an alle, die mit Daten arbeiten, sei es im beruflichen oder privaten Kontext, und soll dazu beitragen, dass man Daten korrekt und effektiv nutzen kann, ohne dabei Fehler zu machen.

Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Dilyana Bossenz ist Gründerin von Datenkompetenz-Online und Dozentin für Data Visualization & Communication an der Digital Business University of Applied Sciences (DBU).
Sie arbeitete mehrere Jahre als BI-Beraterin bei Good Healthcare Group GmbH, Ceteris AG und M2.technology & project consulting GmbH. Gleichzeitig war sie bei M2 in leitender Funktion als Enablement Managerin tätig. Ihre Aufgabe war es, dafür zu sorgen, dass sowohl Kunden als auch Mitarbeiter:innen den richtigen Umgang mit Daten erlernen. In ihrer beruflichen Laufbahn hatte sie bereits eigenständig Trainings entwickelt und durchgeführt. Im Jahr 2023 absolvierte sie erfolgreich die Ausbildung zur KI-Trainerin am AI Training Institute und unterrichtet seither den Einsatz von KI-Tools bei der Arbeit mit Daten.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/dilyana_bossenz

Dilyana Bossenz
F130
Dilyana Bossenz
F130
Vortrag: SDmi4.3
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
Mi 1.7
Regulatorik von ESG-Risiken – eine proaktive IT-Strategie
Regulatorik von ESG-Risiken – eine proaktive IT-Strategie

ESG-Risiken (Environment, Governance, Social) rücken in den Fokus der Bankenregulatorik. Welche Bank weiß heute, welche Kreditobjekte in einer wettergefährdeten Region liegen? Wie viel CO2 stoßen die finanzierten Fahrzeuge aus? Es gilt, neue externe Datenquellen teils unbekannter Qualität anzubinden, unstrukturierte Daten aufzubereiten und zu analysieren. Ohne KI und Natural Language Processing kaum leistbar. Wie kann eine proaktive Strategie der Banken-IT aussehen? Wo sind Hürden? Welche Best Practices und Erfahrungen gibt es bereits?

Zielpublikum: Projektleiter:innen, CDO, Data Engineer, Data Scientist
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Chancen und Risiken aus den Bereichen 'Environment, Social and Governance' (ESG) werden für Finanzinstitute immer wichtiger. Die regulatorischen Anforderungen an Bewertung und Offenlegung der ESG-Risiken steigen kontinuierlich. Die Aufnahme in das Risikomanagement ist auch wirtschaftlich essenziell.  

Für die Banken-IT bedeutet dies die Integration und Verarbeitung neuer Daten bisher unbekannter Art und Qualität. Heterogene, oft unstrukturierte Daten mit hoher Granularität müssen zu ESG-Kennzahlen verdichtet werden: Beispiele sind Kataster, Wetterdaten, geologische und topografische Informationen, Satellitenbilder, Zertifikate und Energieausweise. Analyse und Forecast sind ohne Big Data, KI und Natural Language Processing kaum leistbar. Gleichzeitig ist die IT selbst Objekt der Analyse und ein ESG-Nachhaltigkeitsfaktor.

Wir stellen einen proaktiven Lösungsansatz vor und teilen mit Ihnen Erfahrungen und Best Practices aus Kundenprojekten. 

Sonja Maria Lehmann beschäftigt sich seit 1996 mit Business Intelligence und Data Analytics. Nach einer Tätigkeit als Referentin für Wirtschafts- und Unternehmensethik sowie Führungspositionen in verschiedenen Kreditinstituten und Consultingunternehmen gründete sie 2003 die solecon GmbH. Sie berät Unternehmen und hält Seminare und Workshops zu Nachhaltigkeit, Sustainable Business Transformation, Unternehmensethik, Corporate Digital Responsibility und KI.

Ralf Penndorf ist seit Januar 2010 Vorstand der CURENTIS AG. CURENTIS ist ein auf Anti-Financial Crime, Sustainable Finance und Bankenregulatorik spezialisiertes Consultingunternehmen. Bis Ende 2009 war Ralf Penndorf 3 Jahre Vorstand der FERNBACH Software AG und 6 Jahre Geschäftsbereichsleiter Banken bei ALLDATA SYSTEMS mit der Zuständigkeit für das Core Banking.

Sonja Maria Lehmann, Ralf Penndorf
K4
Sonja Maria Lehmann, Ralf Penndorf
K4
Vortrag: Mi 1.7
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
Mi 2.7
Data Mesh & Data Platform to the Rescue? Results of a Survey
Data Mesh & Data Platform to the Rescue? Results of a Survey

For large organizations, the challenges of enterprise-level data management are manifold. Leftovers of various integration / decentralization exercises and sourcing initiatives, system components of all kinds (DHWs, ODSs, data lakes and mixed forms), a complex mesh of central and decentral governance and ownership. Data Mesh and Data Platform promise to solve problems of complexity, heterogeneity, and efficiency. Supported by the Data Management & Analytics Community (DMAC), we studied status quo and plans in ten large companies.

Target Audience: CDO/CIO, Senior Analytics Management, Senior Data Management (especially in larger organizations)
Prerequisites: none (general awareness of enterprise-level, cross-solution data management challenges)
Level: Advanced

Robert Winter, University of St. Gallen (HSG), Switzerland is a full professor of business & information systems engineering and director of HSG's Institute of Information Management. He is also founding director of HSG's Executive MBA program in Business Engineering. His main research interests are design science research methodology and enterprise-level IS management topics such as architectural coordination, governance of digital platforms, governance of enterprise transformation, and enterprise-level data management. Since more than ten years, Robert Winter and Stephan Aier organize HSG's Data Management & Analytics Community (DMAC), a cooperation format of large companies to discuss good practices of enterprise-level data and analytics management.

Robert Winter
F111
Robert Winter
F111
Vortrag: Mi 2.7
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
Mi 3.7
Winning the game with advanced statistics
Winning the game with advanced statistics

Im Gegensatz zu anderen Sportarten werden im Basketball bereits seit Jahren einfache statistische Analysen genutzt. Die Weiterentwicklung dieser Analysen soll helfen, Spiel-, Spieler- und Team-Koordination entscheidend zu verbessern. Nur wenn das Team als Ganzes funktioniert und ein Plan zur Vorbereitung auf den nächsten Gegner ausgearbeitet ist, kann eine Performance erreicht werden, die auf nationaler und internationaler Ebene ausreichend für die Ansprüche eines europäischen Spitzenteams ist.

Zielpublikum: Geschäftsführer:innen, BI-Analyst:innen, IT-Verantwortliche, Sport-Interessierte
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
In diesem Vortrag zeigen wir, welche neuen Daten und Advanced Analytics der FC Bayern Basketball zusätzlich einsetzt, 

  • um sich gezielt auf den nächsten Gegner vorzubereiten bei kürzester Vorbereitungszeit (zum Teil weniger als 48 Stunden) 
  • um pro Saison das vermeintlich optimale Team bei einem limitierten Budget (meist nur ein Bruchteil der Konkurrenz auf internationaler Ebene) zusammenzustellen.

Jens Leutenecker (36) arbeitet seit der Saison 2020/21 beim FC Bayern Basketball als Analytics Coordinator. 
Er begann seine Karriere als Video Analyst bei den MHP Riesen Ludwigsburg während des Studiums der Sportpublizistik (Universität Tübingen) und arbeitete später als Assistenztrainer bei den WALTER Tigers Tübingen in der Bundesliga. 
Während seines Head Coach Engagements in Fellbach (1. Regionalliga) und der Tätigkeit als Live-Analyst für Brose Bamberg, gründete er sein Analytics Start up Basketball Momentum, das sich auf die präzise Bemessung von Basketball-Daten für Wettanbieter spezialisiert hat.

Wolfgang Perzl hat Informatik mit Nebenfach Wirtschaftswissenschaften an der Technischen Universität München studiert. Der Dipl.-Informatiker startete seine berufliche Laufbahn beim Datenbankhersteller Informix Software und kam über mehrere technische und internationale Managementpositionen unter anderem bei der späteren Ascential Software zur IBM Deutschland. 
Nach weiteren Stationen gründete Wolfgang Perzl 2013 schließlich die infologistix GmbH als unabhängige IT-Consulting-Firma mit den Schwerpunkten Data Warehousing und BI. Als Geschäftsführer führt er gemeinsam mit René Schiebeck das operative Geschäft der infologistix und verantwortet die Bereiche Personal, Marketing und Business Development/Big Data.

Jens Leutenecker, Wolfgang Perzl
E124
Jens Leutenecker, Wolfgang Perzl
E124
Vortrag: Mi 3.7
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
Mi 4.7
Dashboard Karaoke – "get insights on point or cry trying"
Dashboard Karaoke – "get insights on point or cry trying"

Auf den Punkt kommen - das ist es, wofür Dashboards da sind!
Genauso wie ein guter Witz sollte ein Dashboard nicht erklärt werden müssen, sondern schnell zu verstehen sein.
Genau das testen wir live im Dashboard Karaoke: 
Sind Personen, die ein Dashboard zum ersten Mal sehen, in der Lage, die Kernaussagen und Informationen schnell zu erfassen? Oder können sie es nicht und das Dashboard ist einfach schlecht?
Live & Unplugged im Self-Service-Track @TDWI München

Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe. 
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld. 

Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.

Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.

In den letzten 16 Jahren spezialisierte sich Philipp Baron Freytag von Loringhoven auf die Unterstützung von Unternehmen bei der Entwicklung effektiver Werbekampagnen mithilfe von Daten und Marketing-Analytics. Er leitete internationale Marketing- und Data-Teams für Start-ups und Unternehmen. Als Freelancer hilft er Firmen bei einer Nutzung ihrer Daten, die zu weiterem Marketing- und Sales-Erfolg führt. Philipp möchte durch und dank Daten wieder bessere, interessantere Werbung sehen. Werbung, die begeistert, die anspricht. Deshalb betreibt er seit 2020 auch den Podcast Dataengage, um mehr Menschen den Zugang zu Daten, Technologie und Marketing zu ermöglichen.

Artur König, Philipp Baron Freytag von Loringhoven
E119
Artur König, Philipp Baron Freytag von Loringhoven
E119
Vortrag: Mi 4.7
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
Mi 5.7
Die Bürkert BI- und Analytics-Umgebung
Die Bürkert BI- und Analytics-Umgebung

Bürkert konzentriert sich auf Lösungen für das Messen, Steuern und Regeln von Gasen und Flüssigkeiten. Seinen 3000 Mitarbeiter steht eine umfangreiche BI- und Analytics-Umgebung zur Verfügung (operative Analytics, BI Stack, Self-Service Analytics, Process Mining, Advanced Analytics). Der Vortrag beschreibt, wie die Umgebung strukturiert ist, welche Technologien warum angewandt werden und wie die Umgebung von einem 5-köpfigen Team betreut und weiterentwickelt wird.

Zielpublikum: BI- & Analytics-Verwantwortliche
Voraussetzungen: Grundwissen über BI & Analytics
Schwierigkeitsgrad: Einsteiger

Lars Iffert befasst sich mit den Themen Datenmanagement (Architekturen, Datenintegration, Datenqualität, Data Governance), Business Intelligence und Advanced Analytics. Als Analyst und Berater erstellte er Research und wirkte in Strategie- und Technologe-Projekten. Im Bürkert Team unterstützt er sowohl den operativen Betrieb als auch die strategische Weiterentwicklung der BI- und Analytics-Landschaft.

Lars Iffert
K3
Lars Iffert
K3
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
Mi 6.7
How to bootstrap your Industry 4.0 IoT Platform
How to bootstrap your Industry 4.0 IoT Platform

Die Überwachung einer Fertigungsanlage und Erhebung kritischer Kennwerte mithilfe von Sensoren ist der Klassiker der IoT. Doch wie startet man ein solches Projekt? Welche Komponenten benötigt man und wo kann bzw. soll die Reise hingehen? 

Ein Erfahrungsbericht vom Aufbau einer Datenpipeline 'from scratch'. Vom Aufsetzen einer ersten einfachen Datenbank bis zur Echtzeitstreaming-Plattform. Von der Synchronisierung verschiedener Sensoren bis zur Datentransformation als Basis zur KI-Überwachung und Optimierung des Fertigungsprozesses in Echtzeit.

Zielpublikum: Data Engineer, Data Scientist, MLOps Engineer, Projektleiter:innen, Entscheider:innen, ...
Voraussetzungen: Interesse an Predictive Maintenance, IoT, Echtzeitsignalverarbeitung, Machine Learning
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
In dieser Session erzählen wir euch von unseren Erfahrungen bei der Umsetzung eines IoT-Predictive Maintenance-Projekts 'from scratch'. 

Wir starten mit dem Aufsetzen eines verteilten Sensorsystem zur Überwachung einer Fertigungsanlage. Fundamentale Herausforderungen sind hier die Synchronisierung der verschiedenen Sensoren sowie der Transfer der Daten in Echtzeit. 

Die Sensoren produzieren täglich Hunderte Gigabyte an Daten, welche es in Echtzeit aufzubereiten, zu analysieren und zu speichern gilt. Dies ermöglicht uns die Echtzeitauswertung der Daten mithilfe von Machine Learning-Verfahren. Die Ergebnisse können direkt als Feedback in den Produktionsprozess einfließen und erlauben die Optimierung des Prozesses in Echtzeit. 

Unser modularer und skalierbarer Ansatz ermöglicht dabei die einfache Einbindung zusätzlicher Sensoren sowie Datenverarbeitungsschritte. 

Unser Tech-Stack: Apache Kafka, Apache Spark, Apache Cassandra, Python, FastAPI, Precision-Time-Protocol, Grafana

Stephan Brehm (Dr. rer. nat. Machine Learning & Computer Vision) forschte über Jahre im Bereich des maschinellen Sehens unter Einsatz modernster Deep-Learning-Techniken. Inzwischen setzt er die erworbene Erfahrung als MLOps Engineer beim Management von Daten von der Erhebung bis zur Verwertung ein.

Benedikt Hofbauer (M.Sc. Biology) sammelte als Neurobiologe über Jahre Erfahrung mit der Akquise und Auswertung biologischer Daten. Inzwischen arbeitet er als Data Engineer in mehreren Projekten an der Datenintegration und Datenvisualisierung von Big Data, speziell im Bereich IoT.

Stephan Brehm, Benedikt Hofbauer
E101/102
Stephan Brehm, Benedikt Hofbauer
E101/102
Vortrag: Mi 6.7
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 19:00
Mi 7.7
c/o data science Barcamp
c/o data science Barcamp

Es darf diskutiert werden.

Bring Dein Wissen mit. Bring Deine Themen mit. Bring Deine Fragen mit. Alles kann, nichts muss. Halt! Eins muss. Du musst Bock haben auf Austausch, Interaktion und Wissenstransfer.
Auf der TDWI München 2023 präsentieren wir ein Barcamp exklusiv zum Themenkomplex Data Science. Als Vorgeschmack auf unsere Konferenz c/o data science am 09. November 2023.

Jedes Barcamp ist so unterschiedlich wie seine Besucher. Denn ein Barcamp lebt von Deiner Beteiligung. Du gestaltest das Barcamp mit, indem Du Dich an den Diskussionen beteiligst. Es gibt keine Agenda vorab. Alles ergibt sich aus den Teilnehmer:innen.
Du kannst Deine Fragen, Thesen und Projekte in einem kurzen Impulsvortrag von 5 bis max. 15 Minuten vorstellen und so selbst die Diskussion starten.
Freue Dich auf den Austausch und den Mehrwert, den Du aus der Diskussion zu Deinen Themen haben wirst.

Eins können wir schon versprechen: Es kommen immer interessante Menschen, die Fragen mitbringen, Projekte vorstellen oder vorstellen möchten, was sie bereits gelernt haben.
Beteilige auch Du Dich an den Diskussionen oder werde Sessionleiter.

Thomas Löchte ist Gründer und Geschäftsführer der Informationsfabrik GmbH. Seit über 20 Jahren unterstützt er Kunden dabei, mehr Nutzen aus Daten zu gewinnen. Er war in verschiedenen Rollen in Data Analytics-, Business Intelligence- und Data Science-Projekten tätig. Heute berät er Führungskräfte hinsichtlich strategischer Themen und plant die Umsetzung komplexer Data Analytics-Lösungen für die Kunden der Informationsfabrik. Dabei legt er großen Wert auf die Erarbeitung Nutzen stiftender Business Cases, ein gutes Zusammenspiel zwischen Business und IT und eine positive Zusammenarbeit im Team.

Thomas Löchte
F127
Thomas Löchte
F127
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
Mi 8.7
Release Party for Willibald Data and DWH Automation Tool Evaluation Portal
Release Party for Willibald Data and DWH Automation Tool Evaluation Portal

The results of the DWH Automation Challenge are made available in a web-portal. The data and the data model for Willibald are made freely available.
A good reason to celebrate!
A pleasant way to end a long day on DWH automation and an exchange of ideas in a relaxed atmosphere.

Prerequisites: Basic Data Warehouse Knowledge
Level: Basic

Christian Hädrich ist BI-Spezialist und unterstützt seit über 20 Jahren Unternehmen bei der Entwicklung von dispositiven Anwendungen und Data Warehouses. Durch seinen Mainframe-Hintergrund ist er häufig bei großen Unternehmen wie Versicherungen und Banken tätig. Neben der Implementierung liegt der Schwerpunkt seiner Arbeit in der Architektur- und Prozessberatung. Seit 8 Jahren beschäftigt er sich intensiv mit den Themen DWH-Automatisierung und Data Vault. Er ist Mitglied im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V.

Michael Müller ist seit mehr als 20 Jahren im BI-Bereich tätig. Seine Schwerpunkte liegen in den Bereichen Datenmodellierung und Datenarchitektur sowie Data Vault, DWH-Automatisierung und Einbettung von BI im Unternehmen. Derzeit ist er im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V. tätig.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/michael.mueller

Christian Hädrich, Michael Müller
F106
Christian Hädrich, Michael Müller
F106
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
SDmi1.8
Special Day INFOMOTION │ Do more with trusted data – faster. The Collibra Data Intelligence Platform
Special Day INFOMOTION │ Do more with trusted data – faster. The Collibra Data Intelligence Platform

In his talk Paul Dietrich shares proven best practices from Collibra customers and ways to support those 66 % of companies that still struggle with turning data into actionable insights.

Paul Dietrich
F129
Paul Dietrich
F129
Vortrag: SDmi1.8
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
SDmi4.4
Special Day BI or DIE Women in Data │ Warum ist Data Literacy eine Zukunftskompetenz in der Arbeitswelt von morgen?
Special Day BI or DIE Women in Data │ Warum ist Data Literacy eine Zukunftskompetenz in der Arbeitswelt von morgen?

Digitalisierung heißt: Daten. Zukünftige Herausforderungen in Organisationen sind immer mehr von Daten bestimmt, sind komplex und machen nicht mehr an Abteilungsgrenzen Halt. Wie kann Data Literacy allen Mitarbeitenden den nötigen Perspektivenwechsel ermöglichen, damit Daten im Bewusstsein aller vom „Nebenprodukt“ zum „Asset“ werden?

Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Katharina Schüller - die vielfach ausgezeichnete Unternehmerin und Expertin für Data Literacy berät Unternehmen und Ministerien zu den Themen Datenkompetenz, Datenkultur und Datenstrategie. Sie koordiniert die Entwicklung eines globalen IEEE-Standards für Data & AI Literacy, ist Mitglied des Digitalgipfels der Bundesregierung und hat zahlreiche Bücher und Fachartikel veröffentlicht.

Katharina Schüller
F130
Katharina Schüller
F130
Vortrag: SDmi4.4
flag VORTRAG MERKEN

Vortrag Teilen

19:00 - 20:30
TDWI
TDWI Mitgliederversammlung
TDWI Mitgliederversammlung

F111
F111
Vortrag: TDWI
flag VORTRAG MERKEN

Vortrag Teilen

08:00 - 09:00
Pause
Kaffee & Registrierung / Coffee & Registration
Kaffee & Registrierung / Coffee & Registration

09:00 - 09:45
Do 1.1
Data Literacy – Zwischen Bullshit und Bias
Data Literacy – Zwischen Bullshit und Bias

Die unbequeme Wahrheit ist: Data Literacy ist Disruption. Gemeinsam durchleben wir in diesem Vortrag anhand von Geschichten aus der Praxis die disruptive Qualität von gescheiterten Ansätzen, in denen Zukunft und Vergangenheit aneinander prallen.  

Sie nehmen eine Liste von Fehlern anderer mit, aber auch die Gewissheit, dass Sie einer kulturellen und organisatorischen Disruption gegenüber stehen. Wie stark Sie diese trifft, finden wir in dem Vortrag raus.

Zielpublikum: CDOs, Entscheidungsträger:innen, IT-Leiter:innen als Verantwortliche der Datennutzung, Data Engineers als Ausführende
Voraussetzungen: Verständnis über die Bedeutung von Data Culture und Data Literacy für die Zukunft von Unternehmen
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Data Literacy ist die Fähigkeit, kritisch mit Daten umzugehen. Datendemokratisierung verspricht die Befreiung von Daten zugunsten Aller aus den Händen Weniger. Eifrig werden Selfservice-Konzepte, Trainingskonzepte und Strategien erarbeitet. In Goldgräberstimmung werden Datenschätze vermutet, die komplette Belegschaft von Unternehmen wird mit Waschschalen ausgestattet, um das Gold aus dem Datenfluss zu waschen. Währenddessen hat es Medienkompetenz noch immer nicht überall auf den Stundenplan in Schulen geschafft hat.

Meist bleiben tiefe Enttäuschung und unerfüllte Erwartungen zurück. Statt auf Nuggets schaut man auf ein paar Krümmel Gold. Kritischer Umgang mit Daten führt auch zu lästigen kritischen Fragen, die allgemeine Verfügbarkeit von allen Daten auf der Suche nach der optimalsten Lösung verlangsamt Entscheidungsprozesse. Im Zweifel hilft ja immer noch der Einsatz von KI, wird behauptet.

Die unbequeme Wahrheit ist: Data Literacy ist Disruption. Gemeinsam durchleben wir in diesem Vortrag anhand von Geschichten aus der Praxis die disruptive Qualität von gescheiterten Ansätzen, in denen Zukunft und Vergangenheit aneinander prallen. Angefangen von der Tyranny of small decisions und Decision Fatigue über Wenn-wir-das-gewusst-hätten bis zur Überforderung der Organisation.  

Sie nehmen eine Liste von Fehlern anderer mit, aber auch die Gewissheit, dass Sie einer kulturellen und organisatorischen Disruption gegenüber stehen. Wie stark Sie diese trifft, finden wir in dem Vortrag raus.

Christian Schneider ist der Bereichsleiter Data & Analytics bei der QuinScape GmbH. Als Consultant und Projektleiter war er langjährig in internationalen Großprojekten tätig und kennt die vielfältigen Herausforderungen unterschiedlichster Integrations- und Analytikszenarien aus der praktischen Arbeit. Insbesondere der Aspekt des Aufbaus von nachhaltigen Dateninfrastrukturen mit einem überschaubaren Kostenrahmen im späteren Betrieb durch eine gezielte Data Governance waren dabei wichtige Meilensteine. Er ist Co-Autor mehrerer Bücher und regelmäßiger Speaker bei Meetups und Konferenzen.

Christian Schneider
K3
Christian Schneider
K3
Track: #MessUps
Vortrag: Do 1.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:45
Do 2.1
Low Code DWH – Turbo für den datengetriebenen Mittelstand
Low Code DWH – Turbo für den datengetriebenen Mittelstand

Der Aufbau eines Data Warehouse ist erfahrungsgemäß sehr aufwendig und langwierig. Gerade in Zeiten von Fachkräftemangel stellt es v. a. mittelständische Unternehmen vor die Herausforderung: Ausbau datengetriebener Entscheidungen, Automatisierung von Prozessen, Integration von IoT-Systemen. Die Goldhofer Aktiengesellschaft hat deshalb den Schritt zu Data Warehouse Automation mit dem Datavault Builder gewagt und innerhalb eines Jahres ein neues DWH aufgebaut.

Zielpublikum: Manager:innen, BI- und DWH-Entwickler:innen
Voraussetzungen: Grundverständnis zum Data Warehouse
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Wie gelingt der Weg zum datengetriebenen Unternehmen im Mittelstand? Datenbasierte Entscheidungen, Prognosesysteme, Verknüpfung von operativen Daten mit IoT-Daten, Automatisierung - Hierfür wird eine integrierte Datenbasis benötigt! Die Anbindung neue Systeme dauert meist mehrere Wochen. Anpassungen an bestehenden Systemen können durch die zunehmende Komplexität zu Seiteneffekten führen, was den Aufwand für die Wartung kontinuierlich steigen lässt. 
Um die Entwicklungszeit im Data Warehouse zu beschleunigen, mehr Flexibilität in der Modellierung zu ermöglichen und den Wartungsaufwand zu minimieren, hat sich die Goldhofer Aktiengesellschaft für die Einführung von Data Vault 2.0 mit Automatisierung durch den Datavault Builder entschieden. Nach über einem Jahr Nutzung der neuen Architektur hat sich bestätigt, dass die Nachteile der höheren Komplexität von Data Vault 2.0 durch die Automatisierung in den Hintergrund rücken. Das Unternehmen profitiert neben der gestiegenen Entwicklungsgeschwindigkeit von der gestiegenen Agilität und Transparenz aller Zusammenhänge und Automatisierung des Deployments. Durch die Metadaten-basierte Entwicklung sind die Wege für Migration auf eine analytische Datenbank bereitet.

Andreas Peter ist als Data Architect bei Bosch im Bereich Datenmodellierung, Datenstrategie und Semantische Modellierung.

Petr Beles verfügt über fundierte Erfahrungen in Data-Warehouse-Projekten in den Bereichen Telekommunikation, Finanzen und Industrie. Seit mehreren Jahren führt er als Senior Consultant erfolgreich Projekte mit Data Vault durch. Nachdem er den Bedarf an Automatisierung mit Data Vault erkannt hatte, begann er zusammen mit seinen Kollegen mit der Entwicklung eines Automatisierungstools, das in der Erstellung des Datavault Builders gipfelte. Petr Beles ist heute CEO der 2150 Datavault Builder AG.
----
Petr Beles (Data-Vault-Specialist, Senior Consultant) has profound experience in data warehouse projects in the telecommunications, financial and industrial sectors. For several years he has been successfully implementing projects with Data Vault and trains teams in the application of this data modelling technique.

Andreas Peter, Petr Beles
E124
Andreas Peter, Petr Beles
E124
Vortrag: Do 2.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:45
Do 3.1
Modern BI auf Wolke 7: Unter DSGVO-Aufsicht im Datenhimmel
Modern BI auf Wolke 7: Unter DSGVO-Aufsicht im Datenhimmel

BI-Plattformen in der Cloud ermöglichen es Unternehmen, große Datenmengen schnell und effizient zu analysieren. Insbesondere in Public Clouds stehen diesen Vorteilen meist Datenschutzbedenken gegenüber. Dieser Vortrag zeigt, wie Datenschutzanforderungen erfüllt werden können, ohne dabei große Kompromisse eingehen zu müssen. Anhand eines Use Cases wird aufgezeigt, wie ein klassisches DWH an eine moderne BI-Plattform in der Cloud angebunden werden kann, ohne dabei Daten im Klartext außerhalb des Unternehmens speichern zu müssen.

Zielpublikum: Geschäftsführer, BI-Analysten, IT-Verantwortliche
Voraussetzungen: Grundlegendes Know-how über BI-Plattformen und Cloud-Systeme
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die digitale Welt ist schnell. Unternehmen geraten schnell unter Druck, wenn sie nicht in der Lage sind, sich an schnell verändernde Marktanforderungen anzupassen. Es sind daher meist die Fachabteilungen, die ein modernes Business Intelligence (BI) Tool fordern, um Daten sammeln, analysieren und visualisieren zu können. Sie benötigen jene Informationen, um das Unternehmen steuern und richtige Entscheidungen treffen zu können.

IT-Abteilungen sind dann meist diejenigen, die mit den daraus resultierenden immer schneller wachsenden fachlichen Anforderungen konfrontiert werden und technische Lösungen dafür bereitstellen sollen. Dabei sind stetig wachsende Datenmengen ebenso eine wesentliche Herausforderung wie unterschiedliche Datenformate. Insbesondere die immer größer werdende Bedeutung von Echtzeitdaten aus Streams oder semi- & unstrukturierte Daten aus IoT-Geräten haben dem oftmals über mehrere Jahre hinweg entwickelten und gepflegten klassischen Data Warehouse seine Grenzen aufgezeigt.

Ein möglicher Ansatz, diesen Herausforderungen zu begegnen, ist der Gang zu einem der großen Public-Cloud-Anbieter. Während die Möglichkeiten hinsichtlich der Skalierung von Ressourcen dabei helfen, mit ständig steigenden Datenmengen umgehen zu können, helfen diverse Managed Services dabei, unterschiedlichste Datenformate verarbeiten und konsolidieren zu können.

Schnell zum K.O.-Kriterium wird hierbei oft der Datenschutz. Besonders dann, wenn personenbezogene Daten verarbeitet werden müssen und diese Deutschland oder sogar die EU verlassen könnten, wird es kompliziert. Die meisten großen Public-Cloud-Anbieter bieten zwar mittlerweile Lösungen wie ein garantiertes Hosting in Deutschland, betrachtet man diese Option jedoch näher, wird man oftmals schnell enttäuscht: Datenspeicherung in Deutschland ja, Datenverarbeitung in Deutschland nur teilweise. Manche Services sind mit einem garantierten Betrieb in Deutschland sogar gar nicht verfügbar. Der Netzwerktraffic und über welche Knoten dieser läuft und vor allem, in welchen Ländern sich die Knoten denn befinden, ist das nächste Thema, was beachtet werden muss. Zugegeben: Das Thema neigt dazu, schnell zu einer akademischen Diskussion zu werden.

Eine ganz andere Frage, die sich jedes Unternehmen aber erst mal grundsätzlich stellen muss, ist: Möchte ich das überhaupt? Möchte ich, dass unternehmenskritische Informationen außerhalb meines Einflussbereiches gespeichert werden? Auch diese Diskussion kann man schnell in eine akademische Richtung bringen: Werden Daten nicht eh schon aus der Hand gegeben, sobald ich nicht selbst entwickelte Software einsetze? Ob großer Cloud-Anbieter oder lokales Rechenzentrum, liegt dazwischen nicht oftmals eh schon das Internet?

In diesem Vortrag werden keine akademischen Diskussionen geführt. Anhand eines konkreten Use Case aus der Praxis zeigen wir, wie sich Daten in der Cloud speichern und verarbeiten lassen, ohne dabei die Daten aus der eigenen Hand zu geben. Wir zeigen, wie Datenschutzanforderungen erfüllt werden können, ohne dass Anwender auf Features einer modernen BI-Plattform in der Cloud verzichten müssen.

Im Use Case dient ein klassisches, lokal betriebenes Data Warehouse als Quelle. Welche Datenbank- und ETL-Software im Einsatz ist, spielt keine gesonderte Rolle. Es wird aufgezeigt, wie eine gesicherte Übertragung der Daten auf einen Managed Service in der Cloud erfolgen kann. Konkret wird hier eine Azure SQL Database auf Microsoft Azure verwendet. Die Daten werden auf der Azure SQL Database verschlüsselt - also nicht im Klartext - gespeichert. Dies kann für die ganze Datenbank, für einzelne Tabellen oder auf Spaltenebene pro Tabelle erfolgen. Die Entschlüsselung der Daten findet erst zur Laufzeit während des Zugriffs eines Anwenders aus Microsoft Power BI heraus statt.

Worauf es dabei zu achten gilt, ist wie die Infrastruktur auf Microsoft Azure dafür aufgesetzt werden muss. Welche Software-Features und Services genau zum Einsatz kommen, ist ebenfalls Bestandteil dieses Vortrages.

Wolfgang Kettler leitet das Team BI & Reporting bei der ORDIX AG. Er verfügt über 12 Jahre Erfahrung im Bereich der Architektur komplexer Daten-Plattformen und BI-Anwendungen. Als Senior Chief Consultant berät er Kunden in den oben genannten Themenfeldern. In den letzten Jahren lag sein Fokus insbesondere auf der Migration bestehender On-premise-Lösungen auf moderne, skalierbare Cloud-Lösungen auf Microsoft Azure.

Wolfgang Kettler
K4
Wolfgang Kettler
K4
Vortrag: Do 3.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:45
Do 4.1
Der Cloud Data Lake als Enabler für Analytics @ Hapag Lloyd
Der Cloud Data Lake als Enabler für Analytics @ Hapag Lloyd

Auf dem Gesamtweg in die Cloud hat Hapag-Lloyd seine analytischen Fähigkeiten gestärkt, indem es eine zentrale Datenspeicherung ('Data LAKE') eingeführt hat und so Herausforderungen im Zusammenhang mit On-Premise-Lösungen überwunden und weitere Anwendungsfälle und Analysen ermöglicht hat. Die Präsentation wird auf die gemeisterten Herausforderungen und die direkten Vorteile aus dem Übergang in die Cloud eingehen.

Zielpublikum: Entscheider:innen, Product Specialists, Data Analysts, Data Scientists
Voraussetzungen: Grundlegendes analytisches Wissen, Grundlagen von Cloud-Umgebungen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Als eine der führenden Reedereien hat Hapag-Lloyd schon immer einen starken Fokus auf eine starke IT-Infrastruktur für den Betrieb und die Analyse gelegt - insbesondere die Nutzung von Daten, um Erkenntnisse, Dashboards und konkrete Maßnahmen zu generieren.

Mit immer mehr verfügbaren und zugänglichen Daten wird es immer deutlicher, dass die Fähigkeit, diese handlungsorientiert, sichtbar und in Produkte umzusetzen, ein entscheidender Erfolgsfaktor in der Schifffahrtsindustrie ist.
Angesichts der bevorstehenden neuen Herausforderungen hat Hapag-Lloyd beschlossen, die IT-Landschaft in die Cloud zu verlagern und ein enormes Projekt zur Migration, Überprüfung, Neubewertung und Innovation der gesamten IT-Landschaft in Richtung einer vollständig Cloud-basierten Infrastruktur zu starten.
Als eine der ersten Erfolgsgeschichten hat Hapag-Lloyd das Cloud-basierte Produkt 'Data Lake' aufgebaut. Das Produkt selbst ist zum zentralen Speicher für Analytics geworden und stellt alle relevanten Daten aus verschiedenen Datenquellen für die Analyse bereit.

Mit der Cloud-basierten Infrastruktur verschwanden die früheren Speicherlimitationen, was von einem Use-Case-getriebenen Ansatz zu einer Plattform führte. Daten werden also nicht mehr erhoben, sobald sie für eine Analyse gebraucht werden, sondern generell gesammelt, um für Analysen bereitzustehen.
Zunächst war der Fokus auf den Datenimport von den vorhandenen Kern-IT-Systemen in die Cloud gerichtet. Sobald die Daten in die Cloud geladen waren, ermöglichte dies eine dezentralisierte Analyse, mit der sich auch der Zugang zu den Daten signifikant veränderte und nun eine spezialisierte Benutzergruppe eingeführt wurde, die den Zugang zu allen verfügbaren Daten im Data Lake ermöglichte. Für diese Benutzergruppe wurde eine sichere Umgebung geschaffen, die den GDPR-Richtlinien entspricht. Alle personenbezogenen Informationen sind im Data Lake maskiert, wobei ein besonderer Schwerpunkt auf den Mitarbeiterdaten liegt, um die Möglichkeit zur Erstellung von Performance-Analysen auf Mitarbeiterbasis zu deaktivieren.
Darüber hinaus wurde das verfügbare Datenformat auch auf 'Change Data Capture' (CDC) geändert, was weitere Analysen ermöglichte (z. B. Verfolgung jeder Änderung an einem Versand, Schiff oder Container).

Die Einführung der spezialisierten Benutzergruppe im gesamten Unternehmen reduzierte die Abhängigkeit von verschiedenen IT-Teams und ermöglichte es den Benutzern, noch schneller von den Daten Erkenntnisse und Vorteile zu ziehen.
Die wichtigsten unterstützenden Technologien in der AWS-Cloud sind S3 als Speicher, Athena als Abfrage-Engine auf den S3-Daten, Glue als unterstützendes Tool zur Verbindung der S3-Daten mit Athena und Step-Functions zur Orchestrierung der Verarbeitung.
Neben der Einführung des Data Lakes war es essenziell, auch unterstützende Tools wie das Meta Data Management Tool einzuführen, um den Anwender zu führen und um Datenrelation und -zusammenhänge darzustellen.

Robert Ziegltrum ist Daten-Enthusiast, Data Scientist, Business Intelligence Specialist und Product Owner mit über 8 Jahren Erfahrung in BI und Analytics. Derzeit ist er Data Scientist und Product Owner des Data Lake bei Hapag-Lloyd. (>4 Jahre bei HL), vormals Data-Analyst bei Ströer (Ströer Media Brands) und RTL (Checkout Charlie).

Robert Ziegltrum
E119
Robert Ziegltrum
E119
Vortrag: Do 4.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:45
Do 5.1
Data-Storytelling & Visualisierung für mehr Business Impact
Data-Storytelling & Visualisierung für mehr Business Impact

Daten & Analytics sind Entscheidungs-Unterstützung. Entscheidungen werden durch Daten besser, rationaler, vorausschauender. So die Theorie. In der Praxis scheitert das leider oft an der Übersetzung zwischen Datenprofis wie BI, Data Scientists und Analysts einerseits und Entscheidern, Stakeholdern und Kunden andererseits. Wertvolle Erkenntnisse verpuffen ungehört, Dashboards fristen ein Schattendasein und Daten entfalten keinen Impact. Was Datenprofis selbst in die Hand nehmen können, um das zu ändern, ist die Qualität ihrer Datenkommunikation.

Zielpublikum: Business- & Data-Analyst:innen, Data Scientists, BI-Expert:innen, Researchers
Voraussetzungen: Kontakt zu Business-Entscheider:innen und Stakeholdern in der eigenen Berufs-Praxis
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der Vortrag vermittelt den Teilnehmern konkrete Tools, die dabei helfen, Business-Entscheidern und Stakeholdern datenbasierte Erkenntnisse zu vermitteln. Anhand eines praxisnahen Fallbeispiels lernen die Teilnehmer:
- die eigenen Interessen von denen ihrer Business-Entscheider und Stakeholder zu unterscheiden.
- Haltung & Vorwissen ihrer Business-Entscheider und Stakeholder in datenbasierte Narrative einzubauen.
- ihre Daten effizient und 'human friendly' zu visualisieren. 

Die vermittelten Tools wenden Klassiker der professionellen Business-Kommunikation wie das 'Pyramid Principle' von Barbara Minto und die Experimente zur Graphical Perception von Cleveland & McGill (1985) auf die berufliche Praxis von Datenprofis an und geben Inspiration sowie Denkanstöße für eine verbesserte Datenkommunikation und -Visualisierung.

Überzeugung: Datenbasierte Entscheidungen erzeugen positiven Business Impact.
Background: Langjährige Erfahrung mit BI, Analytics & Controlling. Aufbau & Management dieser Bereiche im Konzern, u.a. als Direct Report an Vorstand & Geschäftsführung. Zertifizierter Business Coach. Gründerin der Beratungsfirma EnCon Coaching & Consulting. 
Herzensthema: „do you speak data?“ – Training & Beratung zu Data Literacy für Alle und zu professioneller Datenkommunikation für Daten- und Insightsprofis.

seit 2021: Leitung Abteilung Digitalisation, Controlling & Analytics im HR-Bereich
2019-2020: Zertifizierung Business Coach & Gründung EnCon Coaching & Consulting
2013-2020: Leitung Business Intelligence
2009-2012: Marktforschung & Research
 

Stefanie Fröhner
F111
Stefanie Fröhner
F111
Vortrag: Do 5.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:45
Do 6.1
ChatGPT ist das Schweizer Messer für Wissensarbeit
ChatGPT ist das Schweizer Messer für Wissensarbeit

ChatGPT erschien am 30. November 2022. Seitdem hält der Chatbot die Welt in Atem. Er kann Dinge, die Apologeten wahlweise prophezeiten, befürchteten oder ersehnten. Viele glauben an einen 'iPhone-Moment' in der KI-Geschichte. Was genau ist ChatGPT? Warum ist es ein 'Allzweckwerkzeug' für Wissensarbeit? Ausgehend von den Grundlagen der Wissensarbeit ergründet der Vortrag den Hype um ChatGPT. Und zeigt anschaulich, wie Wissensarbeiter der Konkurrenz durch ChatGPT begegnen können.

Zielpublikum: jede Art von Wissenarbeiter:in wie z. B. Entscheider:in, Projektmanager:in, Autor:in, Journalist:in, Lehrer:in, Berater:in, Coach, ...
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Am 30. November 2022 wurde ChatGPT offiziell vorgestellt und seitdem hält der Chatbot die Welt in Atem. Er basiert auf einem künstlichen neuronalen Netzwerk, das durch maschinelles Lernen trainiert wurde. ChatGPT erledigt eine breite Palette von Aufgaben, wie z. B. das Zusammenfassen und Übersetzen von Texten, das Beantworten offener gestellter Fragen und sogar das Schreiben von Liedern, Gedichten und Geschichten.

Die Einsatzzwecke für ChatGPT sind groß, was es zu einer Art Allzweckwerkzeug für Wissensarbeit macht. Es löst komplexe Probleme in kurzer Zeit, die Menschen oft schwerfallen, und liefert schnelle - und mit Abstrichen brauchbare - Antworten auf mehrdeutige Fragen. Dazu verarbeitet und analysiert ChatGPT große Mengen von Daten, was es zu einem unschätzbaren Werkzeug macht für das Beschaffen von Information und das Vorbereiten von Entscheidungen.

Der Hype um ChatGPT kommt nicht von ungefähr. Viele glauben, dass wir gerade einen 'iPhone-Moment' in der KI-Geschichte erleben: Wie das iPhone die Art und Weise verändert hat, wie wir miteinander kommunizieren und Information teilen, so steckt in ChatGPT das Potenzial, die Art und Weise zu verändern, wie wir Wissen finden oder entdecken und Neues schaffen. 

Der Vortrag untersucht die Grundlagen der Wissensarbeit und der Mensch-Maschine-Interaktion und erklärt, warum ChatGPT die Wissensarbeit radikal verändert. ChatGPT wird bleiben, weit mächtigere Werkzeuge werden kommen. Deshalb erläutert der Vortrag zum Schluss, welche Strategien Wissensarbeiter anwenden können, um sich nun neu zu erfinden.

Stefan Holtel ist Informatiker, Wissensmanager und Trainer für LEGO Serious Play. Er arbeitete viele Jahre in der Forschung und Entwicklung von Vodafone. Regelmäßig präsentiert, publiziert und doziert er zur Frage, wie Unternehmen die digitale Transformation meistern können. Seit 2018 ist er Kurator für digitalen Wandel bei PricewaterhouseCoopers. Derzeit entwickelt er neuartige Ausbildungskonzepte, um Prompt Engineering in großen Organisationen erfolgreich zu skalieren. Im Januar erschien im Franz Vahlen Verlag sein neues Buch "Droht das Ende der Experten? ChatGPT und die Zukunft der Wissensarbeit".

Stefan Holtel
E101/102
Stefan Holtel
E101/102
Vortrag: Do 6.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 12:10
Do 7.1
Ein interaktiver Stadtrundgang durch Agile BI City
Ein interaktiver Stadtrundgang durch Agile BI City

Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/raphael.branger

Agile ist doch gleichbedeutend mit Chaos und Planlosigkeit - wie soll mir das bitte bei meinem Business Intelligence-Vorhaben weiterhelfen?' Es ist ein gängiger Irrglaube, dass Agile gleich-bedeutend ist mit schlechter oder keiner Planung. Wir laden dich deshalb ein zu einem interaktiven Stadtrundgang durch 'Agile BI City': Du erfährst, was du für dein agil durchgeführtes BI-Projekt beachten musst. Du lernst mittels praktischer Aufgaben, wie du frühzeitig und kontinuierlich Mehrwerte für deine Auftraggeber lieferst. Abwechslung ist garantiert!

Zielpublikum: Projektleiter:innen, Product Owner, Scrum Master, BICC-Leiter:innen
Voraussetzungen: Grundverständnis der Begriffe BI und DWH
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Du stehst vor deinem ersten Business Intelligence (BI)- oder Data Warehousing (DWH)-Projekt, welches du agil abwickeln möchtest? Oder aber du steckst bereits mittendrin und irgendwie will das mit der Agilität im BI-Kontext nicht so richtig klappen? Dann ist diese Stadtführung durch Agile BI City genau richtig für dich.

Agilität kann man nicht 'machen'. Gesteigerte Agilität - z. B. im Kontext von BI- und DWH-Systementwicklung - ist viel mehr das abstrakte Fernziel einer Reise, sowohl für dich als auch deine Organisation. Als Reiseleiter nehmen wir dich in diesem interaktiven Workshop mit und führen dich einmal quer durch 'Agile BI City'. Unser Agile BI City-Stadtplan spielt dabei eine zentrale Rolle: In Form von mehr als 30 Stationen, aufgeteilt in sieben Stadtteile, bekommst du eine praktische Orientierungshilfe an die Hand, damit du dich - wieder zurück in deiner eigenen Organisation - auf deiner eigenen Agile-BI-Reise orientieren kannst.

Wir starten unseren Rundgang in Foundation-Beach. Hier schauen wir uns die Grundlagen eines agilen Vorgehens an. In einer praktischen Übung wählst du dir deine Favoriten unter den agilen Prinzipien aus. Das agile 'Mindset' mag ein guter Nordstern sein, bleibt in der Regel aber zu wenig konkret. Deswegen machen wir einen kurzen Abstecher in die Vision-Hills, wo wir uns über die Rolle einer BI-Strategie unterhalten. In Downtown-Patterns erfahren wir danach mehr über die Wichtigkeit von Design Patterns und Standards als Grundlage für ein agiles Vorgehen.

Nach einer kurzen Verschnaufpause fahren wir mit unserem Stadtrundgang weiter in Central-Technology. Dabei stehen die technologischen Grundlagen für Agile BI, wie z. B. DWH- und Testautomation, im Mittelpunkt. Gemeinsam besuchen wir ausgewählte Anbieter in der Messehalle. Es folgt ein kurzer Abstecher nach South-Contracting, wo wir die Frage erörtern, wie sich ein agiles Vorgehen und Verträge sinnvoll zusammenbringen lassen.

Weiter geht's in Uptown-Process, wo wir verschiedene agile Prozesse wie z. B. Scrum besichtigen und uns in Gruppen überlegen, wie sich diese im Kontext von Agile BI bewähren. Als letzter Stadtteil besichtigen wir Release-Island und lernen, wie Anforderungen während eines agilen Projektreleases erhoben, verfeinert und umgesetzt werden. In Kleingruppen erarbeitet ihr dabei einen Scopebreakdown für ein fiktives BI-Projekt und schreibt erste User Stories.

Als Abschluss unserer dreistündigen Entdeckungstour hast du die Möglichkeit, dir Gedanken zu deiner eigenen Reise in Richtung Agile BI zu machen. Wenn du den Agile BI City-Stadtplan auf deine eigene Organisation anwendest: Wo steht ihr gerade? Welche Stadtteile kennt ihr schon gut, welche sind noch erkundungswürdig? Wo hast du konkrete Fragen? Deine Reiseleiter stehen dir dabei für Rückfragen und Auskünfte gerne zur Verfügung.

Am Ende des Workshops hast du nicht nur einen Stadtplan in der Hand, welcher dir einen Überblick der möglichen Wegpunkte auf deiner Reise zu mehr Agilität in BI- und DWH-Projekten gibt. Du hast auch bereits erste praktische Erfahrungen gesammelt und dir konkrete Schritte für deine weitere Reise überlegt.

Raphael Branger ist Autor des Buchs 'How to succeed with Agile Business Intelligence' sowie Co-Autor des Buchs 'Self-Service BI & Analytics'. Er arbeitet als Principal Consultant Data & Analytics bei der IT-Logix AG. Er hilft Organisationen, ihre Anforderungen rund um Daten und 'Analytics' zu erheben und umzusetzen. Er ist zugleich Stratege, Architekt, Requirements Engineer, Agile Coach aber auch Entwickler. Dadurch bringt er eine ganzheitliche Sicht in seine Projekte ein.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/raphael.branger

Gianna Neeser arbeitet als Senior Consultant Data & Analytics bei der IT-Logix AG. Im Studium hat sie ihr Interesse an Daten entdeckt und beschäftigt sich heute mit der Entwicklung von Data Warehouses. Sie unterstützt Organisationen bei der Erhebung und Analyse von BI-spezifischen Anforderungen, der Durchführung von Projekten als Agile BI Coach in Entwicklerteams sowie dem Enablement der Fachanwender:innen. Gianna investiert sich zudem als «TDWI Young Gun» aktiv in die BI-Community.

Eva-Maria Kopf hat sich bereits in ihrem Masterstudium 'Business Intelligence & Analytics' mit Themen wie Storytelling beschäftigt. Als Consultant Data & Analytics bei der IT-Logix AG unterstützt sie Organisationen in der Bereitstellung von Daten ebenso wie in der Entwicklung und Umsetzung entscheidungstreibender BI-Reportings und dem Enablement von Fachanwender:innen. Eva-Maria investiert sich zudem als «TDWI Young Gun» aktiv in die BI-Community.

Raphael Branger, Gianna Neeser, Eva-Maria Kopf
E105
Raphael Branger, Gianna Neeser, Eva-Maria Kopf
E105
Vortrag: Do 7.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:45
Do 8.1
Dezentralisierungstrends in der Datenökonomie: eine sozio-technische Perspektive
Dezentralisierungstrends in der Datenökonomie: eine sozio-technische Perspektive

In den letzten Jahren wurden digitale Plattformen zunehmend zum Gegenstand intensiver Diskussionen in Forschung und Praxis. Schließlich existieren genug Beispiele darüber wie digitale Plattformen in der Lage sind, ganze Märkte umzustrukturieren, indem sie Netzwerkeffekte nutzen, um schnell zu skalieren und verschiedene Akteure miteinander zu verbinden. Doch in den Anwendungsdomänen mit sensitiven Daten kommt das viel erforschte Konzept digitaler Plattformen an seine Grenzen. Während die Forschung an sog. Datenplattformen sich noch im Anfangsstadium befindet, wird über verschiedene Dezentralisierungsmaßnahmen debattiert, um die inhärenten Problematiken digitaler Plattformen wie Machtasymmetrien zu adressieren und die Datenökonomie zu fördern. Neben der aktuellen Übersicht solcher Problematiken werden in diesem Vortrag auch einige vielversprechende Ansätze, die in der aktuellen Forschung diskutiert werden, präsentiert. 

Dr. Dimitri Petrik is a postdoctoral researcher at the Department for Information Systems II at the University of Stuttgart and a research group leader at the Graduate School of Excellence Advanced Manufacturing Engineering (GSaME) of the University of Stuttgart. In addition to the current research project in the context circular economy, Dimitris research interests include digital platforms, platform ecosystems, and the data economy. Dimitri publishes in the Information Systems and Strategic Management disciplines, including the International Conference on Information Systems, the Information Systems Management Journal, or the Schmalenbach Business Review. He also serves as an organizing committee member of the ICSOB and the International Workshop on Software-intensive Business and is a member of the Software Product Management (WI-PrdM) Division of the German Informatics Society. 

Dimitri Petrik
F106
Dimitri Petrik
F106
Vortrag: Do 8.1
flag VORTRAG MERKEN

Vortrag Teilen

09:55 - 10:40
Do 1.2
What we learned from use case realization
What we learned from use case realization

Tobias presents DANONE´s data strategy for 2025 and the lessons learned from a use case realization. Promises and expectations were high and are still very ambitious. Tobias will share lessons learned and best practices.

Target Audience: People who would to understand what happens on a data journey starting with a data strategy until handing over data products to business people.
Prerequisites: Curiosity
Level: Basic

Tobias Riedner is head of IT Data & Analytics in Danone since 2022. He is responsible for shaping and delivering the data analytics roadmap until 2025. Pillars are how to create business value out of data, defining the organization from scratch and deliver data products with the right architecture.

Tobias Riedner
K3
Tobias Riedner
K3
Track: #MessUps
Vortrag: Do 1.2
flag VORTRAG MERKEN

Vortrag Teilen

09:55 - 10:40
Do 2.2
Cloud-Kommunikation hinter Schloss & Riegel
Cloud-Kommunikation hinter Schloss & Riegel

Die Novellierung des IT-Sicherheitsgesetzes umfasst neue Wirtschaftszweige, die zukünftig die hohen KRITIS-Sicherheitsanforderungen erfüllen müssen. Um späteren Mehraufwand zu vermeiden, sollte Sicherheit daher von Anfang an mitbedacht werden (Secure by Design). Auch cloud-native Data Warehouses, Data Fabrics und Data Meshes müssen auf verschiedenen Ebenen abgesichert und Kommunikation muss verschlüsselt werden. infologistix zeigt einen Verschlüsselungsansatz einer Data Platform, der die BSI-Sicherheitsanforderungen erfüllt.

Zielpublikum: Platform Engineer, Data Engineer, Projektleiter:innen, IT-Verantwortliche
Voraussetzungen: BSI-Grundschutzkatalog, DWH-Konzepte in der Cloud, Container-Plattformen
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der KRITIS-Katalog umfasst nach der Novellierung der NIS 2-Richtlinie der EU nahezu alle Bereiche der digitalen Infrastruktur. In diesem Zusammenhang werden sämtliche großen Data Warehouse-Systeme die neuen Sicherheitsanforderungen erfüllen müssen. Für Cloud-native Daten-Plattformen muss dabei die gesamte Infrastruktur betrachtet werden. Hier muss sämtliche Kommunikation (ETL-Strecken, Datenbankanbindung, Batch Processing) TLS-verschlüsselt werden. Zu diesem Zweck wird der Ansatz des Service Mesh gewählt, um einen einfachen Zertifikatstausch zu ermöglichen und die Verschlüsselung der Kommunikation zu übernehmen.

Im Vortrag von infologistix wird hierzu ein Ansatz mit Istio präsentiert. Istio bietet neben der reinen Verschlüsselung der Kommunikation über mTLS auch viele weitere optionale Features für Authentifikation, Autorisierung und Ausfallsicherheit. Der Zuhörer erfährt anhand der praxiserprobten Lösung, wie die komplette Absicherung einer Plattform umgesetzt werden kann. Im Fazit erfolgt ein Abgleich der Lösung mit den hohen Sicherheitsanforderungen.

Dr.-Ing. Harald Philipp Gerhards ist Bereichsleiter Cloud Engineering bei der infologistix GmbH und Lehrbeauftragter an der TH Würzburg-Schweinfurt. Er ist zertifizierter Projekt- und Qualitätsmanager und berät als Senior Systemarchitekt Kunden mit den Schwerpunkten Container-Plattformen und Erweiterungen bestehender BI-Architekturen. Zurzeit ist er für eine hochsichere Kubernetes-Plattform eines Kunden verantwortlich und beschäftigt sich mit Security und Observability.

Paul Schmidt ist IT Consultant bei der infologistix GmbH. Mit einem Master in Informationssystemen hat er sich auf die Themen Industrie 4.0, Business Intelligence und Cloud Operations fokussiert. Sein Schwerpunkt liegt in der Entwicklung und Integration von Machine Learning und künstlicher Intelligenz sowie der Absicherung von Netzwerkarchitekturen. Auf der TDWI München digital 2021 hat er den Vortrag 'KI für Energetische Optimierung innerbetrieblicher Stromnetze' gehalten.

Harald Philipp Gerhards, Paul Schmidt
E124
Harald Philipp Gerhards, Paul Schmidt
E124
Vortrag: Do 2.2
flag VORTRAG MERKEN

Vortrag Teilen

09:55 - 10:40
Do 3.2
Eine Trigger-Architektur für optimierten UI-Lesezugriff
Eine Trigger-Architektur für optimierten UI-Lesezugriff

Um komplexe Metriken live bei Änderungen von Daten in einem Planungstool für den Anlagenbau anzeigen zu können, wurde eine 3-schichtige Architektur mit Datenbanktriggern entwickelt. Diese löst bestehende langsame Views ab, die zu langen Ladezeiten der UI führten. Eine Trennung von Datenselektion, Businesslogik und Schreibzugriff sorgt für strukturierten Code. Ebenso sorgt die exakte Selektion der Daten, die aktualisiert werden müssen, für effiziente Trigger. Probleme bei der Wartung werden über eine strukturierte Dokumentation gelöst.

Zielpublikum: Entwickler:innen, Datenbankentwickler:innen, Software-Architekt:innen
Voraussetzungen: Datenbankgrundlagen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Bei der Entwicklung eines Planungstools für den Anlagenbau im Rahmen eines Kundenprojekts kam die Anforderung auf, dass komplexe Metriken basierend auf den aktuell eingegebenen Daten live aktualisiert werden. Im ersten Entwicklungsschritt wurde dies mithilfe von Datenbankviews umgesetzt. Steigende Datenmengen führten dazu, dass die Antwortzeiten der UI zu langsam wurden. Eine zeitlich versetzte Aktualisierung von vorberechneten Metriken war nicht möglich.

Als Lösung wurde eine 3-schichtige Architektur mit Datenbanktriggern implementiert. Die erste Schicht besteht aus den Triggern selbst, in denen bestimmt wird, was aktualisiert werden muss. Einerseits werden die Zeilen bestimmt, die aktualisiert werden müssen. Diese werden in einer In-Memory-Tabelle gespeichert. Andererseits werden auch die Spalten/Metriken bestimmt, die sich verändert haben können. Jede Metrik wird über eine Update-Prozedur repräsentiert. Die Trigger wählen also aus, welche Prozeduren aufgerufen werden müssen und welche Zeilen aktualisiert werden sollen. Durch die exakte Auswahl dessen, was aktualisiert werden muss, wird die Effizienz der Trigger verbessert.

Die Update-Prozeduren bilden die zweite Schicht und sind alle nach dem gleichen Prinzip aufgebaut. Sie erhalten als Eingabe die In-Memory-Tabelle mit den Ids der Zeilen, die aktualisiert werden müssen. Danach rufen sie die existierenden Views auf, in denen die Businesslogik abgebildet wurde, und aktualisieren die materialisierten Metriken für die selektierten Zeilen.

Die Wiederverwendung der existierenden Views ersparte bei der Entwicklung erheblich Zeit, da die komplexe Businesslogik nicht erneut implementiert werden musste. Die Trennung der Selektion der Zeilen im Trigger, der Schreibprozeduren und der Businesslogik verhindert Code-Duplikation. Der Grund dafür ist, dass Trigger auf unterschiedlichen Tabellen mit unterschiedlichen Selektionskriterien dieselbe Update-Prozedur aufrufen können. Aufgrund der Anzahl an Metriken und der Anzahl an Tabellen, die Einfluss auf die Metriken haben, wurde eine strukturierte Dokumentation eingeführt, um die Wartbarkeit zu gewährleisten.

Es wurde eine Performanceanalyse durchgeführt, inwieweit die Trigger den Lesezugriff durch Materialisierung der Daten beschleunigen und inwieweit die Trigger den Schreibzugriff verlangsamen. Die Trigger wurden so definiert, dass sie pro Statement ausgeführt werden, um Bulkoperationen effizient zu ermöglichen, da diese im System neben Einzeloperationen auch häufig vorkommen. Es stellte sich heraus, dass die Schreibprozesse im System während der Einführung der Trigger überarbeitet werden mussten. Die Schreibprozesse waren noch nicht dahingehend optimiert, dass sie mit möglichst wenig einzelnen Schreiboperationen arbeiteten. Es mussten also Schleifen im Code mit einzelnen Updates oder Inserts in Batch-Statements umgeschrieben werden.

Dr. Philipp Baumgärtel promovierte 2015 im Bereich Datenbanken an der FAU Erlangen-Nürnberg. Aktuell arbeitet er als Lead Consultant bei der PRODATO Integration Technology GmbH an Kundenprojekten mit Fokus auf Daten- und Anwendungsintegration.

Philipp Baumgärtel, Manuel Becker
K4
Philipp Baumgärtel, Manuel Becker
K4
Vortrag: Do 3.2
flag VORTRAG MERKEN

Vortrag Teilen

09:55 - 10:40
Do 4.2
Datenpipelines, Dokumentation und Lineage mit SQL & dbt
Datenpipelines, Dokumentation und Lineage mit SQL & dbt

SQL ist nicht wegzudenken aus der Datenanalyse. In der Realität findet man dann häufig das Pattern: Python Glue Code in Notebooks, der SQL Statements ausführt. dbt (data build tool) hilft dabei, SQL-Datenpipelines strukturiert aufzubauen, inkl. Validierung der Daten, Dokumentation & Abhängigkeitsgraphen. Die Automatisierung von Datenaufbereitungen und Analysen gelingt so ganz einfach.

Zielpublikum: Data Engineer, Data Architect
Voraussetzungen: Grundlagen SQL/Python sind hilfereich
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
SQL ist weiterhin nicht wegzudenken aus der Datenanalyse - es ist vergleichsweise einfach zu lernen und kann ohne zusätzliche Werkzeuge auf einer Datenbank ausgeführt werden. Entsprechend ist es bei vielen Datenanalysten sehr beliebt. Es hat aber auch Schwächen, die besonders im Vergleich zu Python auffallen. Neben den bekannten ML-Frameworks gibt es in Python auch für Datenpipelines eine Reihe von Werkzeugen, sowohl zur Datenvalidierung als auch Orchestrierung. Dinge, die mit SQL allein gar nicht oder nur mühselig abzubilden sind. 

SQL für Transformationen möchte man nicht aufgeben. Allerdings befindet man sich heute auch als Data Analyst immer mehr in der Python-Welt wieder. Bei Datenplattformen ist Python oft der Standard für jegliche Verarbeitung von Daten. Und auch die Data Engineers wollen lieber Python als SQL schreiben. Da mit SQL aber vergleichsweise gut Transformationen auf Daten ausgedrückt werden können, findet man dann häufig folgendes Pattern: Python Glue Code wird geschrieben, der dann SQL Statements ausführt. Und das Ganze im Extremfall auch noch verteilt über Notebooks.

dbt (data build tool) ist ein Kommandozeilentool, um mit SQL solche Datenpipelines strukturiert aufzubauen. Ebenso ermöglicht es, die Validierung der Daten direkt mit zu erledigen. Auch bei der Historisierung von Stammdaten, die regelmäßig aus operativen Systemen abgezogen werden, hilft es. Als Ergebnis gibt es nicht nur saubere & gefüllte Tabellen in einer Datenbank, sondern auch noch Dokumentation und Abhängigkeitsgraphen. Das Ganze hilft nicht nur beim Aufbereiten von Daten. Auch die darauf folgenden, regelmäßigen Analysen und Auswertungen lassen sich so bequem automatisieren. Inklusive Rückverfolgbarkeit, welche Analyse welche Daten benutzt. Und wenn die Basisdaten inhaltliche Fehler aufweisen, werden die Auswertungen, die darauf basieren, gar nicht erst aktualisiert.

Matthias Niehoff ist als Data Architect sowie Head of Data & AI für die codecentric unterwegs und unterstützt Kunden bei Design und Umsetzung von Datenarchitekturen. Dabei liegt sein Fokus weniger auf dem Modell, sondern viel mehr auf der notwendigen Infrastruktur & Organisation, um Daten & KI-Projekten zum Erfolg zu verhelfen.

Matthias Niehoff
E119
Matthias Niehoff
E119
Vortrag: Do 4.2
flag VORTRAG MERKEN

Vortrag Teilen

09:55 - 10:40
Do 5.2
Die vergessene Beziehung von Bäumen & Business Intelligence
Die vergessene Beziehung von Bäumen & Business Intelligence

Jedes Unternehmen möchte verstehen, wo es Potenzial hat, Verbesserungen anzubringen. Doch ohne Überblick darüber, welches Ereignis welche Auswirkungen hat, ist das schwer zu erkennen. In dieser interaktiven Session wird über Treiber-Bäume gesprochen - eines der ältesten Analyse-Tools. Wir besprechen die Vorteile und Herausforderungen bei der Implementierung und sehen, wie sie Entscheidungsprozesse unterstützen können. Denn dank des visuellen Charakters helfen Treiber-Bäume, Geschäfte und Potenziale zu erkennen.

Zielpublikum: Alle, die Daten nutzen, um Dinge zu verstehen
Voraussetzungen: Interesse an visuellen Methoden
Schwierigkeitsgrad: Einsteiger

In den letzten 16 Jahren spezialisierte sich Philipp Baron Freytag von Loringhoven auf die Unterstützung von Unternehmen bei der Entwicklung effektiver Werbekampagnen mithilfe von Daten und Marketing-Analytics. Er leitete internationale Marketing- und Data-Teams für Start-ups und Unternehmen. Als Freelancer hilft er Firmen bei einer Nutzung ihrer Daten, die zu weiterem Marketing- und Sales-Erfolg führt. Philipp möchte durch und dank Daten wieder bessere, interessantere Werbung sehen. Werbung, die begeistert, die anspricht. Deshalb betreibt er seit 2020 auch den Podcast Dataengage, um mehr Menschen den Zugang zu Daten, Technologie und Marketing zu ermöglichen.

Philipp Baron Freytag von Loringhoven
F111
Philipp Baron Freytag von Loringhoven
F111
Vortrag: Do 5.2
flag VORTRAG MERKEN

Vortrag Teilen

09:55 - 10:40
Do 6.2
World Café: ChatGPT is all we need!?
World Café: ChatGPT is all we need!?

Chancen und Risiken generativer KI

Wir wollen die Potentiale generativer KI von zwei Seiten betrachten:
Was sind die Vorteile – wie kann mit generativer KI die (Arbeits-) Welt zum Positiven verändert werden? Wie kann die Menschheit von generativer KI profitieren?
Welches sind die Risiken, mit denen wir rechnen müssen? Wir können wir diesen begegnen? Sind wir ausreichend auf das vorbereitet, das da kommt?

Dr. Andreas Totok beschäftigt sich seit den 1990er Jahren mit Anwendungen zur Datenintegration und -analyse und leitet in der Finanz Informatik Solutions Plus (FI-SP) den Geschäftsbereich Enterprise Information Management. Seine Schwerpunkte liegen in der Architektur- und Organisationsberatung im Kontext von BI- und KI-Projekten in der Sparkassen-Finanzgruppe. Er ist zudem Buchautor“, Referent auf Fachveranstaltungen und engagiert sich in der TDWI-Community, von der er die Auszeichnung „TDWI Europe Fellow“ erhielt. Als stellvertretender Vorsitzender des TDWI kümmert er sich um die kontinuierliche Weiterentwicklung der Vereinskommunikation.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/andreas.totok

Constantin Sanders ist Senior Data Scientist bei der Alexander Thamm GmbH mit dem Schwerpunkt Natural Language Processing (NLP). In verschiedenen Data Science Projekten konnte er seine wissenschaftliche Ausbildung (M.A. Germanistik & M.Sc. Data Science) mit praktischen Erfahrungen kombinieren. Wenn er sich nicht gerade mit Sprache bzw. sprachverabeitenden Systemen auseinandersetzt, verbringt er viel Zeit mit Fußballschauen und -spielen.

Andreas Totok, Constantin Sanders
E101/102
Andreas Totok, Constantin Sanders
E101/102
Vortrag: Do 6.2
flag VORTRAG MERKEN

Vortrag Teilen

09:55 - 10:40
Do 8.2
Deep Learning for Condition-based Maintenance
Deep Learning for Condition-based Maintenance

Deep learning methods archive stunning performances in many disciplines like computer vision or natural language processing. For factory automation, deep learning is applied to detect anomalies and monitor the machine condition to increase productivity. In practice, we need to overcome multiple challenges: low quality datasets, missing domain knowledge and lack of performance metrics standards. In this session, we explain the usage of open source frameworks and configurable deep learning tools to create a condition-based maintenance system.

Target Audience: Decision Makers, Data Scientist, Factory Automation Experts
Prerequisites: Basic knowledge in data processing.
Level: Basic

Tom Hammerbacher is Dual Student Information Technology at Phoenix Contact. He is a Data Scientist for Anomaly Detection and Condition Monitoring, System Manager - Data Collection, Storage, and Evaluation.

Tom Hammerbacher, Markus Berghammer
F106
Tom Hammerbacher, Markus Berghammer
F106
Vortrag: Do 8.2
flag VORTRAG MERKEN

Vortrag Teilen

09:55 - 12:10
SDdo1.1
Special Workshop Data Virtuality │ Hands-on Data Virtualization SaaS
Special Workshop Data Virtuality │ Hands-on Data Virtualization SaaS

In diesem Hands-on Workshop lernen Sie anhand eines konkreten Use Cases die praktische Anwendung der Datenvirtualisierung kennen. Hierbei wird von Anfang an “hands on” vorgegangen, d.h. es handelt sich nicht um einen reinen Vortrag, sondern ein praktisches Erleben der Lösung.  Konkret werden folgende Themen behandelt:

  • Erstellen von virtuellen Datenmodellen und einer semantischen Datenschicht
  • Kombinieren von heterogenen Daten aus Legacy- und Cloud-Datenbanken, APIs und Dateien
  • Erstellen eines Reports in einem BI Tool basierend auf den Daten

Bring your own device

Nach seinem Studium der Wirtschaftsinformatik 2005 begann Matthias Korn mit der Softwareentwicklung und widmete sich dann als selbständiger Datenbankentwickler schnell dem Thema Daten. Seit 2014 ist er bei Data Virtuality Team Lead für Solution Engineering und hat eine große Praxiserfahrung bei der Einführung von Datenvirtualisierung in verschiedenen Unternehmen.

Matthias Korn
F129
Matthias Korn
F129
Vortrag: SDdo1.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:10
Pause
Kaffee & Ausstellung / Coffee & Exhibition
Kaffee & Ausstellung / Coffee & Exhibition

11:10 - 12:10
Do 1.3
'Everything fails, all the time' – Der Weg in die Cloud
'Everything fails, all the time' – Der Weg in die Cloud

Im Rahmen der Migration eines Data Warehouse und der darauf aufbauenden Produkte in eine Cloud-Umgebung haben wir Erfahrungen gemacht, die in diesem Vortrag geteilt werden sollen. Anhand von thematisch gegliederten, kurzen Beispielen aus Bereichen wie technischer Architektur, Entwicklung sowie Projekt- und Produktmanagement zeigen wir unsere Erfolge und Misserfolge auf und formulieren Thesen für eine erfolgreiche Projektkultur, die für fruchtbare Diskussionen sorgen sollen.

Zielpublikum: BI-Verantwortliche und Projektmanager:innen, Data Engineers
Voraussetzungen: Interesse an (Business Intelligence) Projekten und Prozessen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Worum geht es eigentlich?

  • Warum man manchmal auch bei großen Projekten auf kleine Kinder hören sollte.
  • Morgen fangen wir wirklich an! Oder übermorgen.
  • Auf dem Weg zum ersten Schritt und wie und warum wir angefangen haben
  • Das Beste oder Nichts?
  • Von großen Plänen und kleinen Handlungen und wie Provisorien dabei helfen können
  • Azure oder AWS oder GDP? Synapse oder ADF?
  • Über Plattform-Agnostik, Modulbauweisen und die Orientierung in Cloud Services
  • Lösen wir mit KI auf Blockchain im Spark Cluster!
  • Warum Technik weder als Selbstzweck noch als Lösung betrachtet werden sollte.
  • Das Ende ist der Anfang ist das Ende ist der Anfang ist ...  
  • Warum man den Beta-Status vielleicht gar nicht verlassen sollte.
  • Wie ist hier der Stand?
  • Warum man besser auf Nutzbarkeit, nicht auf Timings optimiert.
  • Wie viele Storypoints sind ein Scrum Master?
  • Über die Eigendynamik von agilen Frameworks und wie man sich davor schützen kann.
  • Ja, aber ...!!!
  • Warum (Rollen-) Kollisionen und Konflikte erwünscht sein sollten.
  • Machen wir später ...
  • Wie und warum man auf die Tilgung von technischen Schulden achten sollte.
  • 148.000$ Cloudkosten in zwei Tagen?
  • Wie man bei aller Euphorie die Sicherheit nicht vergisst
  • Darum kümmert sich dann das Ops-Team.
  • Warum der Betrieb bei der Entwicklung mit eingeplant werden muss.
  • Ich blicke nur nach vorne
  • Warum der Blick zurück für den weiteren Weg helfen kann.
  • Keine Überstunden?
  • Wie Freizeit zur Effizienzsteigerung beiträgt.
  • Does it spark joy?
  • Wie man auf einfache Art ein Team motivieren kann.
  • Standards sind Freiheit
  • Wie man durch Limitierung Grenzen erweitern kann.
  • Kann mich jemand hören?
  • Die Organisation eines Teams in Zeiten von Homeoffice
  • Frenemies
  • Projektsponsoren und Projektleiter und Projektmanager und Produkteigner
  • Wir brauchen mehr Details.
  • Warum die enge Zusammenarbeit von Entwicklung und Fachabteilung wichtig ist.
  • Et tu, Entwickler!
  • Zum Erfolg gehören mindestens 2 und das sollten auch alle wissen.
  • Done is not done.
  • Wenn das Projekt bereits beendet ist, erwacht das Produkt erst zum Leben.
  • Worum ging es nochmal?
  • Risiko und Mut
  • Entscheidung und Agilität
  • Disziplin und Fokus
  • Rahmung und Organisation
  • Freude

Thomas Oesterling-Pietsch ist Head of Data Management bei groupM Germany und seit mehr als 20 Jahren in der Mediabranche tätig. Aus dem BI-Bereich kommend, fokussiert er sich auf Themen des Data Managements und bildet zusammen mit seinem Team die Schnittstelle zwischen Anwendung und Entwicklung.

Markus Delhofen ist Geschäftsführer der arelium GmbH. Er ist seit mehr 20 Jahren in der IT-Branche zu Hause und besitzt umfangreiche Erfahrungen im Umfeld Microsoft SQL Server, Microsoft Azure und C#.NET-Entwicklung. 
Sein Fokus liegt in den letzten 15 Jahren auf der Architektur und Implementierung von Datenplattformen. In diesem Umfeld kennt er sich sowohl mit modernen Cloud-Technologien als auch dem klassischen BI-Stack von Microsoft aus.

Thomas Oesterling-Pietsch, Markus Delhofen
K3
Thomas Oesterling-Pietsch, Markus Delhofen
K3
Track: #MessUps
Vortrag: Do 1.3
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:10
Do 2.3
Modern Data Stack im Bereich Erneuerbare Energien
Modern Data Stack im Bereich Erneuerbare Energien

Wir geben einen Überblick über den Modern Data Stack bei SENEC. SENEC ist der größte Solarstromspeicheranbieter in Deutschland mit einer starken Wachstumsstory. Innerhalb dieses Umfelds kam die Idee, einen Modern Data Stack als Single Point of Truth für sämtliche Datenprodukte aufzusetzen. Von der Idee bis zum PoC war und ist es ein sehr spannender Weg, auf den wir euch gerne mitnehmen wollen. Wir geben euch einen Überblick über die Architektur und zeigen euch aus verschiedenen Perspektiven Highlights & Lowlights.

Zielpublikum: Data Engineers, Analyst:innen, Entscheider:innen, Projektmanager:innen
Voraussetzungen: Erfahrung in der Arbeit mit DWHs, wünschenswert auch Erfahrung im Cloud-Umfeld
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Ein Modern Data Stack besteht aus einer Vielzahl von Technologien und Tools, die für die Erfassung, Speicherung, Verarbeitung und Analyse von Daten unerlässlich sind. In diesem Vortrag erhaltet ihr einen Überblick über den Data Stack bei SENEC. In dem Vortrag wird der Hintergrund des Projektes dargelegt, die Komponenten des Stacks sowie der Weg zur finalen Plattform.
Hintergrund: Durch das starke Wachstum der Firma SENEC haben wir uns als BI-Team entschlossen, einen Modern Data Stack auf Basis von Azure einzuführen, um mit den wachsenden Reporting- und Analyseanforderungen Schritt halten zu können. 
 

Armin Geisler verantwortet als Team Lead den Bereich Data & Analytics bei der SENEC GmbH in Leipzig. Das Team entwickelt kontinuierlich die firmenweite Datenplattform weiter, optimiert Analyse- und BI-Prozesse und realisiert diverse Reporting- und Analytics-Vorhaben, darunter auch Power-BI-Projekte sowie Data-Science-Initiativen, z.B.: Predictive Analytics.

Lisa-Marie Krause ist studierte Mathematikerin und hat in der Vergangenheit im Bankensektor wertvolle Beratungserfahrung gesammelt. Im Herbst 2021 wechselte sie zur SENEC, wo sie als Data Engineer ihre Karriere fortsetzt. Seit ihrem Eintritt spielt sie eine zentrale Rolle in der Entwicklung und kontinuierlichen Verbesserung der Data and Analytics-Plattform (DAP). Seit dem 1. Januar 2024 übernimmt sie die Rolle des Data Architect, mit dem Fokus auf fortlaufende architektonische Entwicklung der Datenplattform.

Philipp Schlechter hat bereits einschlägige Erfahrung im Bereich Data Engineering und hat vor dieser Laufbahn ein Studium im Bereich Computer Science absolviert. Seit Februar 2023 ist er bei der QUNIS und unterstützt dort unter anderem den Aufbau der SENEC-Datenplattform mithilfe seines tiefen Fachwissens im Bereich Data Engineering.

Armin Geisler, Lisa-Marie Krause, Philipp Schlechter
E124
Armin Geisler, Lisa-Marie Krause, Philipp Schlechter
E124
Vortrag: Do 2.3
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:10
Do 3.3
Revolutionizing Data Integrity with Test-Driven Development
Revolutionizing Data Integrity with Test-Driven Development

This presentation will examine the creation of data products through ETL pipelines and the value they provide through insights. We'll focus on the advantages of test-driven development in ETL and how Azure DevOps and Databricks play key roles in the pipeline. We'll also cover the implementation of a Git-based CICD workflow to automate and guarantee the quality of the generated data products. By the end of the presentation, attendees will have a solid understanding of the benefits of test-driven development in ETL pipelines.

Target Audience: Data Engineer, Data Scientist
Prerequisites: Basic knowledge in ETL processes
Level: Basic

Extended Abstract:
In this presentation, we will discuss the process of generating data products through ETL pipelines to derive valuable insights. The use of test-driven development (TDD) will be a central theme, as we explore how this approach can help to ensure the accuracy and reliability of the data products generated. We will focus on the use of Azure DevOps and Databricks as key components in the pipeline, and how these technologies can be leveraged to provide efficient and streamlined data processing.

Additionally, we will explore the implementation of a Continuous Integration and Continuous Deployment (CICD) workflow using Git, which automates the development and deployment process, allowing for rapid iterations and reduced downtime. The use of Git also provides a reliable mechanism for version control and collaboration between team members.

One of the key highlights of the presentation will be the use of a test data generator powered by artificial intelligence. This tool will be used to generate realistic test data for use in the TDD process, ensuring that the pipeline code is thoroughly tested and ready for production deployment. This will be an important factor in ensuring the accuracy and reliability of the data products generated.

By the end of the presentation, attendees will have a comprehensive understanding of the benefits of TDD in ETL pipelines and how it can be used to produce high-quality data products that provide valuable insights. They will also gain an understanding of how Azure DevOps, Databricks, and Git can be used in conjunction with TDD to create a streamlined and efficient data processing workflow.

Jannik Wiessler is a Data Scientist and Data Engineer who has spent four years working for Daimler Truck AG. With an academic background in engineering, he also teaches computer science and programming in Python and C at DHBW Stuttgart. His experience and expertise in data analytics, machine learning, and programming have made a significant impact on the organization's success. Jannik is passionate about utilizing technology to drive innovation and efficiency, and he has a strong desire to share his knowledge with the next generation of engineers and data scientists.

Jannik Wiessler
K4
Jannik Wiessler
K4
Vortrag: Do 3.3
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:10
Do 4.3
SAP Greenfield DWH mit Data Vault bei der C&A
SAP Greenfield DWH mit Data Vault bei der C&A

Das Fashion-Retail Unternehmen C&A führt aktuell eine SAP Retail-Landschaft ein. Der Aufbau eines Greenfield Data Warehouse als Basis für Analytics, BI und Reporting ist dabei grundlegender Bestandteil. Anders als in traditionellen SAP-Umgebungen hat sich C&A für die Einführung einer best-of-breed DWH-Architektur auf Grundlage von Data Vault, Data Warehouse Automation und einer Data Lakehouse-Architektur entschieden, die erst auf Basis einer Cloud-basierten DWH-Plattform eines Hyperscaling-Anbieters möglich wurde.

Zielpublikum: Data Architect, Data Engineer, BI Expert:in, Data Analyst
Voraussetzungen: Grundkenntnisse in Datenarchitektur und Datenmanagement
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Das Fashion-Retail Unternehmen C&A führt aktuell eine SAP Retail-Landschaft ein. Ziel ist es, die zahlreichen Geschäftsprozesse zu digitalisieren und zu optimieren. Der Bedarf für Analytics ist im Unternehmen hoch, sodass der Aufbau eines Greenfield Data Warehouse als Basis für Analytics, BI und Reporting von Anfang an Bestandteil des SAP-Programms wurde. Anders als in traditionellen SAP-Umgebungen hat sich C&A für die Einführung einer best-of-breed DWH-Architektur auf Grundlage von Data Vault, Data Warehouse Automation und einer Data Lakehouse-Architektur entschieden, die erst auf Basis einer Cloud-basierten DWH-Plattform eines Hyperscaling-Anbieters möglich wurde.

Übergreifendes Ziel des Greenfield DWHs ist die Bereitstellung einer Data Platform für sämtliche Dateninhalte der C&A, d.h. sowohl aus der SAP Retail-Landschaft als auch aus sämtlichen Non-SAP-Systemen. Hierdurch sollen flexible und performante Möglichkeiten für Analytics und Reporting geschaffen werden. Eine einfache Datenintegration mit Non-SAP-Daten ist ein wichtiges, langfristiges Ziel, ebenso wie die direkte Verknüpfbarkeit von SAP-Daten mit Rohdaten (z. B. Kassendaten, Sensordaten, Customer Counting, RFID) für Analytics.

Lutz Bauer ist seit 2019 als Domain-Architekt für Data und Analytics bei der IT-Tochter der C&A tätig. Seine fachlichen Schwerpunkte sind Data Integration, DWH-Plattformen und die Modernisierung von DWH-Architekturen. Er blickt auf über 25 Jahre Erfahrung im Bereich Data Warehousing und BI zurück und war bereits Autor im BI Spektrum sowie mehrfach Sprecher auf der TDWI-Konferenz und anderen Veranstaltungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/lutz.bauer

Till Sander weist eine über 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/till.sander

Lutz Bauer, Till Sander
E119
Lutz Bauer, Till Sander
E119
Vortrag: Do 4.3
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:10
Do 5.3
Digital Planning 2.0 bei der Telekom Deutschland AG
Digital Planning 2.0 bei der Telekom Deutschland AG

Digital Reporting und Predictions haben wir schon im Einsatz - Digital Planning ist der konsequente nächste Schritt in Richtung Finanzorganisation der Zukunft.

Optimiertes Forecasting, Planung und Rolling Projection über eine moderne, flexible, cloudbasierte, integrierte Planungsplattform. Zusammenarbeit auf dem nächsten Level, keine aufwendigen Konsolidierungsschritte mehr und direkte Analysemöglichkeit! Der Privatkundenbereich startete 2022 als Pilot und 2023 kommen alle anderen Segmente mit ins Projekt. Wir wagen den nächsten Schritt.

Zielpublikum: CFO, Head of Controlling, Controlling, Finance
Voraussetzungen: Controlling-Erfahrungen
Schwierigkeitsgrad: Einsteiger

Florian Hoebel, Finance Projekt Manager bei der Telekom Deutschland AG, ist 2015 im DTAG-Konzern bei der T-System gestartet. Mit der Passion zur Digitalisierung, Data Analytics und Controlling startet er die Digitalisierung der Planungsprozesse bei der T-Systems. In 2022 wechselte Florian Hoebel zur Telekom Deutschland AG. Als Teil des DNA-Programms der Telekom Deutschland AG enabled Florian Hoebel das Competence Center Planning als eines der Fokusthemen im Financebereich.

Sebastian Köster ist ein erfahrener Experte in den Bereichen Finance, Controlling und Digitalisierung. Als Leiter des Digital Finance Excellence Teams bei Detecon bringt er mehr als 12 Jahre Management Consulting-Erfahrung in Bereichen wie CFO Advisory, Digital Finance Planning, Due Dilligence und Agile Finance mit.

Als Mitglied des ICV Controller Vereins ist er eng mit anderen Fachexperten vernetzt und setzt sich kontinuierlich für den Fortschritt im Controllingbereich ein.

Julius Große-Leege unterstützt seit 2020 Kunden als Consultant bei der Detecon (Schweiz) AG bei digitalen Transformationsprojekten mit einem Fokus auf Projekten im Bereich Corporate Finance. Seit 2013 arbeitet er zusätzlich als Geschäftsführer eines Gesundheitsdienstleisters. 
Aktuell berät er die Telekom Deutschland GmbH im Rahmen der Digitalisierung ihrer Planungsprozesse im Finanzbereich (Digital Planning 2.0). Dabei begleitete er die Telekom Deutschland GmbH von der Toolauswahl bis zur Implementierung der verschiedenen Planungsprozesse.

Nach drei Jahren bei der Credit Suisse Zürich als Business-Managerin unterstützt Raveetha Rajakumar seit 2022 im Namen von Detecon Schweiz die Deutsche Telekom beim größten Digitalisierungsprojekt des Jahres. Hierbei wird der aktuelle Planungsprozess in e ine neue integrierte Plattform überführt und dabei vereinfacht, beschleunigt und vor allem digitalisiert. Raveetha Rajakumar agiert als Change Managerin und ist zuständig fürs Veränderungsmanagement, Kommunikation aber auch Schulung der Mitarbeiter. Zudem begleitet Raveetha Rajakumar die deutsche Telekom von der Toolauswahl bis zur Implementierung der verschiedenen Planungsprozesse.

Florian Hoebel, Sebastian Köster, Julius Grosse-Leege, Raveetha Rajakumar
F111
Florian Hoebel, Sebastian Köster, Julius Grosse-Leege, Raveetha Rajakumar
F111
Vortrag: Do 5.3
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:10
Do 6.3
Auf dem Weg zu Mixed Scenarios im Jahr 2023
Auf dem Weg zu Mixed Scenarios im Jahr 2023

In den letzten Jahren haben sich die den ERP-Systemen zugrunde liegenden Systemlandschaften technologisch grundlegend verändert und In-Memory-basierte Architekturen haben bereits Einzug in die gesamte On-Premise-Landschaft bis hin zur Cloud gehalten. Standardisierte Datenbanktechnologien ermöglichen zunehmend systemunabhängige Zugriffe mit kurzen Latenzzeiten und analytische Funktionalitäten sind nicht mehr ausschließlich dedizierten DWH-Lösungen vorbehalten. Dies birgt viele Chancen, wirft aber auch viele Fragen auf.

Zielpublikum: BI-Manager:innen, Fach-/IT-Entscheider:innen, DWH-Architekt:innen, BI-Projektleiter:innen
Voraussetzungen: Grundlagen Data Warehousing
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Am Beispiel einer aktuellen In-Memory-Only-Architektur aus den SAP-Produkten S/4HANA, BW/4HANA, Data Warehouse Cloud und Analytics Cloud werden zentrale, herstellerunabhängige Fragestellungen verdeutlicht und diskutiert:
Auf welche Ebenen und welche Entscheidungen innerhalb der Unternehmensprozesse wirkt sich die Verfügbarkeit von zusätzlichen Architekturoptionen aus?
Wie kann ein Portfolio von teilweise funktional überlappenden Softwareprodukten sinnvoll eingesetzt werden?
Welche Bedeutung kommt der redundanten Datenhaltung in solchen Systemverbünden zu? 
Welche neue Prämissen zukunftsgerichteter Analytics-Szenarios ergeben sich aus diesen Veränderungen?
Und: Welche Auswirkungen haben diese auf die innerbetriebliche Arbeitsteilung im Analytics-Umfeld?

Dirk Morgenroth ist Senior Consultant Analytics bei der Phoron Consulting GmbH Österreich. Er verfügt als Führungskraft, Berater und Projektleiter über mehr als 16 Jahre Erfahrung im Bereich Data Warehousing, Business Intelligence und Analytics. Als Lösungsarchitekt, Entwickler, Trainer und Coach unterstützt er Kunden bei deren Analytics-Vorhaben.

Dirk Morgenroth
E101/102
Dirk Morgenroth
E101/102
Vortrag: Do 6.3
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:10
Do 8.3
Metadaten- und Datenqualitätsmanagement: eine Metastudie
Metadaten- und Datenqualitätsmanagement: eine Metastudie

Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/torsten.priebe

Metadaten- und Datenqualitätsmanagement sind wichtige Bestandteile jeder Datenarchitektur. Das Werkzeugangebot ist vielfältig und dynamisch, der Markt ist neben umfangreichen Datenmanagementlösungen von 'disruptiven' Innovatoren geprägt. Wir ordnen die betrachteten Teilbereiche der Data Governance ein, vergleichen aktuelle Werkzeuge und identifizieren Entwicklungen und Trends. Dabei erfolgt die Einschätzung nicht durch die Sprecher, sondern basiert auf einer Metastudie einschlägiger Veröffentlichungen von Analysten wie Gartner und Forrester.

Zielpublikum: Chief Data Officer, Data Governance Manager, IT-Leiter:innen, IT-Architekt:innen, IT-Berater:innen
Voraussetzungen: Grundkenntnisse in Datenmanagement und Data Governance
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Der Markt von Werkzeugen zur Unterstützung von Datenmanagement und Data Governance befindet sich im Wandel. Automatisierungsmöglichkeiten durch den Einsatz von künstlicher Intelligenz und maschinellem Lernen oder die Verwendung semantischer Technologien wie Knowledge Graphs eröffnen neue Möglichkeiten. Dies betrifft insbesondere die Bereiche Metadaten- und Datenqualitätsmanagement. Neben klassischer Business Intelligence treten vermehrt Data-Science-Anwendungsfelder in die Betrachtung, woraus sich neue Anforderungen ergeben. Der Vortrag gibt einen Marktüberblick und identifiziert aktuelle und zukünftige Entwicklungen und Trends auf Basis einer Metastudie. Hierzu wurden einschlägige Veröffentlichungen von Gartner, Forrester, IDC und G2 analysiert und kombiniert.

Prof. Dr. Torsten Priebe ist Dozent für Data Analytics an der Fachhochschule St. Pölten und leitet dort die Forschungsgruppe Data Intelligence. Zuvor war er in leitenden Positionen bei verschiedenen Beratungsunternehmen tätig. Sein Doktorat erwarb er 2005 an der Universität Regensburg mit einer Dissertation über semantische Technologien zur Integration von strukturierten und unstrukturierten Daten. Seit August 2023 ist er außerdem Gründer und Obmann der Energiegemeinschaft Ratzersdorf.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/torsten.priebe

Clark Millard ist Product Analyst bei Simplity, Hersteller der Data Intelligence-Softwareplattform Accurity. Dort umfasst sein Aufgabenfeld insbesondere die Analyse von Trends und Entwicklungen im Bereich Datenmanagement und Data Governance. Nach abgeschlossenem Masterstudium der internationalen Betriebswirtschaft an der Universität Wien arbeitete er zunächst als Berater im CRM-Umfeld.

Torsten Priebe, Clark Millard
F106
Torsten Priebe, Clark Millard
F106
Vortrag: Do 8.3
flag VORTRAG MERKEN

Vortrag Teilen

12:20 - 13:05
KeyDo
KEYNOTE: Preparing for the AI Act, 5 years into GDPR enforcement
KEYNOTE: Preparing for the AI Act, 5 years into GDPR enforcement

Starting off from a recent fine from the Berlin Beauftragte für Datenschutz und Informationsfreiheit (BlnBDI) around obligations for automated decision making (art. 22 of the GDPR), this presentation will walk the audience through how teams collaborate around compliance obligations. 
Risk with respect to processing of personal data continues to increase since the ink dried on the GDPR in 2016. Enforcement as of 2018 has signaled a need for companies to act responsibly with their data processing operations. While data governance is surely not the sexist job of the XXI st century and data self-service is on everybody’s mind, the increased complexity of integrated data systems requires collaboration. You possibly know who your companies’ data protection officer is. Or not. Let’s talk about who could be responsible for what, how privacy-by-design consensus can be reached and where technology plays a role in preparing for an accountable, increasingly automated and risk mitigated, future. 

Mantra: Data is the New Infrastructure, Privacy is the New Green, Trust is the new Currency
Pioneering digital analytics in Europe, Aurélie co-found OX2 in Belgium in 2003, which was sold to UK based Publicis in 2008 with an EBIT of 20%.
While her background is rooted in econometrics, digital allowed her to cook with data early on. It also brought worry about the future.
Today her career is retro-fed by 3 pillars: her own consultancy, working as “consiglieri” to digital actors (some of which as DPO), teaching at business schools and universities about data privacy and collaborating with EU Institutions. At present she is a member of the expert group for the Observatory for the Platform Economy and of the pool of experts of the EDPB.

Aurélie Pols
Keynote Area
Aurélie Pols
Keynote Area
Track: #Keynote
Vortrag: Keydo
flag VORTRAG MERKEN

Vortrag Teilen

13:05 - 14:35
Pause
Mittagessen & Ausstellung / Lunch & Exhibition
Mittagessen & Ausstellung / Lunch & Exhibition

13:55 - 14:25
CSdo1
Case Study Ataccama| In Search of the Sweet Spot
Case Study Ataccama| In Search of the Sweet Spot

"The development of the data governance journey at Helaba will be presented using selected use cases. Which deficits hurt the most, how do you find the right tools, and what is the right tool in the right place? And as is appropriate for a journey - sometimes there are also dead ends, detours, and shortcuts.

Extended Abstract
In an era where data is invaluable, an adept Data Governance strategy is essential for organizations. Helaba, a leading financial institution, recognized the necessity of efficient Data Governance and embarked on this journey with the assistance of Ataccama, a provider of unified data management solutions provider.

The session will cover:
Selected real-world use cases to illustrate the steps of Data Governance development at Helaba and Ataccama's contribution to addressing critical deficiencies.
Methodologies used for identifying the right tools for governance. The audience will learn how the collaboration between Helaba and Ataccama ensured the adept placement and utilization of these tools within the governance framework. 
Insights into the detours, dead-ends, and shortcuts that were encountered, and how Helaba navigated through these challenges.

Attendees will leave with practical knowledge and strategies they can employ in their own organizations and an understanding of the benefits of partnering with Ataccama.


Target audience: Data Governance Professionals, Data Managers, IT Managers, Decision Makers, Strategy Consultants
Prerequisites: Basic understanding of Data Governance and IT management
Level of difficulty: Intermediate"

Since 2021, Marcus Schank, who boasts a rich background in consulting and an array of roles within line functions, has been a distinguished member of the Application Development for Data Warehousing team at Landesbank Hessen-Thüringen (Helaba). He is instrumental in fortifying the Treasury department through his expertise in Data Warehousing (DWH) and Business Intelligence (BI) applications. Moreover, as an IT Project Manager, he has been entrusted with spearheading a suite of projects aimed at the Treasury department as part of the strategic overhaul of the application infrastructure. Beyond his prowess in DWH and BI, Mr. Schank is well-versed in Business Architecture, Requirements Management, and Process Management. Outside the ambit of Helaba, he channels his acumen into organizational development, acting as a mediator and coach.

Marcus Schank
F111
Marcus Schank
F111
Vortrag: CSdo1
flag VORTRAG MERKEN

Vortrag Teilen

13:55 - 14:25
CSdo3
Case Study Scalefree │ Siemens Data & AI Cloud: Data Mesh meets Data Vault
Case Study Scalefree │ Siemens Data & AI Cloud: Data Mesh meets Data Vault

Siemens schafft mit Data Mesh ein innovatives Analytics-Ökosystem. Diverse Fachbereiche mit individuellen Verantwortlichkeiten arbeiten innerhalb eines Ökosystems zusammen, um Siemens zu einem data-driven Unternehmen zu transformieren. Eine große Herausforderung besteht darin, die Konsistenz zwischen den verschiedenen Bereichen zu gewährleisten. Data Vault spielt eine entscheidende Rolle bei der Bewältigung dieser Herausforderung.

Moritz Heimpel ist ein erfahrener Datenanalyst und IT-Experte, der seit 2013 bei Siemens arbeitet und seit Oktober 2021 als Chief Data Architect. Heute kann er als Head of Analytics und AI Enablement seiner Passion für Analytics und AI folgen. Durch seine umfassende Karriere ist er heute ein Experte in den Bereichen Data Analytics, Data Strategy, Strategic Planning, Data Architecture, IT Strategy und Snowflake.

Marvin Geerken ist, seit seinem Master-Abschluss in BI & Analytics Anfang 2021, als BI-Consultant für Scalefree tätig. Er ist Experte für das Design und die Implementierung von BI-Lösungen, mit Fokus auf der Data Vault 2.0 Methodik. In seinen Kundenprojekten hat er sich ebenfalls stark auf die Anwendung von dbt und Snowflake spezialisiert.

Moritz Heimpel, Marvin Geerken
E119
Moritz Heimpel, Marvin Geerken
E119
Vortrag: CSdo3
flag VORTRAG MERKEN

Vortrag Teilen

13:55 - 14:25
CSdo4
Case Study snaplogic │ Simplify Your Modern Data Stack with SnapLogic
Case Study snaplogic │ Simplify Your Modern Data Stack with SnapLogic

Simplifying the modern data stack by choosing a unified platform like SnapLogic can help to eliminate the need to purchase countless point-to-point solutions. Instead, data leaders are able to simply automate end-to-end processes, enable their teams faster, and manage their data more easily from one centralized solution.

Prerequisites: Awareness of what data integration is
Level: middle

 

As a consultant and developer for individual software solutions and process automation, Markus Pentzek has supported numerous customers in his 20-year career in the field of digitization. Today, as a Senior Solutions Engineer at SnapLogic, he is a proven expert on the topics of application and data integration as well as API management and advises customers from various industries in these areas. He is a speaker at various conferences and regularly hosts webinars.

Markus Pentzek
E101/102
Markus Pentzek
E101/102
Vortrag: CSdo4
flag VORTRAG MERKEN

Vortrag Teilen

13:55 - 14:25
CSdo6
Case Study Collibra │ Collibra Data Quality & Observability
Case Study Collibra │ Collibra Data Quality & Observability

In his talk, Michael showcases how Collibra Data Quality & Observability helps to improve the quality of data by learning through observation rather than human input. Collibra DQ applies the latest advancements in data science and machine learning to the problem of data quality, surfacing data issues much faster than traditional, manual approaches.

Michael has spent over 32 years at Oracle in various positions and departments from Product Management to Solution Consultancy, he joined Collibra in early January as a Senior Sales Engineer. At Collilbra, Michael supports our customers in EMEA so that they get access to the data in a quality they need to transform their business into modern digital enterprises.

Michael Schneller
K3
Michael Schneller
K3
Vortrag: CSdo6
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Do 1.4
The Good, the Bad, the Ugly
The Good, the Bad, the Ugly

Habt Ihr diese Erfahrungen auch gemacht?  

The Good: Wir starten mit ambitionierten Vorsätzen, um ein bestehendes Analytics System auf ein neues Level zu heben. Modernisierung heißt hier das Zauberwort.

The Bad: Dumm nur, wenn unsere Ambitionen und Vorsätze durch die Realität auf eine harte Probe gestellt werden.

The Ugly: Wir zeigen anhand von mehreren Beispielen auf, was in unseren Modernisierungsvorhaben nicht auf Anhieb funktioniert hat. Und warum wir überzeugt sind, dass eine Modernisierung sich trotzdem lohnt.

Zielpublikum: Alle, die schon einmal ein Analytics-Projekt im Kontext der Modernisierung durchgeführt haben, entweder als Projektleitung, Data Engineer, Entscheider:in etc.
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Habt Ihr diese Erfahrungen auch gemacht?  

The Good: Wir starten mit ambitionierten Vorsätzen, um ein bestehendes Analytics System auf ein neues Level zu heben. Modernisierung heißt hier das Zauberwort. Durch ein modernes Data Management erreichen wir, dass mehr Daten in Echtzeit verarbeitet und bereitstellt werden können. Dank einem passgenauen Datenmodell integrieren wir schnell und automatisiert neue Datenquellen in unsere Anwendung. Mit dem modernen Frontend-Tool beglücken wir Data Consumer mit neuen Features, damit sie ihre Daten endlich effektiv nutzen können. Wir zielen auf viele Verbesserungen ab.  

The Bad: Dumm nur, wenn unsere Ambitionen und Vorsätze durch die Realität auf eine harte Probe gestellt werden.

The Ugly: Wir zeigen anhand von mehreren Beispielen auf, was in unseren Modernisierungsvorhaben nicht auf Anhieb funktioniert hat. Mit diesen Beispielen zeigen wir reale Fälle auf, die wir als Berater:innen in unseren Projekten selbst miterlebt haben. Wir zeigen, dass Pauschalaussagen gefährlich sind und dass jedes Vorhaben von individuellen Gegebenheiten geprägt ist, für die es keine Musterlösungen gibt. Und wir sind überzeugt: Modernisierungen lohnen sich (trotzdem)!  

Jürgen Fischer ist Director Corporate Development bei OPITZ CONSULTING Deutschland GmbH. In dieser Funktion verantwortet er die optimale Ausrichtung von Strukturen, Prozessen und Verhaltensweisen entlang der Wertschöpfungskette.
Seine fachlichen Wurzeln und seine Leidenschaft liegen im Bereich Business Intelligence und Analytics, in dem er seit mehr als 20 Jahren in zahlreichen Funktionen von der Analyse, Konzeption, Entwicklung bis zu Management und Führung überregionaler interdisziplinärer Teams tätig war. Sein aktueller Schwerpunkt liegt in der ganzheitlichen Beratung von der Strategie, der Konzeption und Organisation bis hin zur Verantwortung für die Umsetzung.

Arthur Arendt arbeitet bei OPITZ CONSULTING Deutschland GmbH als Manager Solution Consulting und verantwortet den regionalen DWH/BI & Analytics-Bereich. Seit über 8 Jahren setzt er sich im Projektgeschäft mit wirtschaftlichen und technischen Fragestellungen auseinander und erarbeitet kundenindividuelle Lösungen. Seine Erfahrungen kommen im gesamten Lebenszyklus von Analytics-Plattformen zur Geltung, wobei er besonderen Wert auf die Anforderungsaufnahme und -bewertung legt.

Jürgen Fischer, Arthur Arendt
K3
Jürgen Fischer, Arthur Arendt
K3
Track: #MessUps
Vortrag: Do 1.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Do 2.4
Die „Re-Evolution“ einer ganzheitlichen Datenplattform in der Cloud
Die „Re-Evolution“ einer ganzheitlichen Datenplattform in der Cloud

Der Vortrag zeigt den Weg, wie das BI Competence Center der Volkswagen Marke Nutzfahrzeuge es geschafft hat, in kurzer Zeit eine On Premises DWH-Plattform für die die gesamte Volkswagen Gruppe auf modernste Cloudtechnologie zu migrieren und zu skalieren. Hierbei wird speziell auf Herausforderungen der Skalierbarkeit klassischer BI-Architekturen und die Grenzen der Nutzung von Automation im Kontext von Cloudservices eingegangen. Der Bericht stammt aus der aktuellen Praxis und macht klar wie flexibel und erweiterbar heutige Teams und Architekturen sein müssen, um den heutigen Business-Anforderungen gerecht zu werden.

Zielpublikum: (Cloud-) Data Engineers, BI-Projektmanager:innen, Cloud-Architekt:innen, Entscheider:innen...
Voraussetzungen: Grundverständnis von Daten- und BI-Themen, Cloud-Architektur und BI-Strategie
Schwierigkeitsgrad: Fortgeschritten

Tim Grützner arbeitet in seiner aktuellen Rolle als Produktmanager für Data Platforms and Products übergreifend für die Realisierung einer Datenplattform auf Basis des modern Technology Stack und verantwortet eine Großzahl von BI- und Dateninitiativen für die Marke Volkswagen Nutzfahrzeuge und in der Volkswagen AG. Er ist seit ca. 10 Jahren für Volkswagen tätig und hatte verschiedene Rollen im Kontext Data Management wie z.B. Head of BI für VW Nutzfahrzeuge in der Vergangenheit inne.

Tim Grützner
E124
Tim Grützner
E124
Vortrag: Do 2.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Do 3.4
Ist das ein ODS, Data-Lake oder irgendetwas dergleichen?
Ist das ein ODS, Data-Lake oder irgendetwas dergleichen?

Die DEVK setzt seit 2019 das Bestandssystem IPM für das Sachgeschäft ein. Für das notwendige Reporting und Analysen haben wir uns für eine quellsystemnahe Auswertungslösung entschieden. Diese nutzt die Besonderheit des IPM-Datenmodells, keine Datensätze zu verändern oder zu löschen sowie die zentrale Historisierung des Systems. Der Vortrag berichtet von unserem Vorgehen zur Ermittlung von Delta-Zeitscheiben für die Bewirtschaftung, der zweizeitigen Zeitraumhistorisierung und den zusätzlichen Tabellen zur Vereinfachung von Auswertungen.

Zielpublikum: Data Engineer, Entscheider:innen
Voraussetzungen: Grundlegende Datenbankkenntnisse
Schwierigkeitsgrad: Einsteiger

Seit 15 Jahren baut und betreut Jens Härtrich Auswertungslösungen vor allem im Versicherungsumfeld. In dieser Zeit ist er zum Schluss gekommen: Weniger in kurzer Zeit ist besser als mehr in einer ungewissen Zukunft. Simple Lösungen lassen sich auch mit kleinem Team in kurzer Zeit umsetzen und betreiben, wenn man seine Hausaufgaben in Bezug auf Auswertungsperformance und Historisierung gemacht hat.

Jens Härtrich
K4
Jens Härtrich
K4
Vortrag: Do 3.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 16:15
Do 4.4
Each Data Architectures Requires a Metadata Architecture
Each Data Architectures Requires a Metadata Architecture

In all data architectures, be it a data mesh, data fabric, data warehouse, or data lakehouse architecture, metadata is indispensable. This is especially true for business users who develop their own dashboards and reports and create data science models. To offer frictionless access to metadata, it is important that, when designing a data architecture, time is reserved for designing a full-fledged metadata architecture. Metadata should not be an afterthought or treated like a neglected stepchild. It is the key to a successful data architecture.

Target Audience: Data Architects, Enterprise Architects, Solutions Architects, IT Architects, Data Warehouse Designers, Analysts, Chief Data Officers, Technology Planners, IT Consultants, IT Strategists
Prerequisites: Some understanding of data architectures
Level: Advanced

Extended Abstract:
In the past, metadata was mainly kept for IT specialists. They needed detailed descriptions of what all the files, tables, and columns meant. That need still exists, but new users are interested in metadata.

Today, business users, especially those who develop their own dashboards and create data science models, need access to metadata. They need to be able to see descriptions, categorizations, lineage, and so on. They need to know exactly what they are looking at. They must be able to search metadata to find the right data to develop a report or data science model. They also need metadata to clarify how to interpret the data. So, we need to analyze in detail what types of metadata business users need.

It is also important to study how they want to access the metadata. For example, for a business user working with a dashboard full of financial data, descriptions of what all those values mean should be readily available. And they may want to see that metadata automatically when they hover their mouses over a specific value for two seconds. They may not want to start a separate system to get those descriptions, because it would be inconvenient and time consuming. It is important to understand how users want to use metadata. Business users may want to add their own metadata descriptions in the form of annotations. Again, to design the right metadata architecture, this would be an important requirement.

Currently, metadata must be properly managed for reasons of data privacy, security, auditability, and governability, which may require robust forms of version control. 

Metadata must also be entered and extracted from other systems. With respect to extraction, an ETL-like solution may be required to extract metadata from source systems and schedule these extraction processes periodically, as metadata can change. Keep in mind that ETL for metadata does not simply extract metadata from some structured data source. It can mean extracting metadata descriptions from ETL programs, database stored procedures, and the semantic layers of reporting tools. The source for metadata-ETL is not always a database, but sometimes also code and specifications.

All of these requirements do not magically appear; they must be analyzed, designed, and developed. In all data architectures, be it a data mesh, data fabric, data warehouse, or data lakehouse architecture, metadata is indispensable, especially for modern business users who develop their own dashboards and reports. To offer frictionless access to metadata, it is important that, when designing a data architecture, time is reserved for designing a full-fledged metadata architecture. Metadata should not be an afterthought or treated like a neglected stepchild. Metadata is the key to a successful data architecture.

Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.

Rick van der Lans
E119
Rick van der Lans
E119
Vortrag: Do 4.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Do 5.4
Iteration für Iteration zum Ziel: Scrum im BI-Projekt
Iteration für Iteration zum Ziel: Scrum im BI-Projekt

Agile Methoden sind in der modernen Softwareentwicklung nicht mehr wegzudenken.

Aber eignen sie sich auch für BI-Projekte? Für ein mehrjähriges BI-Migrationsprojekt hat die Bilfinger SE genau das mit dem Framework Scrum ausprobiert - mit Erfolg. Dabei hat sich herausgestellt, dass nicht jede Vorgabe umsetzbar ist, manches wurde angepasst und auf manches verzichtet. Das Praxisbeispiel bei der Bilfinger SE zeigt, wie am Ende die Methode dem Projekt dient und nicht umgekehrt.

Zielpublikum: Projektleiter:innen, Entscheider:innen, Data & Service Owner, Data Engineer
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Agile Methoden sind in der modernen Softwareentwicklung nicht mehr wegzudenken.

Aber eignen sie sich auch für BI-Projekte? Für ein mehrjähriges BI-Migrationsprojekt hat die Bilfinger SE genau das mit dem Framework Scrum ausprobiert - mit Erfolg. Dabei hat sich herausgestellt, dass sich nicht jede Vorgabe immer umsetzen lässt, manches wurde angepasst und auf manches ganz verzichtet.

Der Vortrag gibt einen Einblick, welche Herausforderungen sich bei einem BI-Projekt mit Scrum ergeben, wie es die Team- und Projektarbeit in einem komplexen Umfeld erleichtern kann und warum Anpassungen dort notwendig sind, wo es die Rahmenbedingungen erfordern.

Mirjam Cohrs ist Leiterin des Management Business Intelligence Teams bei der Bilfinger SE. Ihre Karriere begann als Analystin im CRM-Umfeld, heute bringt sie eine mehrjährige Erfahrung in der Umsetzung von Reporting- und DWH-Projekten in der Finanz- und Vertriebssteuerung mit.

Mirjam Cohrs
F111
Mirjam Cohrs
F111
Vortrag: Do 5.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 16:15
Do 6.4
Limitiert IoT Lab: Vom Sensor zu neuen Erkenntnissen
IoT Lab: Vom Sensor zu neuen Erkenntnissen

Wir zeigen Ende-zu-Ende die komplette Umsetzung eines IoT Use Case: Von der Anbindung des Sensors über die Sammlung der Daten bis hin zur Visualisierung in near-realtime Dashboards. Weiterhin werden Alarmregeln definiert, um proaktiv auf Störungen reagieren zu können.

Dieses Szenario wird ganz praktisch vor Ort aufgebaut und kann von den Teilnehmern selbst ausprobiert werden. Teilnehmer lernen Best-Practice-Vorgehensweisen und bekommen Tipps, wie sie Stolpersteine umgehen.

Wir zeigen dieses Beispiel anhand der Iot-Plattform ThingsBoard.

Maximale Teilnehmendenzahl: 15. Benötigt wird ein Laptop (optional mit vorinstalliertem MQTT Client).

Zielpublikum: Data Engineer, Data Scientist, Digital Officer, IoT-Expert:in, Data Analyst
Voraussetzungen: Basiswissen Webdevelopment mit JavaScript
Schwierigkeitsgrad: Einsteiger

Michael Deuchert ist studierter Informatiker und seit 2015 bei it-novum Data Scientist und verantwortlich für IoT-Projekte unterschiedlichster Projektgrößen im Bereich Smart City, Smart Building und Industrie 4.0. Sein Herz schlägt für Open-Source-Technologien und alles rund um die Bereitstellung und Visualisierung von Daten aus verschiedensten Quellen.

Michael Deuchert
E101/102
Michael Deuchert
E101/102
Vortrag: Do 6.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 16:15
Do 7.4
Limitiert Hands-On Session: Predictive Planning
Hands-On Session: Predictive Planning

In der Finanzplanung haben sich in den letzten Jahren vielerlei technologische Innovationen wiedergefunden, die in anderen Bereichen schon länger genutzt wurden. Darunter fällt auch der Ansatz des Predictive Planning.

Beim Predictive Planning soll der Planer durch Vorhersagealgorithmen unterstützt werden, mit denen er seine Vorhersagen beginnen, verfeinern oder validieren kann. In dieser Hands-On Session soll dieses Konzept dem Teilnehmer theoretisch und praktisch näher gebracht werden.

Maximale Teilnehmendenzahl: 30. Benötigt wird ein Laptop.

Zielpublikum: FP&A Specialists, Controller:innen, COOs, Data Modeller, Data Analysts
Voraussetzungen: Grundwissen an Datenmodellierung und Finanzplanung
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der Mangel eines Standards in der Finanzplanung bezüglich Datenmodell oder Planungsideen hat in der Vergangenheit die Technologisierung dieses Sektors stark gebremst. Zwar ist auch die Finanzplanung heutzutage weitestgehend digitalisiert, allerdings hing man technologisch auf dem Stand von Spreadsheet-Bingo fest.

Erst, als Hersteller von Planungssoftware verstanden, dass das Ziel, den Planer zu ersetzen, aussichtslos ist, entstand eine neue Idee: Statt maschinengesteuert ging der Trend zu maschinengestützt.

Somit stehen dem Finanzplaner heute deutlich mehr technologische Mittel zur Verfügung, die ihm seine Arbeit erleichtern sollen, obgleich aber die Art der Modellierung und Vorhersage beim Planer bleibt. Einer der neusten Trends diesbezüglich ist die automatische Vorhersage der zu planenden Kennzahlen, die es dem Planer ermöglichen, in kürzester Zeit ein erstes Modell aufzustellen, sein eigenes Modell zu verfeinern oder es zu validieren. Zusammen mit den modernen Reportingmöglichkeiten ergibt sich ein Arbeitsfluss, der sehr gut zur modernen, agilen Arbeitsweise von Unternehmen passt.

In dieser Session werden Idee und Konzept des Predictive Planning vorgestellt und anhand einfacher Beispiele mit dem Teilnehmer gemeinsam exemplarisch umgesetzt.

Oliver Hommel ist Berater für SAP Analytics Cloud bei der PROCON IT GmbH und Experte für Planung (insbesondere FP&A). Seit 2017 ist er in verschiedenen Funktionen in Projekten der Finanzplanung und Datenanalyse involviert, zunächst als Entwickler, Berater und Product Owner bei der SAP SE und seit 2023 bei der PROCON IT GmbH.

Thomas Weber ist Berater für SAP Analytics Lösungen (BW/4HANA, SAC) mit Fokus auf Finanzplanung und Reporting. 
Er ist für die PROCON IT GmbH als Berater in verschiedenen Analytics Projekten seit 2013 im Einsatz.

Christine Hermann war nach ihrem Master in Betriebswirtschaftslehre im Bereich Business Intelligence & Reporting im eCommerce Umfeld tätig und unterstützte unter anderem bei der Entwicklung eines internationalen Management Reportings. Bei der PROCON IT GmbH ist sie als Consultant mit Schwerpunkt SAP Analytics Cloud (Planung) tätig.

Oliver Hommel, Thomas Weber, Christine Hermann
E105
Oliver Hommel, Thomas Weber, Christine Hermann
E105
Vortrag: Do 7.4
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Do 8.4
Anwendungen von Large Language Models – erste Erfahrungen aus Praxiseinsätzen
Anwendungen von Large Language Models – erste Erfahrungen aus Praxiseinsätzen

Large Language Models wird das Potential zugesprochen, geradezu revolutionäre Umwälzungen in Unternehmen und Gesellschaft zu ermöglichen. Nach einer kurzen Einführung in die Thematik stellt der Vortrag aktuell realisierbare Anwendungen vor, um dann anhand realer Projekterfahrungen die Potentiale, aber auch die Voraussetzungen und Grenzen des Einsatzes der Technologie auszuloten.

Timo Klerx ist Gründer und Data Scientist von und bei paiqo und hilft Kunden bei der Konzeption und Umsetzung von Projekten im Bereich Artificial Intelligence/Data Science/Machine Learning.
Die ersten Berührungen mit AI hatte Timo in einem Forschungsprojekt zur automatischen Manipulationserkennung von Geldautomaten.
Bevor er sein eigenes Startup gründete, sammelte er Erfahrungen in einem anderen Data Science Startup und fokussierte sich dort auf den Bereich Machine Analytics inkl. Use Cases wie Predictive Maintenance und Predictive Quality.
Weiterhin engagiert sich Timo bei diversen Data Science Meetups in Paderborn, Münster und gesamt NRW.

Timo Klerx
F106
Timo Klerx
F106
Vortrag: Do 8.4
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Do 1.5
BCIs Demystified – Können Gedanken die Kontrolle übernehmen?
BCIs Demystified – Können Gedanken die Kontrolle übernehmen?

Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht, eine solche Software zu entwickeln. Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -typen sowie deren unterschiedliche Ansätze zur Erfassung von Gehirnströmen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der künstlichen Intelligenz einzusetzen.

Zielpublikum: Entscheider:innen, Manager:innen, Entwickler:innen, IT-affine Menschen
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -typen sowie deren unterschiedliche Ansätze zur Erfassung von Strömen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der künstlichen Intelligenz einzusetzen, welche die Auswertung der Gehirnströme aus der Elektroenzephalografie (EEG) unterstützen. Die Sprecher haben verschiedene Experimente und prototypische Showcases u. a. mit OpenBCI, EMotiv Epoc-X und NextMind implementiert und teilen ihre Erfahrung mit dem Publikum.

Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Echtzeit-Deepfakes, einer Shitposting-KI oder autonom fliegenden Minidrohnen.
Jonas studierte Informatik: Games Engineering an der TU München und beschäftigte sich dabei neben den üblichen Spieleprojekten auch intensiv mit High Performance Computing und Künstlicher Intelligenz.

Christoph Bergemann ist Consultant bei TNG Technology Consulting GmbH. In seinen Projekten hat er verschiedene Rollen als Entwickler, Architekt oder Product Owner ausgefüllt. Daneben ist er Mitglied im TNG Innovation Hacking Team, in dem er zur Entwicklung von Prototypen im VR und KI Umfeld beiträgt. Vor seinem Leben in der IT hat er als Wissenschaftler am Deutschen Zentrum für Luft- un d Raumfahrt gearbeitet. Dort hat er an Fernerkundung der Atmosphäre geforscht.

Jonas Mayer, Christoph Bergemann
K3
Jonas Mayer, Christoph Bergemann
K3
Track: #MessUps
Vortrag: Do 1.5
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Do 2.5
Sustainalytics: Grüne (Daten-)Lösungen für grüne Zahlen
Sustainalytics: Grüne (Daten-)Lösungen für grüne Zahlen

In einer quantitativen Umfrage hat Adastra festgestellt, dass viele Unternehmen ihre Nachhaltigkeitspotenziale noch nicht voll ausschöpfen. Neue Gesetze erhöhen den Druck. Unternehmen sollten sich jedoch nicht nur daran halten, weil sie müssen - sondern die Gelegenheit nutzen, um innovativ und wertschöpfend zu sein.
Die Herausforderung dabei: auf relevante Daten zuzugreifen und sie auszuwerten. In diesem Vortrag sprechen wir darüber, wie Sie moderne Datenarchitekturen nutzen können, um Ihre Unternehmens- und Nachhaltigkeitsziele zu erreichen.

Zielpublikum: Entscheider:innen, ESG Officers, Data Architects/Engineers
Voraussetzungen: Interesse an Nachhaltigkeit und/oder modernen Datenlösungen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
In einer quantitativen Umfrage hat Adastra festgestellt, dass viele Unternehmen ihre Nachhaltigkeitspotenziale noch nicht voll ausschöpfen. Dies gilt insbesondere auch für Nachhaltigkeit im Datenmanagement. Neue Gesetze erhöhen den Druck. Unternehmen sollten sich jedoch nicht nur daran halten, weil sie müssen - sondern die Gelegenheit nutzen, um innovativ und wertschöpfend zu sein.
Die Herausforderung dabei: auf relevante Daten zuzugreifen und sie auszuwerten. In diesem Vortrag sprechen wir darüber, wie Sie moderne Datenarchitekturen nutzen können, um Ihre Unternehmens- und Nachhaltigkeitsziele zu erreichen. Darüber hinaus zeigen wir verschiedene Lösungen und Best Practices aus Kundenprojekten auf, wie Sie Ihre Daten nutzen können, um Nachhaltigkeitsinitiativen in Ihrem Unternehmen zum Erfolg zu führen. Im Fokus dabei sind unter anderem die Optimierung von Query-Performance und Data Storage, Cloudification sowie die Optimierung von Logistikprozessen.

Dr. Michael Simora ist Head of Adastra South Germany und als Lead Data Governance & Data Science Consultant tätig. Bevor er vor 5 Jahren ein Teil von Adastra wurde, analysierte Dr. Michael Simora in seiner Dissertation empirisch die Wahrnehmung und Anpassungen deutscher Privathaushalte an den Klimawandel sowie die Akzeptanz verschiedener klimapolitischer Maßnahmen. Als Projekt- & Account Manager verknüpft er heute in Kundenprojekten Nachhaltigkeit mit modernen Datenlösungen.

Michael Simora
E124
Michael Simora
E124
Vortrag: Do 2.5
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Do 3.5
Zweizeitige Historisierung mit Partitionierung und IOT
Zweizeitige Historisierung mit Partitionierung und IOT

Will man Daten unter Berücksichtigung einer zweizeitigen Historisierung mit Von- und Bis- Zeiträumen ablegen, kann man dies durch Hinzufügen der Historien-Felder an die Nutzdaten oder durch Auslagerung der Historieninformationen in einer separaten Tabelle erreichen. Der Vortrag gibt eine Einführung in die Grundlagen der bi-temporalen Historisierung und beleuchtet die Vor- und Nachteile beider Verfahren unter Berücksichtigung der Abfrageperformance unter Oracle.

Zielpublikum: Data Engineer, Data Scientist, Analyst:innen
Voraussetzungen: Grundlegende SQL-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten

Seit 15 Jahren baut und betreut Jens Härtrich Auswertungslösungen vor allem im Versicherungsumfeld. In dieser Zeit ist er zum Schluss gekommen: Weniger in kurzer Zeit ist besser als mehr in einer ungewissen Zukunft. Simple Lösungen lassen sich auch mit kleinem Team in kurzer Zeit umsetzen und betreiben, wenn man seine Hausaufgaben in Bezug auf Auswertungsperformance und Historisierung gemacht hat.

Jens Härtrich
K4
Jens Härtrich
K4
Vortrag: Do 3.5
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Do 5.5
Die Macht der Geschichten: Wie Storytelling BI optimiert
Die Macht der Geschichten: Wie Storytelling BI optimiert

Wissen Sie, wie viele der Reports in Ihrer Unternehmung nicht genutzt werden? Wissen Sie, warum? Auch wenn ein Report auf eine Fachanforderung hin entstanden ist, bedeutet dies nicht, dass dieser auch tatsächlich genutzt wird. Storytelling als BI-Methode kann dabei helfen, die Anforderungen der Stakeholder besser zu verstehen. Umgekehrt schafft Storytelling einen Bezug zu den Daten und zeigt den Kern der Information auf. Kommen Sie vorbei und lassen Sie sich von unserer Story überraschen!

Zielpublikum: Alle BI-Interessierten
Voraussetzungen: Grundverständnis der Begriffe BI und DWH
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Storytelling, das Geschichtenerzählen, hilft uns, komplexe Konzepte, Ideen und Informationen auf eine einfache und zugängliche Weise zu vermitteln. Die Menschheit nutzt seit jeher Geschichten als Kommunikationsmittel, wieso nicht auch in BI?

Einigen ist der Begriff Storytelling im weitesten bekannt. Die konkrete Bedeutung, der Nutzen sowie die Anwendung von Storytelling in BI ist jedoch noch nicht so bekannt. Das Ziel dieser Präsentation ist es, die Relevanz von Storytelling in BI aufzuzeigen. Und hoffentlich auch einen Anstoß zu geben, wie Sie datenbasierte Informationen im Unternehmen besser kommunizieren können. 

Haben Sie schon mal die Benutzerzahl Ihrer Reports kontrolliert? Vermutlich haben die meisten von Ihnen in Ihrem Unternehmen viele BI-Leichen rumliegen. Warum ist das so? Vielfach werden auf Anforderung aus dem Business Reports erstellt, jedoch nur von genau diesen Business-Usern mit der Anforderung verwendet, oder nach einer gewissen Zeit nicht mal mehr das. Was hier fehlt, ist der nachhaltige Austausch mit dem Business. Nachhaltig bedeutet nicht nur während der Anforderungserhebung, sondern auch bei der Reportverwendung. Eine Geschichte kann bereits bei der Anforderungserhebung helfen, das Verständnis zu fördern und sicherzustellen. Das heißt, dass die Anforderung des Business vom Entwickler richtig verstanden wurde. Eine Geschichte unterstützt aber auch die Report-Konsument:innen dabei, den Nutzen und die konkreten Insights aus einem Report zu verstehen und Entscheidungen zu treffen. 

Schließlich ist das Ziel von BI nicht, möglichst viele Reports anzubieten und somit möglichst viele Daten zu visualisieren. Ziel ist es, möglichst viele Erkenntnisse zu schaffen, welche zu besseren Entscheidungen führen. 

Wie diese Ziele erreicht werden können, werden wir im Verlaufe unserer Präsentation aufzeigen. Mit verschiedenen Beispielen werden wir die Herangehensweisen 'Data Storytelling' und 'Storytelling with Data' erläutern. Darauf aufbauend werden wir den Zuhörer:innen Beispiele und Hilfestellungen mitgeben. Das Ganze mit dem Ziel, dass die Zuhörer:innen danach Lust haben, bei ihrer Arbeit ab und zu auch mal in Stories zu denken. Vielleicht widerspiegelt sich dieses Experiment auch in den Report-Nutzerzahlen? 

Anspruch an uns selbst: Alles in Stories verpackt. Wir sind selbst gespannt, wie gut uns das gelingt.

Gianna Neeser arbeitet als Senior Consultant Data & Analytics bei der IT-Logix AG. Im Studium hat sie ihr Interesse an Daten entdeckt und beschäftigt sich heute mit der Entwicklung von Data Warehouses. Sie unterstützt Organisationen bei der Erhebung und Analyse von BI-spezifischen Anforderungen, der Durchführung von Projekten als Agile BI Coach in Entwicklerteams sowie dem Enablement der Fachanwender:innen. Gianna investiert sich zudem als «TDWI Young Gun» aktiv in die BI-Community.

Eva-Maria Kopf hat sich bereits in ihrem Masterstudium 'Business Intelligence & Analytics' mit Themen wie Storytelling beschäftigt. Als Consultant Data & Analytics bei der IT-Logix AG unterstützt sie Organisationen in der Bereitstellung von Daten ebenso wie in der Entwicklung und Umsetzung entscheidungstreibender BI-Reportings und dem Enablement von Fachanwender:innen. Eva-Maria investiert sich zudem als «TDWI Young Gun» aktiv in die BI-Community.

Gianna Neeser, Eva-Maria Kopf
F111
Gianna Neeser, Eva-Maria Kopf
F111
Vortrag: Do 5.5
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Do 8.5
Panel: Mit der KI in die Vollautomatisierung des Datenmanagements?
Panel: Mit der KI in die Vollautomatisierung des Datenmanagements?

Mit den aktuellen Fortschritten im Deep Learning wird es erstmalig möglich, in Texten maschinell sprachliche Nuancen zu erkennen, Inhalte in ihrem inhaltlichen Kontext zu interpretieren, unstrukturierte Datentypen in die Analysen einzubeziehen, benutzbare natürlichsprachige Benutzerschnittstellen bereitzustellen und Zusammenhänge zielgruppengerecht zu erläutern. Damit werden einige alte Weisheiten des betrieblichen Datenmanagements obsolet. Es stellt sich die Frage, ob nicht hierdurch Aufgaben von der Metadatengenerierung, dem Auffinden und der Integration von Datenquellen, der Formatanpassung und Dublettenbereinigung bis hin zur Generierung von Abfragen und Berichten automatisiert werden können – oder sogar in letzter Konsequenz das gesamte Datenmanagement.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Henning.Baars

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/carsten.felden

Henning Baars, Carsten Felden, Sebastian Olbrich
F106
Henning Baars, Carsten Felden, Sebastian Olbrich
F106
Vortrag: Do 8.5
flag VORTRAG MERKEN

Vortrag Teilen

Zurück