PROGRAMM

Die im Konferenzprogramm der TDWI München 2022 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

 

Hier können Sie die Programmübersicht der TDWI München 2022 mit einem Klick als PDF herunterladen.

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Montag
    20.06.
  • Dienstag
    21.06.
  • Mittwoch
    22.06.
, (Montag, 20.Juni 2022)
08:30 - 09:30
Pause
Kaffee / Coffee & Registrierung / Registration
Kaffee / Coffee & Registrierung / Registration

09:30 - 10:30
KeyMo1
ERÖFFNUNG und KEYNOTE: Welcome to the Real World: Data, Science and Supply Chain network optimization
ERÖFFNUNG und KEYNOTE: Welcome to the Real World: Data, Science and Supply Chain network optimization

Dominique Vitali is Director of the EU Customer Experience team at Amazon and in charge of Supply Chain and Transportation network optimization through analytics for the European customers – Delivery accuracy/Delivery
Speed/Fulfillment Cost Reduction/Carbon Intensity reduction. Managing a team of 25 analysts, program managers and data scientists.

Dominique Vitali
Dominique Vitali
Track: #Keynote
Vortrag: KeyMo1
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:15
Mo 1.1
Data-driven Insurance - KI-Einführung mit Strategie
Data-driven Insurance - KI-Einführung mit Strategie

KI hat einen disruptiven Einfluss auf die Wertkette der Versicherung. Data-driven Insurance steht für eine KI-Einführung zu Mehrwert mit Strategie. Neue Portfolios, Prinzipien, Standards, Jobs und Prozesse sind die Folge. Diese werden vorgestellt.

Zielpublikum: Führungskräfte, Trainer, Erklärer und Förderer
Voraussetzungen: KI-Agilität, Einführungs- und Projektmanagement
Schwierigkeitsgrad: Experte

Extended Abstract:
Damit die Einführung der Data-driven Insurance sich beschleunigt, sind die relevanten Themen zu gruppieren, zu priorisieren und die Verantwortungen hierüber zu klären. Dafür bedarf es einer schlagkräftigen Führungskoalition, welche eine Vision über die Einführung der Data-driven Insurance und der Künstlichen Intelligenz entwickelt und im Gesamtunternehmen propagiert. Promotoren werden eingesetzt, um die Vision umzusetzen und nach geeigneten KI-Business-Cases zu suchen. Die Business-Cases werden so bewertet, priorisiert und geplant, dass sich Ergebnisse schnell einstellen. Die mit diesen Erfolgen erzielte Glaubwürdigkeit belebt die Transformation neu. Dadurch können neue Mitarbeiter gewonnen werden, um die Verbesserungen zu konsolidieren und die neuen Ansätze zu institutionalisieren. Der Vortrag geht auf Best Practices und Fallstricke ein.

Leonhardt Wohlschlager ist seit 2006 bei CGI und dort heute als Insurance Practice Lead für IT-Strategie und Digitale Transformation verantwortlich. Erstmals 1998 führte er bei einer großen VVaG moderne IT als Projektleiter ein. Nach seiner Zeit bei IBM bis 2000 promovierte er berufsbegleitend zum Dr. der BWL im Jahr 2006. Daten hält er für eines der wichtigsten Assets in der Versicherung.

KI in regulierten Branchen: Ethik, GDPR&BR als Erfolgsfaktor
KI in regulierten Branchen: Ethik, GDPR&BR als Erfolgsfaktor

Das Thema KI ist in aller Munde. Fragt man in Unternehmen aber, wie bestehende Datenschutzanforderungen, Richtlinien der EU und die Mitbestimmung des Betriebsrates sichergestellt werden, so gibt es hier selten Antworten. Gerade die Einbeziehung dieser Stakeholder ist aber keine 'lästige' Pflicht, sondern ein kritischer Erfolgsfaktor.
Im Vortrag wird das Vorgehen der Zurich Deutschland vorgestellt und aufgezeigt, wie wir gemeinsam an einer für Mitarbeiter und Kunden fairen KI arbeiten.

Zielpublikum: Data & Analytics Entscheider
Voraussetzungen: Keine
Schwierigkeitsgrad: Einsteiger

Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.

Leonhardt Wohlschlager
Michael Zimmer
Leonhardt Wohlschlager

Vortrag Teilen

Michael Zimmer
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:15
Mo 2.1
Datenethik - Kompass für werteorientierte Data Governance
Datenethik - Kompass für werteorientierte Data Governance

Wir erleben zurzeit, wie die Digitalisierung unsere Realität dramatisch verändert. So verwundert es nicht, dass in diesem Zusammenhang Fragen zur Ethik, nach einem verlässlichen Koordinatensystem von Werten, immer häufiger gestellt werden. Im Fokus des Vortrags steht der 'richtige' Umgang mit Daten im analytischen Ökosystem des Unternehmens und beleuchtet u.a. folgende Aspekte:

  • Aufbau von Vertrauen und Akzeptanz als Schlüssel in der Kundenbeziehung
  • DSGVO und Datenethik 
  • Rollenspezifische Aspekte der Datenethik (Entwickler, Designer, Nutzer)

Zielpublikum: für alle, die sich professionell mit Daten beschäftigen
Voraussetzungen: Keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Inhalt in der Struktur wie der Vortrag beim RT in Hamburg. Natürlich mit aktualisierten Insights aus Praxis und Wissenschaft.
Wir erleben zurzeit, wie die Digitalisierung unsere Realität dramatisch verändert. Gesetze und Prinzipien, die über lange Zeit ihre Gültigkeit hatten, müssen auf den Prüfstand gestellt werden, weil die Veränderungen nie dagewesene Handlungsoptionen bieten - im Guten wie im Schlechten. So verwundert es nicht, dass gerade im Zusammenhang mit der Digitalisierung und Big Data Fragen zur Ethik und Moral, nach einem verlässlichen Koordinatensystem von Werten, immer häufiger gestellt werden.
Die Auswirkungen der Datenverarbeitung und Datenanalyse auf den Einzelnen und auf die Gesellschaft werden immer gravierender, daher wird der Ruf nach verbindlichen Richtlinien für die Berufsgruppen, die sich professionell mit dem Sammeln, Verarbeiten und Analysieren von Daten beschäftigen, immer dringlicher. Brauchen wir eine Berufsethik für den Data Scientist?
Die aktuell geführten Debatten zur Datenethik sind geprägt durch Auswirkungen von KI und algorithmischen Entscheidungsverfahren auf unseren Alltag, wie beim autonomen Fahren oder in der Pflege (Pflegeroboter). Ein weiterer oft diskutierter Aspekt ist das hemmungslose Sammeln von Daten der IT-Giganten wie Google oder Facebook, was zu den Begriffen Daten- bzw. Überwachungskapitalismus geführt hat.
Im Fokus des Vortrags steht der 'richtige' Umgang mit Daten im analytischen Ökosystem eines Unternehmens. Dabei werden u.a. folgende Aspekte und Fragestellungen betrachtet:
Was versteht man unter Datenethik?
Wie kann Vertrauen und Akzeptanz bei den Kunden durch den richtigen Umgang mit den Daten auf- bzw. ausgebaut werden?
Wem gehören die Daten?
Was heißt Corporate Digital Responsibility?
Was hat die DSGVO mit Datenethik zu tun?
Analytisches Ökosystem und Datenethik (Perspektive auf die Daten, Perspektive auf die Algorithmen)
Rollenspezifische Aspekte der Datenethik im analytischen Ökosystem (Entwickler, Designer, Nutzer)

Seit über 20 Jahren berät Christian Winter in Software und regulatorischen Projekten. Als Volljurist, Datenschutzbeauftragter und zertifizierter Datenschutzauditor ist es ihm ein besonderes Anliegen, die gesetzlichen Rahmenbedingungen anschaulich und zielgruppenorientiert zu vermitteln.
Als Co-Autor wird er Insights aus dem im Juni 2022 erscheinenden FINCON E-Book „Datenethik - Wege zu einer neuen Datenkultur in Zeiten von Digitalisierung und KI” präsentieren.

Seit 1998 berät und coacht Lars von Lipinski Unternehmen bzgl. Data Governance und Analytic-Themen in verschiedensten Rollen und verantwortet die externe Strategie der FINCON Unternehmensberatung für dieses Kompetenzcenter.
Er verfasste u. a. das TDWI E-Book 'Die neue EU-Datenschutzgrundverordnung - Auswirkungen auf Geschäftsprozesse und Analytische Informationssysteme'.

Christian Winter, Lars von Lipinski
Christian Winter, Lars von Lipinski
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:15
Mo 3.1
Operationalisierung von Big Data Use Cases
Operationalisierung von Big Data Use Cases

Viele Unternehmen haben in den letzten Jahren erfolgreich prototypische Big-Data- und Machine-Learning-Use-Cases auf On-Premises-Umgebungen umgesetzt. Eine wesentliche und oft unterschätzte Herausforderung ist dabei die Operationalisierung und die Integration von Big-Data-/ML-Anwendungen in die Anwendungslandschaft eines Unternehmens. Der Vortrag stellt Methoden und Konzepte vor, die für den Aufbau und die Operationalisierung einer standardisierten, zentralen Big-Data-/ML-Serviceplattform bei einem Versicherungsunternehmen eingesetzt wurden.

Zielpublikum: Data Engineer, Project Leader
Voraussetzungen: Basic knowledge, Erfahrungen mit Big-Data-Architekturen
Schwierigkeitsgrad: Fortgeschritten

  • Bachelor of Science (Wirtschaftsinformatik): Hochschule Furtwangen University, 10/2004 - 02/2008
  • Master of Science (Wirtschaftsinformatik): Hochschule Karlsruhe - University of Applied Sciences, 03/2008 - 06/2009
  • Consultant: integration-factory GmbH & Co. KG, 06/2009 - 09/2017 (Schwerpunkte: Datenintegration und Data Warehousing)
  • Managing Consultant Big Data: integration-factory GmbH & Co. KG, 10/2017 - heute (Schwerpunkte: Datenintegration, Cloud, Big Data)
  • 09.2005 - 02.2009 Hochschule Furtwangen University, Internationale Betriebswirtschaft (BA)
  • 10.2014 - 09.2016 Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen, Internationales Projektmanagement (MBA)
  • 04.2009 - 10.2010 SRH Holding, Controlling/ Management Reporting/ BI
  • 11.2010 - heute SV SparkassenVersicherung, BI/ DWH/ Data Engineering/ Data Analytics
Vanilla Data Platform - einmal alles richtig machen
Vanilla Data Platform - einmal alles richtig machen

[Vanilla] steht für einfach, grundlegend, konventionell - und langweilig? Auf keinen Fall! Aber eine Datenplattform - ideal auf die individuellen Anforderungen angepasst und trotzdem einfach - ist der Wunsch vieler BI-Leiter. Aber geht das, 'einfach'? Jein. Damit Du wirklich etwas von Deiner Plattform hast, sind ein paar grundlegende Dinge wichtig. Welche das sind und welche Stolpersteine Du auf dem Weg zur VDP (Vanilla Data Platform) besser vermeiden solltest, zeigen Dir Meik und Thomas (b.telligent) gemeinsam mit Margarethe von Seven.One Media.

Zielpublikum: BI-Teamleiter, BI-Architekten
Voraussetzungen: Grundlegendes Verständnis von BI und der Nutzung von Daten in Unternehmen
Schwierigkeitsgrad: Fortgeschritten

Als Principal Consultant legt Meik den Fokus auf Business Intelligence, Data Warehousing und Integration sowie Datenmodellierung, v.a. für die produzierende Industrie und die Finanzbranche. Er verfügt über mehr als 13 Jahre Erfahrung in der Analyse, Planung, Konzeption und Umsetzung branchenübergreifender Projektvorhaben einschließlich der Prozess- und Anforderungsanalyse und ganz besonders der Architektur von Daten.

Thomas berät Kunden aus verschiedenen Branchen, wie Immobilen und Finanzdienstleistungen, zu den Themen Business Intelligence, Data Warehouse und Reporting. Seine Projekterfahrung umfasst den kompletten Wertschöpfungsprozess von der Analyse, Planung, Konzeption bis hin zur Umsetzung von Projektvorhaben mit Fokus auf Data-Warehouse-Installationen.

Als Head of BI Engineering verantwortet Margarethe die Entwicklung und Architektur aller Business Intelligence-Produkte für den Entertainmentbereich der ProSiebenSat.1. Sie hat über 12 Jahre Erfahrung im Bereich Data Warehousing und dort insbesondere beim Projektmanagement. Aktuell beschäftigt sie sich in der Rolle des Product Owners mit der Cloudmigration einer unternehmensweiten BI Plattform.

Stefan Albrecht, Nadine Keller
Meik Truschkowski, Thomas Voigt, Margarethe Kobylka
Stefan Albrecht, Nadine Keller

Vortrag Teilen

Meik Truschkowski, Thomas Voigt, Margarethe Kobylka
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:15
Mo 4.1
Datenkultur - Lösungsansätze, Hindernisse und Werkzeugkoffer
Datenkultur - Lösungsansätze, Hindernisse und Werkzeugkoffer

Eine erfolgreiche Weiterentwicklung bzw. Erweiterung der Unternehmenskultur in Richtung einer optimalen Datenkultur gelingt aktuell nur sehr wenigen Unternehmen. Im Vortrag möchten wir mit Ihnen ein gemeinsames Verständnis von Datenkultur schaffen - abseits etwaiger Buzzwords, die im Markt kursieren. Darauf aufbauend vermitteln wir Lösungsansätze erfolgreicher Veränderungen einer Datenkultur, aber auch typische Hindernisse aus unserer umfangreichen Kundenerfahrung. Und zum Mitnehmen erhält jeder einen Werkzeugkoffer für die eigene Anwendung.

Zielpublikum: CDO, CIO, Entscheider im Kontext Data & Analytics, Programmleiter, Projektleiter
Voraussetzungen: Verständnis der Funktionsweise von Organisationsstrukturen, Führungserfahrung, Grundverständnis Data & Analytics
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der Begriff Datenkultur wird doch allzu häufig aktuell genutzt, um beliebige Themen zu positionieren. Wir vermitteln Ihnen deshalb ein Datenkulturverständnis aus der Praxis, welches sich deutlich näher an der klassischen Unternehmenskultur und einem damit verbunden Kulturverständnis orientiert. Hierzu grenzen wir auch weitere „Beschleuniger” ab, die sich zwar positiv auf die Entwicklung zu einem datengetriebenen Unternehmen auswirken, aber im engeren Sinne keine Kulturinhalte sind.
Datenkulturen sind im Verhältnis relativ neu, Kulturentwicklung von Unternehmen hingegen im Verhältnis ein alter Hut, aber die Wirkweisen, Lösungsansätze für Veränderungen und die dabei auftretenden Hindernisse sind doch auch auf Datenkulturen übertragbar.
Damit jeder Teilnehmer direkt etwas für sich mitnehmen kann, bringen wir einen Werkzeugkoffer mit, der aufzeigt, welche möglichen Werkzeuge in den verschiedenen Bereichen der Datenkultur genutzt werden können.

Markus Enderlein studierte Wirtschaftsinformatik an der Hochschule für Ökonomie und Management in Frankfurt am Main. Seit seinem Berufseinstieg 1998 bei CSC arbeitete er als Consultant im Bereich Softwareentwicklung, IT-Architektur und IT-Projektmanagement. Seit Mitte 2007 berät er bei INFOMOTION Kunden in der Generierung von Mehrwerten aus Daten. Aktuell ist Herr Enderlein als Business Unit Manager für die Managementberatung im Kontext Data & Analytics zuständig.

Markus Enderlein
Markus Enderlein
Vortrag: Mo 4.1
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:15
Mo 5.1
Operationalizing Machine Learning in the Enterprise
Operationalizing Machine Learning in the Enterprise

What does it take to operationalize machine learning and AI in an enterprise setting? This seems easy but it is difficult. Vendors say that you only need smart people, some tools, and some data. The reality is that to go from the environment needed to build ML applications to a stable production environment in an enterprise is a long journey. This session describes the nature of ML and AI applications, explains important operations concepts, and offers advice for anyone trying to build and deploy such systems.

Target Audience: analytics manager, data scientist, data engineer, architect, IT operations
Prerequisites: Basic knowledge of data and analytics work
Level: Basic

Extended Abstract:
What does it take to operationalize machine learning and AI in an enterprise setting?
Machine learning in an enterprise setting is difficult, but it seems easy. You are told that all you need is some smart people, some tools, and some data. To travel from the environment needed to build ML applications to an environment for running them 24 hours a day in an enterprise is a long journey.
Most of what we know about production ML and AI come from the world of web and digital startups and consumer services, where ML is a core part of the services they provide. These companies have fewer constraints than most enterprises do.
This session describes the nature of ML and AI applications and the overall environment they operate in, explains some important concepts about production operations, and offers some observations and advice for anyone trying to build and deploy such systems.

Mark Madsen is a Fellow in the Technology & Innovation Office at Teradata where he works on the use of data and analytics to augment human decision-making and evolve organizational systems. Mark worked for the past 25 years in the field of analytics and decision support, starting with AI at the University of Pittsburgh and robotics at Carnegie Mellon University. He is also on the faculty of TDWI.

Mark Madsen
Mark Madsen
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:15
Mo 6.1
Data Vault - Codegenerierung
Data Vault - Codegenerierung

Der hohe Grad der Standardisierung, die einfache und einheitliche Importlogik und die klare Trennung der Schichten ermöglicht eine weitgehend automatische Erzeugung der Importlogik für ein Data Vault-Modell.

Dabei muss nicht unbedingt ein Generator gekauft werden. Man kann auch das bereits im Projekt verwendete ETL-Werkzeug, wie den Oracle Data Integrator (ODI), erweitern, um die Logik zur Beladung zu erzeugen. 

Wir zeigen die Vorteile dieser Lösung für die DWH-Projekte der Norma Lebensmittelfilialbetrieb Stiftung & Co. KG.

Zielpublikum: Data Engineers, BI Project Managers, an Data Vault Interessierte
Voraussetzungen: Grundkenntnisse in Datenmodellierung und Data Warehousing sind vorteilhaft
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Nach einer kurzen Einführung in die Data Vault-Grundstrukturen (Hubs, Links, Satellites, Point-In-Time Tables, Bridges) konzentriert sich der Vortrag auf die automatisierte Generierung der Beladungslogik für die elementaren DV-Strukturen (Hubs, Links, Satellites).

Code-Generierung lohnt sich nicht nur, sie ist bei Data Vault notwendig. Die hohe Anzahl der Datenstrukturen und der damit verbundenen Ladeprozesse sind mit manueller Modellierung nur schwer zu bewältigen. 

Code-Generierung dient primär der Entlastung der Entwickler von repetitiven Tätigkeiten und schafft die Voraussetzung für schnelle und agile Projekte. Darüber hinaus ist generierter Code standardisiert und hat eine einheitliche Qualität. 
Am Beispiel des Oracle Data Integrators (ODI) wird gezeigt, dass mit einem eigenen Generator nicht nur SQL-Statements erzeugt werden, sondern direkt Mappings im ETL-Werkzeug, so dass kein 'Medienbruch' zur manuellen Modellierung entsteht.

Die hohe Flexibilität dieses Ansatzes ermöglicht es, dass der Generator projekt- und kundenspezifische Anforderungen realisieren kann. So wurde bei Norma ein neues Data Warehouse für den Online-Handel (Norma 24) mit einer reinen Data Vault 2.0-Ladelogik aufgebaut. Gleichzeitig wurde das bestehende dimensionale Data Warehouse für den stationären Handel um eine Data Vault-Schicht ergänzt, die sowohl Data Vault 1.0- als auch 2.0-Schlüssel generiert, um eine fließende Migration ohne Downtimes zu ermöglichen.

Markus Schneider arbeitet als Managing Consultant für das IT-Dienstleistungsunternehmen PRODATO Integration Technology GmbH. Er ist seit mehr als 15 Jahren als Berater, Software-Entwickler, Projekt-Manager und Data Warehouse Architect im Oracle-Umfeld tätig. Seine Spezialgebiete sind Datenmodellierung und ETL-Entwicklung.

Andreas Krake arbeitet als Projekt-Manager für ERP-Systeme und BI-Anwendungen bei der Firma Norma Lebensmittelfilialbetrieb seit 5,5 Jahren. Auf Grund der fast 14-jährigen Betriebszugehörigkeit mit vorangegangenen Tätigkeiten als Bereichsleiter Verkauf und im Inhouse Consulting bildet er das Bindeglied zwischen den fachlich-organisatorischen Anforderungen und der technischen Umsetzung.

Markus Schneider, Andreas Krake
Markus Schneider, Andreas Krake
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:15
Mo 7.1
MLOps: Schluss mit Experimenten, her mit dem Produkt! (Teil 1)
MLOps: Schluss mit Experimenten, her mit dem Produkt! (Teil 1)

Machine Learning-Projekte scheitern aus vielfältigsten Gründen: unzureichende Daten, fehlende Zusammenhänge oder überbordende Systemintegrationen. 

Doch die Data Science-Zunft schlägt zurück: Unter dem Slogan MLOps, Machine Learning Operations, versammelt sie Lösungsansätze, um Machine Learning zu produktionalisieren. Dieser Workshop erklärt den Bedarf an MLOps aus der unsicheren Natur von Machine Learning-Projekten, skizziert Blaupausen für End-To-End ML Pipelines und illustriert Best Practices anhand einer Open-Source-Implementierung.

Zielpublikum: ML-Engineers, Head of Analytics, Data Scientists
Voraussetzungen: Erfahrungen in Machine Learning, Python und DevOps
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Warum MLOps? Mit dieser Auftaktfrage widmet sich der Workshop der inhärenten Herausforderungen von Machine Learning-Projekten. Diese umfassen insbesondere den Spagat zwischen Experiment und Software-Engineering, der dynamischen Natur des Prädiktionskontexts (Data - und Concept Drift) oder Vertrauensanforderungen der beteiligten Stakeholder. Die Referenten lassen in diese Diskussion sowohl konzeptionelle Überlegungen als auch praktische Projekterfahrungen einfließen.  

Als Antwort auf diese Herausforderungen wird ein Katalog von Anforderungen abgeleitet, die ML-Systeme erfüllen sollten, um eine erfolgreiche Produktionalisierung zu gewährleisten. Dieser Anforderungskatalog umfasst unter anderem Model Registries, Feature Stores, Monitoring, Encapsulation von Systemkomponenten oder Separierung und Provisionierung von Train- und Test-Umgebungen.  

Der entwickelte Anforderungskatalog dient im nächsten Seminarteil als Grundlage für die Beschreibung und den Vergleich von gängigen Software-Lösungen und -Architekturen. Die Präsentation umfasst hierbei zumindest ML-SageMaker, Azure-ML und Open-Source-Plattformen wie Kubeflow und Mlflow.  

In dem folgenden interaktiven Teil des Seminars entwickeln die Teilnehmer gemeinsam eine Open-Source-MVP-Lösung auf Basis eines zur Verfügung gestellten Code-Repositories. Die vorgestellte Lösung dient primär der Vertiefung der Seminarinhalte und kann zudem als Ausgangspunkt für eigene MLOps-Initiativen dienen.  

Im letzten Seminarteil wird aus Anforderungskatalog, Architekturskizzen und Code-Experimenten eine Umsetzungsunterstützung für MLOps destilliert, die mögliche Produktionalisierungs-Vorhaben anleiten kann.

Christoph Hoffmann ist Data Scientist (M.Sc. Statistics) mit starkem methodischen Fokus und langjähriger Erfahrung in der erfolgreichen Umsetzung von Kundenprojekten. Mit innovativen datenanalytischen Methoden betreut er Unternehmen aus verschiedenen Branchen. Dies beinhaltet die Vermittlung fortgeschrittener Methoden aus dem Bereich der neuronalen Netze und des Maschinellen Lernens.

Elias Jebabli ist seit Abschluss seines Masterstudiums der Mathematik an der TU München als Consultant in den Bereichen Big-Data-Engineering und Machine Learning aktiv. In verschiedensten Kundenprojekten sammelte er umfassende Erfahrungen in den Bereichen Datenvisualisierung, -transformation und -aufbereitung sowie bei der Modellierung und Umsetzung von Machine Learning-Projekten.

Christoph Hoffmann, Elias Jebabli
Christoph Hoffmann, Elias Jebabli
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:15
SDmo2.1
Data Mesh 101
Data Mesh 101

What is Data Mesh? Join Starburst for an introduction into this modern approach to managing analytics at scale. Data Mesh embraces decentralisation over-centralisation, meaning it allows companies to become more efficient in accessing and exploiting data as a core architectural approach.

Andy ist EMEA Head of Partner Solutions Architecture and Data Mesh Lead bei Starburst. Andy unterstützt das schnell  Wachstum von Technologiepartnern in Europa und im Nahen Osten und arbeitet u.a. mit Data Reply, AWS, Google Cloud, Red Hat und Thoughtspot zusammen.

Mit mehr als 20 Jahren Erfahrung in analytischen und datenorientierten  Funktionen liegt Andys besonderer Fokus auf der Frage, wie der Nutzen von Analytik, die analytische Kultur und die analytischen Prozesse eines Unternehmens durch Technologien wie Self-Service-Datentools, Cloud- und Streaming-Analysen optimiert werden können.

Andy Mott
Andy Mott
Vortrag: SDmo2.1
flag VORTRAG MERKEN

Vortrag Teilen

12:15 - 13:45
Pause
Mittagessen & Ausstellung / Lunch & Exhibition
Mittagessen & Ausstellung / Lunch & Exhibition

13:00 - 13:30
CSmo1
Case Study Confluent
Case Study Confluent

Vortrag: CSmo1
flag VORTRAG MERKEN

Vortrag Teilen

13:00 - 13:30
CSmo2
Case Study Ab Initio
Case Study Ab Initio

Vortrag: CSmo2
flag VORTRAG MERKEN

Vortrag Teilen

13:00 - 13:30
CSmo3
Behavioral Intelligence meets Data Catalog: Produktiver, schneller und erfolgreicher mit Alation!
Behavioral Intelligence meets Data Catalog: Produktiver, schneller und erfolgreicher mit Alation!

Beim Arbeiten mit Daten liegt der Fokus oftmals auf Technologien, Prozessen und Funktionen. Das Wichtigste wird jedoch vergessen - der Mensch! Dabei ist der Mensch und sein Verhalten im Umgang mit Daten ein wesentlicher Erfolgsfaktor für die (Weiter-)Entwicklung aller Datenplattformen. Entdecken Sie, wie der Alation Data Catalog den Menschen und sein Verhalten in den Mittelpunkt stellt, um einen Mehrwert zu schaffen, der weit über einfache Automatisierung hinausgeht und so die Datenkultur in Unternehmen entscheidend voranbringt.

Christian hat einen Großteil seiner Karriere im Umfeld von Business Intelligence und Corporate Performance Planning verbracht. Bei all seinen Projekten ist er immer wieder auf ähnliche Herausforderungen gestoßen: Wo finde ich die Daten, die ich brauche? Was bedeuten sie? Kann ich ihnen vertrauen? … Darum hilft er jetzt als Senior Sales Engineer bei Alation, genau diese Herausforderungen zu überwinden.

Christian Herzog
Christian Herzog
Vortrag: CSmo3
flag VORTRAG MERKEN

Vortrag Teilen

13:00 - 13:30
CSmo4
Event-getriebene Bereitstellung von Daten zur Anreicherung von Analytics Use Cases in Cloud Environments bei KTM
Event-getriebene Bereitstellung von Daten zur Anreicherung von Analytics Use Cases in Cloud Environments bei KTM

Patrick Berger ist als Head of IT Integration Services bei der KTM AG für die Themen Stammdatenmanagement, Datenintegration und Data Engineering verantwortlich. Nach Abschluss seines Studiums an der FH Salzburg startete er seine Laufbahn bei KTM im Financial Controlling mit dem Schwerpunkt Business Intelligence, seit seinem Wechsel in den IT Bereich im Jahr 2010 war er als Leiter verschiedener Abteilungen mit Projekten und Produkteinführungen in den Bereichen Enterprise Software, Anwendungsentwicklung und Datenmanagement betraut.

Thomas Telgheider ist Senior Manager Solution Consulting bei der Informatica GmbH. Er arbeitet aktuell in den Schwerpunkten Datenarchitekturen sowie Cloud Ecosysteme. Seine langjährige Erfahrung erstreckt sich über diverse (Cloud)DataManagement Technologien, deren Bewirtschaftung sowie dem MetaDatenmanagement.
Patrick Berger, Thomas Telgheider
Patrick Berger, Thomas Telgheider
Vortrag: CSmo4
flag VORTRAG MERKEN

Vortrag Teilen

13:00 - 13:30
CSmo5
Data Transformations: The New Era
Data Transformations: The New Era

Vortrag: CSmo5
flag VORTRAG MERKEN

Vortrag Teilen

13:00 - 13:30
CSmo6
Data Mesh, Data Fabric & Co – das Ende monolithischer Architektur-Konzepte?
Data Mesh, Data Fabric & Co – das Ende monolithischer Architektur-Konzepte?

Bereits heute tolerieren viele Organisationen keine monolithischen und zentralisierten Datenarchitekturen mehr. Vielmehr orientieren sie sich an neuen Architektur-Paradigmen wie der Data Fabric oder Data Mesh und setzen auf Flexibilität, Modularität und verteilte Datenarchitekturen.

Diese neuartigen Konzepte beruhen auf der Annahme, dass monolithische Datenarchitekturen mit einigen inhärenten Problemen verbunden sind, wie etwa einer unzureichenden Business-Orientierung, mangelnder Flexibilität oder einer zu langsamem Datenbereitstellung. Während die Data Fabric dieser Problemstellung primär aus technologischer Perspektive Rechnung trägt, adressiert Data Mesh vor allem organisatorische Aspekte.

Im Vortrag erfahren Sie mehr über die Prinzipien neuartiger architektonischer Konzepte und wie Sie diese mit Datenvirtualisierung umsetzen und auf Ihre Bedürfnisse, Ihre Daten und Ihre Prozesse zuschneiden können.

 

 

Otto Neuer
Otto Neuer
Vortrag: CSmo6
flag VORTRAG MERKEN

Vortrag Teilen

13:00 - 13:30
CSmo7
"Getränke Hoffmann - Digitale Transformation muss man können Aufbau einer unternehmensweiten Datenplattform als Wegbereiter für die Digital Journey und als Kern der IT-Strategie im Mittelstand
"Getränke Hoffmann - Digitale Transformation muss man können Aufbau einer unternehmensweiten Datenplattform als Wegbereiter für die Digital Journey und als Kern der IT-Strategie im Mittelstand

Die Getränke Hoffmann Gruppe, als Teil der Radeberger Gruppe und der Dr. Oetker Gruppe, ist der führende Getränkefacheinzelhändler in Deutschland.

Für Getränke Hoffmann ist die Entwicklung zur data-driven-company ein strategisches Ziel. So werden viele neue Use Cases identifiziert und innovative Lösungen im Analytics- und Data Science-Umfeld entwickelt. Ohne eine moderne Datenplattform ist das Ziel einer data-driven Company unerreichbar. Getränke Hoffmann setzt dabei auf einen äußerst modernen, agilen, innovativen und modular aufgebauten Data Stack (MAIN-Data Stack). Die Datenplattform ist das Fundament der IT-Strategie für den Aufbau bereichsübergreifender Apps, um schnell Insights für fundierte Entscheidungen und Prozesse zu generieren und dabei einen schnellen ROI zu erzeugen. Das Team um den CIO/CTO Oliver Mießner ist mit viel Elan und Spaß dabei, die Möglichkeiten der entwickelten Datenplattform auszuloten. Alle Teilprojekte basieren auf Prinzipien, wie der Produktifizierung von Teillösungen und der Sicherstellung der Governance. Snowflake bietet dafür die benötigte agile und elastische Infrastruktur, um alle Daten performant und in gesicherter Qualität für die analytischen Applikationen zur Verfügung zu stellen.

Oliver Mießner ist CIO/CTO und Mitglied der Geschäftsleitung bei der Getränke Hoffmann Gruppe dem führenden Getränkefacheinzelhändler in Deutschland. Dort ist er verantwortlich für die komplette Neuausrichtung der Informationstechnologie. Seit nunmehr 1,5 Jahre beschäftigen sich Oliver und sein Team mit der digitalen und datengetriebenen Ausrichtung der Getränke Hoffmann Gruppe als Kern seiner ausgebenden IT-Strategie. In den letzten 20 Jahren unterstützte er große deutsche Unternehmen, in unterschiedlichen Führungspositionen, bei der Ausarbeitung und Implementierung Ihrer zukunftsgerichteten Datenstrategien.

Oliver Mießner
Oliver Mießner
Vortrag: CSmo7
flag VORTRAG MERKEN

Vortrag Teilen

13:30 - 13:45
SDmo1.1
Einführung und Begrüßung
Einführung und Begrüßung

Kurze Einführung und Begrüßung durch Matthias Stemmler, 
Head of Customer Advisory Platform & Data Management bei SAP Deutschland SE & Co KG.

Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Herr Stemmler das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.

Matthias Stemmler
Matthias Stemmler
Vortrag: SDmo1.1
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 1.2
Fallstudie: Potenzial von ML im Marketing einer Regionalbank
Fallstudie: Potenzial von ML im Marketing einer Regionalbank

Im Vortrag werden verschiedene Einsatzszenarien für das Maschinenlernen im Marketing und Vertrieb einer Regionalbank vorgestellt. Beispiele sind die Vertriebsunterstützung von Kundenberatern, die personalisierte Kundenansprache im Onlinebereich sowie die Preisoptimierung. Neben der Umsetzung wird das Ertragspotenzial skizziert. Im zweiten Schritt werden verschiedene Herausforderungen diskutiert: aufsichtsrechtliche, datenschutzrechtliche, informationssicherheitsbezogene und organisationsbezogene Herausforderungen.

Zielpublikum: Sowohl Nutzer als auch Entwickler von ML, insbesondere Data Scientisten, Manager von ML/Advanced Analytics und Manager im datengetriebenen Marketing/Vertrieb
Voraussetzungen: Keine (Ich werde auf die eingesetzten Technologien eingehen, jedoch steht der betriebswirtschaftliche / transformatorische Aspekt im Vordergrund)
Schwierigkeitsgrad: Einsteiger

Dr. Jochen Wulf ist in der Gestalterbank für die Kundenanalytik und insbesondere die Umsetzung von Maschinenlernen-Anwendungen im Marketing & Vertrieb verantwortlich. Daneben ist er Privatdozent im Bereich Wirtschaftsinformatik & Data Science an der Universität St. Gallen.

Datengetriebene Optimierungen der Schadenprozesse
Datengetriebene Optimierungen der Schadenprozesse

Die Digitalisierung der Schadenprozesse schreitet in der Versicherungsbranche immer weiter voran, vor allem die Automatisierung durch Workflow-Management-Systeme ist mittlerweile ein etabliertes Standardwerkzeug in den Unternehmen.

In diesem Vortrag werden wir am Beispiel eines Schadenregulierungsprozesses unterschiedliche Optimierungsmöglichkeiten der Automatisierungen, deren Vorteile und Voraussetzungen diskutieren und konkrete Praxisbeispiele präsentieren.

Zielpublikum: Data Scientist, decision makers, Project Leader, Process Owners
Voraussetzungen: Basic knowledge, claims experience recommended
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die Digitalisierung der Schadenprozesse schreitet in der Versicherungsbranche immer weiter voran. Die Automatisierung solcher Verarbeitungsschritte durch Workflow-Management-Systeme ist mittlerweile ein etabliertes Standardwerkzeug in den Unternehmen. Diese technischen Fortschritte ermöglichen es, die Prozesse datengetrieben exponentiell weiter zu optimieren.

Hier ermöglichen der intelligente Einsatz von Daten und der Einsatz Künstlicher Intelligenz verschiedene Varianten der Unterstützung der Prozessbearbeitung: Augmented Intelligence, Assisted Intelligence, Autonome Systeme oder (regelbasierte) Automatisierung. Die Methoden zahlen entsprechend ihrer Fokusse auf die Zielgrößen Standardisierung und Komplexitätsreduktion ein. Dabei ist die richtige Auswahl der zu nutzenden Methode abhängig von der Fragestellung selbst und den vorhandenen technischen Infrastrukturen und Datenverfügbarkeiten.

In diesem Vortrag werden wir am Beispiel eines Schadenregulierungsprozesses die unterschiedlichen Anwendungsmöglichkeiten der obigen Methoden (Datenabgleich mit Materialpreisdatenbanken, Ermittlung von Referenzpreisen, KI-Vorhersage von OK-Belegen bzw. Freigaben, ...), deren Vorteile und Voraussetzungen diskutieren und konkrete Praxisbeispiele präsentieren.

Jeremy Schieblon hat das Studium der Wirtschaftsinformatik an der Fachhochschule Münster mit dem Bachelor of Science abgeschlossen. 
Er schrieb seine Thesis bei der Eucon Digital GmbH und wurde anschließend als Data Scientist eingestellt, wo er zunächst die Bereiche Real Estate und Insurance Car betreute.
Seit Juni 2021 kümmert er sich als Product Owner um die Steuerung und Organisation des Data Science Teams sowie der zugehörigen Projekte.

Jochen Wulf
Jeremy Schieblon
Jochen Wulf

Vortrag Teilen

Jeremy Schieblon
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 2.2
Datenlöschen als Damoklesschwert über der BIA-Architektur
Datenlöschen als Damoklesschwert über der BIA-Architektur

Fast jeder Beitrag zu moderner BIA fängt mit dem Satz an 'Noch nie wurden so viele Daten wie heute gesammelt'. Es gilt als Daumenregel: Willst du Machine Learning machen, musst du viele Daten sammeln. Da wird man schon fast zum Spielverderber, wenn man das Thema Datenlöschungen anspricht. Erfahren Sie, warum es trotzdem wichtig ist, dieses eher unliebsame Thema als Spezialfall einer Data Governance auf die Tagesordnung zu setzen.

Zielpublikum: CDOs, CISOs, IT-Leiter, Datenschutzverantwortliche
Voraussetzungen: Grundlegendes Verständnis von Datenintegrationen und Datenschutz
Schwierigkeitsgrad: Einsteiger

Christian Schneider ist der Director Data & Analytics bei der QuinScape GmbH. Als Consultant und Projektleiter war er langjährig in internationalen Großprojekten tätig und kennt die vielfältigen Herausforderungen unterschiedlichster Integrations- und Analytikszenarien aus der praktischen Arbeit. Als Speaker und in Publikationen beleuchtet er die Aspekte des Aufbaus von nachhaltigen Dateninfrastrukturen mit einem im späteren Betrieb überschaubaren Kostenrahmen durch eine zielorientierte Data Governance.

The creation of a data culture nurtured by data governance
The creation of a data culture nurtured by data governance

The setup of a decentral function-based data governance requires time, shapes a continuous learning organisation and grows data capabilities and competence in the functions. Through these means a sustainable data culture is established and anchored, which plays a particular role in realising the strategic corporate goals, such as the digital transformation of processes.

Target Audience: Data Governance Manager, Data Passionist, CDO, CIO, Data Analytics Specialist
Prerequisites: Basic knowledge of the Data Governance
Level: Basic

Leonie Frank is responsible for Data Governance as part of the Data Team within the Digital function at Swarovski. Her passion and objective is to drive activities related to areas of data management not only to roles and responsibilities, standards and guidelines but also to the data architecture, data quality excellence and data performance. The goal of the team is to increase data maturity allowing to safeguard and utilize data as a company asset. Leonie holds a degree in International Business Administration, a master in International Political Economy from the University of Warwick in the UK, a certificate in Statistics and one in Applied Information Technology from ETH in Switzerland. Leonie lives in Zurich and loves fine cooking and dining as well as mountaineering sports.

Christian Schneider
Leonie Frank
Christian Schneider

Vortrag Teilen

Leonie Frank
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 3.2
Modern Data Stack - Buzzword oder echter Game-Changer?
Modern Data Stack - Buzzword oder echter Game-Changer?

Was verbirgt sich hinter dem Trend 'Modern Data Stack' und wie gut eignet er sich für den Aufbau von Analytics-Plattformen? Wir berichten über erste Erfahrungen im Aufbau und der Nutzung des Modern Data Stacks, stellen eine Architektur mit allen Komponenten vor und demonstrieren sie praktisch. Wir gehen auf die Trennung von Ingestion (EL) und Transformation (T) ein, sowie weitere Ideen, wie 'Metrics Store' und 'Reverse ETL'. Abschließend berichten wir von Problemen und Einstiegshürden bei Deployment, Einsatz und der Integration der Komponenten.

Zielpublikum: Data Engineer, Architect, Project Leader
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Einsteiger

Fabian Hardt arbeitet als Senior Consultant bei der OPITZ CONSULTING Deutschland GmbH. Er hat langjährige Projekterfahrung in BI- und Analytics-Projekten und beschäftigt sich mit modernen Architekturen für die gestiegenen Anforderungen im Zeitalter der Digitalisierung.

Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet nun im Bereich Business & IT Innovation der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.

Fabian Hardt, Jens Bleiholder
Fabian Hardt, Jens Bleiholder
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 4.2
Helping organizations to master the data challenge
Helping organizations to master the data challenge

Missing data leadership, lack of vision, data-unliterate business units, data in silos, no data- and analytics-governance - The symptoms of a missing data strategy are unmistakable. Whilst organizations strive to exploit the benefits promised from data & analytics, corporate well thought data strategies are rather an exception than rule. We would like to exchange best practices and experiences for designing & implementing sustainable yet pragmatic data strategies for organizations.

Target Audience: Practitioners for data strategy consulting, (Data-) decision makers in organizations, Data leaders, BI & AI team leaders
Prerequisites: Experience and knowledge in the area of analytics, BI or AI; data use cases
Level: Basic

Extended Abstract:
TOC draft

  • Overview elements of a data strategy
  • Typical initial situations in organizations
  • Toolkits and methodologies when designing data strategies
  • Exchange of experiences & best practices 

Jens is a seasoned Data Scientist and Strategist with more than 15 years of professional experience in generating business value from data using Analytics, Data Science & AI. He led many data projects with measurable success for renowned international clients. Today, he helps organizations to design and implement data strategies for their digital transformation journeys.

Boris and his team are working passionately to drive the adoption of solutions and processes that enable people to make healthy, data driven decisions. These approaches cover the entire data value added chain starting from raw data to sophisticated Business Intelligence Applications or AI solutions based on modern data science.

Jens Linden, Boris Michel
Jens Linden, Boris Michel
Vortrag: Mo 4.2
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 5.2
KI-Lösung ist das Ziel - mit ML Engineering erreichen Sie es
KI-Lösung ist das Ziel - mit ML Engineering erreichen Sie es

Künstliche Intelligenz ist schon längst dem Pionierzeitalter entwachsen. Doch um mit dem Einsatz von KI einen echten Mehrwert für das Unternehmen zu schaffen, kommt es auf die qualitativ hochwertige Bereitstellung von Daten an. Hier kommt ML Engineering ins Spiel - ein Konzept zur Bewältigung der hohen Komplexität von Daten bei der Entwicklung von KI-Systemen. Im Vortrag wird eine ML Engineering Roadmap vorgestellt, mit der dieses häufig unterschätzte und doch so kritische Konzept erfolgreich eingesetzt werden kann.

Zielpublikum: Data Engineer, Data Scientist, Unternehmer mit praktischem KI-Interesse
Voraussetzungen: Interesse an KI- und ML-Themen, Grundlagen- bis fortgeschrittene Kenntnisse in den Bereichen Data Science und/oder Data Engineering
Schwierigkeitsgrad: Fortgeschritten

Lars Nielsch ist als Principle Solution Architect Analytics & Cloud bei Adastra tätig. Nach seinem Studium der Angewandten Informatik an der TU Dresden ist er seit 1998 in der BIA-Beratung tätig. Seine besonderen Interessen liegen in den Themen Enterprise BI, Large Databases, Data Engineering (ETL-Design), Data Science (MLOps) und Big-Data-Architekturen (Data Vault, Data Lake, Streaming).

One Size Does Not Fit All: Make The Right Data Mesh For You
One Size Does Not Fit All: Make The Right Data Mesh For You

As the data mesh paradigm takes the industry by storm, the conversation deep dives into the architecture, neglecting the socio-organizational element. Data driven organizations must invest not only in infrastructure but also data organization and culture. 

Target Audience: Executive, senior business managers
Prerequisites: None
Level: Basic

Jennifer Belissent joined Snowflake as Principal Data Strategist in early 2021, having most recently spent 12 years at Forrester Research as an internationally recognized expert in establishing data and analytics organizations and exploiting data's potential value. Jennifer is widely published and a frequent speaker. Previously, Jennifer held management positions in the Silicon Valley, designed urban policy programs in Eastern Europe and Russia, and taught math as a Peace Corps volunteer in Central Africa. Jennifer earned a Ph.D. and an M.A. in political science from Stanford University and a B.A. in econometrics from the University of Virginia. She currently lives in the French Alps, and is an avid alpinist and intrepid world traveler.

Lars Nielsch
Jennifer Belissent
Lars Nielsch

Vortrag Teilen

Jennifer Belissent
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 6.2
DWH-Großmigrationsprojekt im Livebetrieb
DWH-Großmigrationsprojekt im Livebetrieb

Die EDEKA Gruppe ist der größte Lebensmitteleinzelhändler in Deutschland. Täglich fallen Millionen Daten zu Kassiervorgängen, Artikeln und Händlern an. Damit diese auch zukunftssicher verarbeitet werden können, wird auf die zukunftsorientierte Technologie von SAP HANA gesetzt und sich von der bisherigen Datenbank getrennt. SAP bietet mit der InMemory-Technologie und der spaltenbasierten Speicherung einen Vorteil, was Performance und Speicherkapazität angeht. Wir zeigen, wie solch eine Migration im Livebetrieb erfolgreich durchgeführt wurde.

Zielpublikum: Product Managers, DWH-Engineer
Voraussetzungen: Knowledge in ETL and Datawarehouse Environments
Schwierigkeitsgrad: Einsteiger

Torsten Peters ist seit dem Jahr 2000 Mitarbeiter der Edeka Gruppe. In dieser leitete er diverse Projekte im Datenbankbereich, bis er schließlich 2009 die Leitung des Teradata BI-Bereiches bei der EDEKA DIGITAL übernahm. Seit nunmehr fast zwei Jahren leitet er nun die Migration auf SAP HANA mit und ist weiter als Produktmanager für den BI-Bereich zuständig.

Nach Abschluss eines Physikstudiums an der TU Berlin ist Lysander Schröder direkt bei Syncwork AG als IT-Berater eingestiegen. Dort beschäftigt er sich nun seit mehreren Jahren in verschiedenen Projekten mit diversen Datenbanken, sowie der der Analyse der darin enthaltenen Daten.

Torsten Peters, Lysander Schröder
Torsten Peters, Lysander Schröder
Vortrag: Mo 6.2
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 7.1
MLOps: Schluss mit Experimenten, her mit dem Produkt! (Teil 2)
MLOps: Schluss mit Experimenten, her mit dem Produkt! (Teil 2)

Machine Learning-Projekte scheitern aus vielfältigsten Gründen: unzureichende Daten, fehlende Zusammenhänge oder überbordende Systemintegrationen. 

Doch die Data Science-Zunft schlägt zurück: Unter dem Slogan MLOps, Machine Learning Operations, versammelt sie Lösungsansätze, um Machine Learning zu produktionalisieren. Dieser Workshop erklärt den Bedarf an MLOps aus der unsicheren Natur von Machine Learning-Projekten, skizziert Blaupausen für End-To-End ML Pipelines und illustriert Best Practices anhand einer Open-Source-Implementierung.

Zielpublikum: ML-Engineers, Head of Analytics, Data Scientists
Voraussetzungen: Erfahrungen in Machine Learning, Python und DevOps
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Warum MLOps? Mit dieser Auftaktfrage widmet sich der Workshop der inhärenten Herausforderungen von Machine Learning-Projekten. Diese umfassen insbesondere den Spagat zwischen Experiment und Software-Engineering, der dynamischen Natur des Prädiktionskontexts (Data - und Concept Drift) oder Vertrauensanforderungen der beteiligten Stakeholder. Die Referenten lassen in diese Diskussion sowohl konzeptionelle Überlegungen als auch praktische Projekterfahrungen einfließen.  

Als Antwort auf diese Herausforderungen wird ein Katalog von Anforderungen abgeleitet, die ML-Systeme erfüllen sollten, um eine erfolgreiche Produktionalisierung zu gewährleisten. Dieser Anforderungskatalog umfasst unter anderem Model Registries, Feature Stores, Monitoring, Encapsulation von Systemkomponenten oder Separierung und Provisionierung von Train- und Test-Umgebungen.  

Der entwickelte Anforderungskatalog dient im nächsten Seminarteil als Grundlage für die Beschreibung und den Vergleich von gängigen Software-Lösungen und -Architekturen. Die Präsentation umfasst hierbei zumindest ML-SageMaker, Azure-ML und Open-Source-Plattformen wie Kubeflow und Mlflow.  

In dem folgenden interaktiven Teil des Seminars entwickeln die Teilnehmer gemeinsam eine Open-Source-MVP-Lösung auf Basis eines zur Verfügung gestellten Code-Repositories. Die vorgestellte Lösung dient primär der Vertiefung der Seminarinhalte und kann zudem als Ausgangspunkt für eigene MLOps-Initiativen dienen.  

Im letzten Seminarteil wird aus Anforderungskatalog, Architekturskizzen und Code-Experimenten eine Umsetzungsunterstützung für MLOps destilliert, die mögliche Produktionalisierungs-Vorhaben anleiten kann.

Christoph Hoffmann ist Data Scientist (M.Sc. Statistics) mit starkem methodischen Fokus und langjähriger Erfahrung in der erfolgreichen Umsetzung von Kundenprojekten. Mit innovativen datenanalytischen Methoden betreut er Unternehmen aus verschiedenen Branchen. Dies beinhaltet die Vermittlung fortgeschrittener Methoden aus dem Bereich der neuronalen Netze und des Maschinellen Lernens.

Elias Jebabli ist seit Abschluss seines Masterstudiums der Mathematik an der TU München als Consultant in den Bereichen Big-Data-Engineering und Machine Learning aktiv. In verschiedensten Kundenprojekten sammelte er umfassende Erfahrungen in den Bereichen Datenvisualisierung, -transformation und -aufbereitung sowie bei der Modellierung und Umsetzung von Machine Learning-Projekten.

Christoph Hoffmann, Elias Jebabli
Christoph Hoffmann, Elias Jebabli
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 14:15
SDmo1.2
SAP Data Warehouse Cloud bei HDI
SAP Data Warehouse Cloud bei HDI

In dieser Session erfahren Sie, wie Data Warehousing im Bereich HR Reporting und Analytics beim Versicherungsexperten HDI gewinnbringend eingesetzt wird. Frank Indorf berichtet gemeinsam mit Volker Wietzorek vom Lösungsanbieter Detect Value AG über die Inhalte, die spezifischen Vorteile, den Entwicklungsstand und weitere Ausbaustufen.

Frank Indorf arbeitet seit 1992 in der IT bei HDI, seit 1999 als Business Analyst im Bereich HR-IT. Er konzipiert und koordiniert die Einführung, Integration und den Ausbau der Data Warehouse Cloud bei HDI für die Fachbereiche HR und Controlling.

Volker Wietzorek ist bei der Detect Value verantwortlich für die Architektur und Weiterentwicklung einer integrierten SAP Data Warehouse Cloud Lösung für HR-Analytics und -Planungs-Anwendungen auf Basis SAC. Er greift dabei zurück auf seine mehr als 20-jährige Erfahrung aus der Einführung von Business Analytics Lösungen in komplexen Systemlandschaften für die Fachbereiche HR und Controlling.

Frank Indorf, Volker Wietzorek
Frank Indorf, Volker Wietzorek
Vortrag: SDmo1.2
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 14:30
SDmo2.2
Data Mesh in Practice
Data Mesh in Practice

There’s so much Data Mesh theory, but most organisations need more strategic guidance on how to implement it. Join this session to guide you learn how to cultivate a Data Mesh mindset when transforming from a data & analytics strategy towards a data-driven organisation.

Andy ist EMEA Head of Partner Solutions Architecture and Data Mesh Lead bei Starburst. Andy unterstützt das schnell  Wachstum von Technologiepartnern in Europa und im Nahen Osten und arbeitet u.a. mit Data Reply, AWS, Google Cloud, Red Hat und Thoughtspot zusammen.

Mit mehr als 20 Jahren Erfahrung in analytischen und datenorientierten  Funktionen liegt Andys besonderer Fokus auf der Frage, wie der Nutzen von Analytik, die analytische Kultur und die analytischen Prozesse eines Unternehmens durch Technologien wie Self-Service-Datentools, Cloud- und Streaming-Analysen optimiert werden können.

Andy Mott
Andy Mott
Vortrag: SDmo2.2
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:00
SDmo2.3
State of Data 2022
State of Data 2022

Lernen Sie die Marktforschung der Enterprise Management Associates (EMA) näher kennen, die den erhöhten Bedarf an schnellem und sicherem Datenzugriff zusammen mit einem Schritt hin zu einer dezentralen Datenarchitektur aufzeigt. Diese Studie ist gemeinsam von Red Hat und Starburst in Auftrag gegeben und deckt neue Trends und wertvolle Erkenntnisse auf, die jedem Leiter für Daten und Analytik wichtig sein sollten.

Die Studie fasst die aktuelle Datenlandschaft von der großen Datenstreuung bis zu den Auswirkungen der Pandemie und vom Dilemma der Datenpipeline bis zum Umzug in die Cloud zusammen. Es werden auch Vorhersagen über die Zukunft gemacht.

 

Get closer to the market research conducted by Enterprise Management Associates (EMA) that highlights the increased need for fast and secure data access along with a move towards decentralized data architecture. Jointly commissioned by Red Hat and Starburst, this study uncovers emerging trends and valuable insights that every data and analytics leader should care about.

From the great data dispersion to the impact of the pandemic and from the data pipeline dilemma to the move to the cloud, the study encapsulates the current data landscape. It also makes predictions about the future.

Joseph Gade arbeitet derzeit als Solution Architect für Partner-Ökosysteme bei Starburst Data und unterstützt GSI, RSI und große Cloud-Partner dabei, die Data-Mesh-Strategie von Starburst bei Großkunden in der DACH-Region zu positionieren. Joseph bringt einen reichen Erfahrungsschatz aus der Arbeit bei vielen Produktunternehmen wie SAS, Tibco und ThoughtSpot mit, hauptsächlich in der Pre-Sales-Rolle. Josephs Spezialisierung umfasst Business Intelligence, wertorientiertes Verkaufen und maschinelles Lernen. In seiner Freizeit liebt Joseph es Reisen zu unternehmen, Cricket zu sehen und zu verfolgen und seiner Leidenschaft für die Fotografie nachzugehen

Robert arbeitet als Senior Specialist Solution Architect bei Red Hat und ist Subject Matter Expert für OpenShift Container Platform. Mit über 10 Jahren Middleware Betriebserfahrung von Automatisierung über Monitoring und mehr als 5 Jahren Container Fachwissen unterstützt Robert primär große deutsche Kunden beim Einsatz von OpenShift; beginnend bei der Einführung, 24x7 Betrieb bis hin zur Migration und Modernisierung vom komplexen Anwendungen. 

Joseph Gade, Robert Bohne
Joseph Gade, Robert Bohne
Vortrag: SDmo2.3
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:05
SDmo1.4
SAP HANA Cloud bei Geberit
SAP HANA Cloud bei Geberit

Geberit implementiert HANA Cloud basiertes Reporting zur Ablösung einer existierenden Lösung: Dazu gehört, disruptiver technologischer Change vom individuellen Reporting zum gruppenweiten Standard, Reduktion von Support Aufwänden und Zukunftssicherheit durch Verwendung von State-of-the-Art Cloud-Technologien.

Nach seinem Studium der Wirtschaftsinformatik arbeitete Bekim mehrere Jahre als SAP Inhouse Consultant im BI Umfeld. Seit 2020 ist er bei Geberit als IT Application Analyst SAP BI tätig. Dort ist er für die Entwicklung von Calculation Views im Business Application Studio zuständig.

Fabian ist IT Application Analyst bei Geberit mit Erfahrung in der SAP HANA Cloud Administration. Er ist spezialisiert auf die HDI-Entwicklung und verantwortlich für den allgemeinen Entwicklungsprozess und das Berechtigungskonzept in SAP HANA Cloud. Er schloss 2020 sein Bachelorstudium im Bereich Wirtschaftsinformatik an der DHBW Ravensburg ab.

Seit 2016 arbeitet Michael als Senior IT Application Analyst im Analytik- und Planungsteam von Geberit und konzentriert sich auf die konzeptionelle Integration neuer Tools in die analytische Architektur. Zuvor war er mehrere Jahre als Unternehmensberater tätig und verfügt über einen Bachelor-Abschluss in Wirtschaftsinformatik und einen Master-Abschluss in Business Analytics.

Bekim Hausdorf, Fabian Hägele, Michael Keller-Fröhlich
Bekim Hausdorf, Fabian Hägele, Michael Keller-Fröhlich
Vortrag: SDmo1.4
flag VORTRAG MERKEN

Vortrag Teilen

15:00 - 15:30
Pause
Kaffee & Ausstellung / Coffee & Exhibition
Kaffee & Ausstellung / Coffee & Exhibition

15:30 - 16:45
Mo 1.3
Zukunftsorientierte Datenarchitekturen bei der HUK-COBURG
Zukunftsorientierte Datenarchitekturen bei der HUK-COBURG

Die HUK-COBURG agiert seit über 8 Jahren nach einer BI-Strategie. Die BI-Strategie und die zugrunde liegenden Datenarchitekturen wurden und werden fortlaufend angepasst. In diesem Track werden Weiterentwicklungen und Trends der Datenarchitekturen bei der HUK-COBURG vorgestellt.

Zielpublikum: Data Architects, Data Engineer, Data Scientist, Project Leader
Voraussetzungen: Grundkenntnisse Business Intelligence und Datenarchitekturen
Schwierigkeitsgrad: Einsteiger

Michael Fischer-Dederra beschäftigt sich seit seiner Diplomarbeit Anfang des Jahrtausends mit BI und ist, von seinen nunmehr 15 Jahren bei der HUK-COBURG, die letzten 6 Jahre als BI Lead Architect für den Ausbau des erweiterten Daten-Ökosystems und dessen Interaktion mit der Unternehmensumwelt zuständig.

Michael Kolb ist seit 14 Jahren im Business Intelligence-Umfeld tätig - davon seit über 8 Jahren als BI-Projektleiter und BI-Architekt im BICC der HUK-COBURG. Seit zwei Jahren begleitet er die Themen Data Cataloging und Data Governance im Kontext des erweiterten Daten-Ökosystems der HUK-COBURG.

DataFit - die GVV macht ihre BI-Strategie fit für die Zukunft
DataFit - die GVV macht ihre BI-Strategie fit für die Zukunft

Im Zuge einer Neuausrichtung der Analytics-Infrastruktur plant die GVV die Einführung eines neuen DWHs, das eine Gesamtsicht für Reporting und Analyse ermöglicht. Ziel des Projektes war die Anwendung innovativer Methoden, welche das Data Analytics-Zielbild zukunftsfähig macht, die Anforderungen in hohem Maße flexibel umsetzt und von geringer Fehleranfälligkeit gekennzeichnet ist. Diese Ziele werden durch den Einsatz einer Cloud-DB unter Nutzung einer Generierungs-SW für DataVault-Modellierung und moderner BI-Tools in hohem Maße erfüllt.

Zielpublikum: BI-Manager, Data-Analysten, Cloud-Architekten
Voraussetzungen: Versicherungs- und BI-Architektur-Grundverständnis
Schwierigkeitsgrad: Fortgeschritten

Lasse Wiedemann berät seit mehr als 4 Jahren Kunden aus der Finanzdienstleistungsbranche erfolgreich zu ETL- und BI-Fragestellungen. Dabei hat er sich auf das Thema Data Management konzentriert und ist bei PPI für diesen Bereich verantwortlich.

Seit 20 Jahren in Führungspositionen verschiedener Versicherungsunternehmen tätig. In der GVV verantwortlich für den Bereich Integration und dispositive Systeme. In dieser Rolle verantwortliche Projektleitung für das Projekt DATAFit.

Michael Fischer-Dederra, Michael Kolb
Lasse Wiedemann, Ethel Keusen
Michael Fischer-Dederra, Michael Kolb

Vortrag Teilen

Lasse Wiedemann, Ethel Keusen
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:45
Mo 2.3
Mithilfe von Datenkompetenz den digitalen Wandel meistern
Mithilfe von Datenkompetenz den digitalen Wandel meistern

Einen exzellenten Umgang mit Daten zu kultivieren und damit nachhaltige Datenkompetenz im Unternehmen zu verankern, sind entscheidende Enabler, um den digitalen Wandel zum modernen Fintech-Unternehmen zu meistern. Mit der Ausbildungsoffensive „Informations- und Datenmanagement” hat die RLB OÖ 2019 einen Trainings-Piloten gestartet, der sich zu einem etablierten Schulungsprogramm für die gesamte Organisation entwickelt hat. Wie man ein solches Programm samt praxisnahem Lehrplan aufbaut, erzählt die Data Governance Spezialistin Iris Thallinger.

Zielpublikum: Project Manager, Data Governance Manager, Data Passionist, CDO, CIO
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Einsteiger

Iris Thallinger absolvierte ein Studium der Wirtschafts- und Rechtswissenschaften an der JKU/Linz und hat mehr als 15 Jahre Erfahrung im Bereich Projekt- und Prozessmanagement im Bankensektor. Anfang 2017 bis Ende 2020 hat sie den Aufbau von Data Governance in der RLB OÖ verantwortet und wurde für diese Leistung 2020 mit dem Austrian Data Hero Award ausgezeichnet. Seit Januar 2021 ist sie im Datenschutz der RLB OÖ tätig.

Wer braucht ein DWH Model, wenn es ein Fachdatenmodell gibt?
Wer braucht ein DWH Model, wenn es ein Fachdatenmodell gibt?

Auch für die SIGNA, einen der weltweit größten Immobilienentwickler, ist datengetriebene Unternehmenssteuerung ein entscheidender Erfolgsfaktor. Zur Implementierung des DWH wurde ein fachlicher Ansatz gewählt: Geschäftsfunktionen und -objekte werden im Fachdatenmodell abgebildet und direkt als Data Vault-Modell realisiert. So kann die Time-to-market deutlich reduziert, sowie Wartbarkeit und Transparenz markant gesteigert werden. Vor allem: Die Datennutzer verstehen die Daten und können deren fachliche und technische Lineage nachvollziehen.

Zielpublikum: Data Governance-Verantwortliche, Data Scientists, CDO
Voraussetzungen: Experience, Senior Level
Schwierigkeitsgrad: Fortgeschritten

Daniela Graussam leitet in der SIGNA das gruppenweite IT Application Management, das geschäftskritische Applikationen für Finanz, Bauwesen, Asset Management, sowie interner Organisation zur Verfügung stellt. Sie und ihr Team agieren als Sparring-Partner der Fachabteilungen bei der Gestaltung und Digitalisierung komplexer Geschäftsprozesse und ermöglichen deren Umsetzung. Daniela hat nach einem Wirtschaftsstudium erfolgreich ein MBA Studium in Kalifornien abgeschlossen.

Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.

Iris Thallinger
Daniela Graussam, Barbara Kainz
Daniela Graussam, Barbara Kainz
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:45
Mo 3.3
Wenn KI einen in die Cloud treibt. Vom klassischen DWH zur modernen Data Platform
Wenn KI einen in die Cloud treibt. Vom klassischen DWH zur modernen Data Platform

Viele Unternehmen investierten in der Vergangenheit in klassische DWH-Architekturen. Seit einigen Jahren geraten diese durch stark geänderte Anforderung wie Analyseunterstützung durch künstliche Intelligenz oder echtzeitnahe Reports immer stärker unter Druck. 

In diesem Vortrag zeigen wir anhand eines Praxisbeispiels zwei Lösungswege (Managed Cloud Services und OSS-Plattformen) und wie durch eine Kombination von beiden den immer weiter steigenden Anforderungen optimal begegnet werden kann.

Zielpublikum: Geschäftsführer, BI-Analysten, IT-Verantwortliche
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Zahlreiche Unternehmen haben seit über 30 Jahren in eigene Data Warehouse und ETL-Infrastrukturen investiert und geraten in den letzten Jahren immer stärker unter Druck, diese Lösungen an die sich schnell ändernden Anforderungen des Marktes und der Anwender anzupassen. Steigende Kosten für Hardware, Infrastruktur, Administration und Entwicklung sind die Folge. Dennoch kann häufig keine zufriedenstellende Lösung erreicht werden.   

Analyse durch Künstliche Intelligenz, automatisierte Self-Services und echtzeitnahe Reports sind immer gängiger werdende Anforderungen, die damit nicht erfüllt werden können. Zudem sprengen die Anforderungen selbstlernender KI-Systeme oft die Grenzen vorhandener Infrastruktur im eigenen Rechenzentrum. 

Wir zeigen in diesem Vortrag anhand eines Praxisbeispiels zwei Lösungswege für die oben genannten Herausforderungen: Die Nutzung der Managed Cloud Services von Microsoft Azure und einer Kubernetes-basierten Anwendungs- und Datenplattform. Beide Konzepte haben individuelle Stärken und Schwächen, auf die wir näher eingehen werden. Dabei betrachten wir auch die Möglichkeiten einer schrittweisen Migration und gehen kurz auf Aspekte der Data Governance und der IT-Sicherheit ein. Abschließend zeigen wir, wie eine Kombination der beiden Ansätze zu einer individuell optimierten Lösung für unterschiedlichste Anforderungen führen kann.  

Die vorgestellte Lösung bietet: 

  • Flexibilität 
  • Kosteneffizienz 
  • Zukunftssicherheit 
  • Optimale Nutzererfahrung für Kunden und Mitarbeiter

Wolfgang Kettler ist Bereichsleiter für Microsoft BI & Cloud Services bei der infologistix GmbH. Er hat über 12 Jahre Erfahrung im Bereich der Architektur komplexer Daten-Plattformen und BI-Anwendungen. Als Senior Consultant berät er Kunden in den oben genannten Themenfeldern. Seine Spezialität ist die Migration bestehender on-premise Lösungen in moderne, skalierbare Cloud-Lösungen auf Microsoft Azure.

Dr.-Ing. Harald Philipp Gerhards ist Bereichsleiter für Cloud Native Computing bei der infologistix GmbH. Er hat mehrere Jahre Erfahrung als Senior Consultant sowohl für das klassische DWH als auch für verteilte cloud-basierte Systeme. Als Systemarchitekt berät er Kunden mit Fokus auf Container-Plattformen und Erweiterungen für Echtzeit-Analysen bestehender DWH- und BI-Architekturen.

Wolfgang Kettler, Harald Philipp Gerhards
Wolfgang Kettler, Harald Philipp Gerhards
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:45
Mo 4.3
Kleine Daten, kleine Sorgen, große Daten, große Sorgen
Kleine Daten, kleine Sorgen, große Daten, große Sorgen

Höher, schneller, weiter scheint immer noch das Grundprinzip der Data & Analytics Community zu sein.

In Zeiten von Informations- und Kommunikationsüberfluss stellt sich die Frage, ob mit mehr Daten der Mehrwert in gleichem Maß steigt. 

Der Vortrag möchte aufzeigen, warum wir umdenken sollten. Relevanz steht vor Menge - es geht nicht um die Menge der verarbeiteten Daten, sondern um die Menge der sinnvoll genutzten Daten.

Es wird aufgezeigt, wie Anwender gezielter unterstützt und Prozesse automatisiert werden können.

Zielpublikum: Business Users, Head of BICC, CIO
Voraussetzungen: None
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Höher, schneller, weiter scheint immer noch das Grundprinzip der Data & Analytics Community zu sein. Mit immer besseren Technologien, die auf der Grundlage von Cloud-Services immer einfacher zugreifbar werden, werden immer mehr Daten, immer schneller und immer intelligenter verarbeitet.

In Zeiten von Informations- und Kommunikationsüberfluss stellt sich die Frage, ob mit mehr Daten der Mehrwert in gleichem Maß steigt. Werden wirklich mehr Use-Cases zu Business-Cases oder an welcher Stelle wird getrieben durch Daten das Geschäftsmodell verbessert.

Der Vortrag möchte aufzeigen, warum wir umdenken sollten. Relevanz steht vor Menge - es geht nicht um die Menge der verarbeiteten Daten, sondern um die Menge der sinnvoll genutzten Daten.
Zunächst wird aufgezeigt, warum das Problem nicht erst mit Big Data aufgekommen ist, sondern vielmehr schon ein Dauerbrenner bei der Analyse von Daten ist.
Im Weiteren wird dargestellt, wie Anwender besser dabei unterstützt werden können, Informationen einfacher und gezielter zu verarbeiten. Dabei wird die Bedeutung von Data Governance oder auch aktuellen Trendthemen wie Data Democracy oder Data Literacy näher beleuchtet.

Weil es sich um einen zentralen Punkt bei vielen Digitalisierungsprojekten handelt, geht es abschließend darum, sich mit dem Potenzial der Automatisierung von Entscheidungen und damit von Prozessen auf der Grundlage von Daten auseinanderzusetzen. 

Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Oktober 2021 ist er Senior Advisor New Business & Strategy bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge zur Entwicklung des Data & Analytics-Marktes veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Klaus-Dieter Schulze ist seit 2012 Mitglied im Vorstand des TDWI e.V.

Dr. Jörg Westermayer leitet das Competence Center Data Strategy & Governance bei b.telligent. Er verfügt über mehr als 20 Jahre Beratungs- und Führungserfahrung im Bereich Business Intelligence. Seine aktuellen Beratungsschwerpunkte sind Datenstrategie, Data Governance und Datenqualitätsmanagement. Zu diesen Themen hat er Fachartikel, Buchbeiträge und Fachvorträge vorgelegt.

Optimierte Geschäftsentscheidung durch humanisierte Analytik
Optimierte Geschäftsentscheidung durch humanisierte Analytik

In diesem Vortrag werden die Teilnehmer 

  • die drei wesentlichen Säulen einer guten Geschäftsentscheidung kennenlernen
  • erfahren, wie sie diese am Beispiel kundenzentrierter Prozesse anwenden können
  • ein Framework zur nachhaltigen Etablierung auf Basis des SAP-Lösungsportfolios kennenlernen.

Zielpublikum: Entscheidungsträger, an Customer Experience interessierte Teilnehmer
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Intelligente Unternehmen zeichnen sich durch gute Geschäftsentscheidungen aus. Diese Entscheidungen basieren auf Daten, entstehen in konkreten Prozessen und haben Auswirkungen auf die Geschäftsentwicklung. 
Am Beispiel der kundenzentrierten Prozesse (Vertrieb, Service, Marketing, eCommerce) und deren Abbildung im SAP Customer Experience Portfolio werden diese Komponenten insbesondere im Hinblick auf das Zusammenspiel mit den beteiligten Personas dargestellt.

Wir geben einen Überblick über die beteiligten Produkte und zeigen, wie die konsequente Einbeziehung von Personas Geschäftsentscheidungen optimiert.

Dr. Thomas Zachrau hat in theoretischer Physik promoviert und beschäftigt sich seit über 25 Jahren leidenschaftlich mit Analytik. Die Analyse kundenzentrierter Prozesse und die Bedeutung von Geschäftsentscheidungen für Anwender und Kunden liegen ihm besonders am Herzen. Als Senior Manager bei Syskoplan Reply ist er für den Bereich Analytik auf Basis von SAP-Lösungen verantwortlich.

Klaus-Dieter Schulze, Jörg Westermayer
Thomas Zachrau
Klaus-Dieter Schulze, Jörg Westermayer
Vortrag: Mo 4.3-1

Vortrag Teilen

Thomas Zachrau
Vortrag: Mo 4.3-2
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:45
Mo 5.3
Data Management 4 AI - TDWI Community Talk inkl. Panel
Data Management 4 AI - TDWI Community Talk inkl. Panel

The real magic of AI lays in well managed data to build and train the underlying models. Accordingly, streamlined data management process are essential for success in AI. In this session we are going to discuss data management for AI and ask questions like 'What is data management for AI?', 'Are there difference to well-known approaches from BI & Analytics' and 'Do we need special AI data engineers?'.
TDWI Community Talk is an open format to discuss current topics in the area of data analytics within the TDWI community.

Target Audience: All data entheusiasts
Prerequisites: No prerequisites
Level: Basic

Extended Abstract:
The area of artificial intelligence is currently trending and transforms BIA landscapes in many organizations. There are many new initiatives and promises, however, to build all these fancy applications a well-thought data management is necessary. Nevertheless, the discussion of AI often focuses various models and cool programming languages and the underlying data engineering is often neglected. This is why this session focuses data management for AI and discusses approaches and best practices with the TDWI community.

The goal of this session is:

  1. Give the audience an overview what 'Data Management for AI' means and what basic terms are.
  2. Discuss current best practices and challenges with experts and the audience.
  3. Reflect different views on differences between processes in AI and BI, the role of a data engineer, software tools and many more.

The 'TDWI Data Schnack' is an interactive format that wants to engange the discussion in the TDWI community. It provides a plattform that highlights different aspects of a current topic and inspires discussions between experts and other community members. Therefore, the course of a Data Schnack session contains a short introduction talk that introduces a basic understanding of the topic. Followed by a panel discussion with experts from different fields. Lastly, an open discussion integrates the audience to share knowledge between all participants.

Julian Ereth is a researcher and practicioner in the area of Business Intelligence and Analytics. As a solution architect at Pragmatic Apps he plans and builds analytical landscapes and custom software solutions. He is also enganged with the TDWI and hosts the TDWI StackTalk.

Julian Ereth
Julian Ereth
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:45
Mo 6.3
Daten Management als wichtiger Baustein in der Organisationsstruktur
Daten Management als wichtiger Baustein in der Organisationsstruktur

  • Welche Organisationsstruktur und welche Prozesse machen Sinn?
  • Was kann man abseits der (alt-)bekannten Strukturen und Prozesse ansetzen, um nachhaltig fruchtbaren Boden für Datenqualität und Integrationsstrukturen zu schaffen?
  • Was funktioniert aus Sicht von MediFox im „wahren“ Leben, und was nicht?
  • Welche Verantwortlichkeiten und Prozesse organisiert man besser zentral und welche besser dezentral?

Schwierigkeitsgrad: Einsteiger

Datenmanagement von Sensordaten
Datenmanagement von Sensordaten

Das IoT erzeugt eine unermessliche Flut an Daten. Einzelne Datenpunkte sind einfach zu handhaben. Doch die Menge und Vielfalt der Daten sowie die Geschwindigkeit der Entstehung sorgen für eine hohe Komplexität. 
In der Session werden verschiedene Aspekte des Datenmanagements von Sensordaten vorgestellt wie Speicherung, Verarbeitung, Architektur, u.a.

Zielpublikum: Data Engineer, Data Architect
Voraussetzungen: Basic Knowledge
Schwierigkeitsgrad: Einsteiger

Andreas Buckenhofer arbeitet bei Mercedes-Benz Tech Innovation in Ulm. Er verfügt über langjährige Erfahrung in der Entwicklung datenintensiver Produkte. Seine Schwerpunkte dabei sind insbesondere Datenarchitektur, Datenspeicherung, Datenintegration und Datenqualität.

Nils Westphal
Andreas Buckenhofer
Nils Westphal
Vortrag: Mo 6.3-1

Vortrag Teilen

Andreas Buckenhofer
Vortrag: Mo 6.3-2
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 18:30
Mo 7.3
Ausgebucht End-to-End Time Series Analysis from Data to Consumption
End-to-End Time Series Analysis from Data to Consumption

Forecasting events using time series analysis is used in a variety of fields, from stock prices and sales forecasts to weather forecasts and patient disease progression. However, time series analysis is fundamentally different from other machine learning (ML) methods. In this hands-on workshop, we will use freely available data to look at the entire life cycle of such an ML project, from data, to model training, to use of the trained model, to MLOps and model drift.

Maximum Number of Participants: 16
A laptop with the latest version of Google Chrome is required for participation.

Target Audience: Data Engineer, Data Scientist, Citizen Data Scientist, Business Analysts, Data Analysts, business users, curious people
Prerequisites: Basic knowledge of time series problems (demand forecast etc.) as well as machine learning (training and scoring), 
Level: Basic

Dr. Homa Ansari is a data scientist at DataRobot. She spent eight years on algorithm design for time series analysis from satellite data at the German Aerospace Center (DLR). Her expertise and publications are in the field of statistical signal processing and machine learning. She won two scientific awards, published 20+ technical articles and held 15+ talks at various space agencies and international conferences.

Homa Ansari
Homa Ansari
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:00
SDmo1.5
Moderne Datenarchitekturen
Moderne Datenarchitekturen

Erfahren Sie alles über moderne Datenarchitekturen von Peter Baumann. Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei INFOMOTION und unterstützt seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.

Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einsteig bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.

Peter Baumann
Peter Baumann
Vortrag: SDmo1.5
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:45
SDmo2.4
Starburst Labs - Distributed data mesh & cross-cloud analytics
Starburst Labs - Distributed data mesh & cross-cloud analytics

In diesem praktischen und interaktiven Workshop erfahren Sie, wie Starburst als zentraler Zugriffspunkt fungiert, der eine Verbindung zu jeder Datenquelle herstellt – egal ob On-Premise, in der Cloud oder in einer hybriden Cloud. Starburst ermöglicht es Ihrem Team, die Analyse-Tools zu nutzen, die es bereits kennt und liebt, und gleichzeitig auf alle Daten überall zuzugreifen.

 

In this hands-on and interactive workshop you’ll see how Starburst acts as a single point of access connecting to any source of data – whether it’s located on-premise, in the cloud, or across a hybrid cloud environment – Starburst lets your team use the analytics tools they already know & love while accessing data that lives anywhere.

Joseph Gade arbeitet derzeit als Solution Architect für Partner-Ökosysteme bei Starburst Data und unterstützt GSI, RSI und große Cloud-Partner dabei, die Data-Mesh-Strategie von Starburst bei Großkunden in der DACH-Region zu positionieren. Joseph bringt einen reichen Erfahrungsschatz aus der Arbeit bei vielen Produktunternehmen wie SAS, Tibco und ThoughtSpot mit, hauptsächlich in der Pre-Sales-Rolle. Josephs Spezialisierung umfasst Business Intelligence, wertorientiertes Verkaufen und maschinelles Lernen. In seiner Freizeit liebt Joseph es Reisen zu unternehmen, Cricket zu sehen und zu verfolgen und seiner Leidenschaft für die Fotografie nachzugehen

Arne Ottens ist Teil des Solution Architecture Teams hier bei Starburst Data. Arne ist ein Technologie- und Daten-Enthusiast mit den Schwerpunkten Datenmanagement, Big Data und Cloud-Technologien. Seine Erfahrung hat er aus zahlreichen internationalen Projekten in verschiedensten Branchen und freut sich nun Ihnen Starburst näher zu bringen.

Joseph Gade, Arne Ottens
Joseph Gade, Arne Ottens
Vortrag: SDmo2.4
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 16:30
SDmo1.6
SAP Data Warehouse Cloud und SAP BW bridge
SAP Data Warehouse Cloud und SAP BW bridge

SAP stellt die SAP Data Warehouse Cloud, SAP BW Bridge vor und erläutert Anwendungsmöglichkeiten und Einsatzszenarien. Weiterhin zeigen wir auf, welche Optionen für SAP BW Kunden bestehen, in die Cloud (public und private) zu wechseln und welche Möglichkeiten die SAP anbietet, bestehende BW basierte Datenflüsse in die public Cloud nach SAP Data Warehouse Cloud zu überführen.

Gordon Witzel ist Data Management Expert für SAP Data Warehousing mit Hauptexpertise für die Produkte SAP Business Warehouse (SAP BW/4HANA) und SAP Data Warehouse Cloud. Gordon ist spezialisiert auf SAP BW/4HANA, SAP HANA Data Warehousing, SAP Data Warehouse Cloud und moderne Data Warehouse Architekturen.

Bevor Herr Witzel im Jahre 2022 in das deutsche Pre-Sales Team wechselte, war Gordon seit 2016 als Produktmanager bei der SAP für SAP Data Warehousing tätig und sammelte zuvor weltweit 8 Jahre Erfahrung in der SAP BW Beratung.

Gordon Witzel
Gordon Witzel
Vortrag: SDmo1.6
flag VORTRAG MERKEN

Vortrag Teilen

16:30 - 17:15
SDmo1.7
Paneldiskussion
Paneldiskussion

Vortrag: SDmo1.7
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:15
Pause
Kaffee & Ausstellung / Coffee & Exhibition
Kaffee & Ausstellung / Coffee & Exhibition

17:15 - 18:30
Mo 1.4
Datenintegration und Cognitive Services im Risikomanagement
Datenintegration und Cognitive Services im Risikomanagement

Ziel dieses Projektes war es, die Frühwarn-Indikatoren im Bereich Risikomanagement zu erweitern. Es wurden öffentlich zugängliche Daten (Genisis, Gerda, Eurostat etc.) innerhalb einer Cloud-Infrastruktur bereitgestellt. Für die Identifikation und Extraktion relevanter Zeitreihen wurde ein, über eine API zugänglicher, kognitiver Service zur multivariaten Anomalie-Erkennung verwendet. Die Ergebnisse wurden zur Anreicherung der Datengrundlage von 'Point-in-Time'-Berechnungen für die Ausfallrate von Krediten und weitere Analysen eingesetzt.

Zielpublikum: Project Leads, Decision Maker, Fachangestellte im Risikomanagement, Riskmanager, Risiko-Manager, Risk Controller, Data Analyst, Data Scientist, Data Engineer, Cloud Specialists, IT-Architekten, Kredit-Ausfall-Spezialist, PD/LGD
Voraussetzungen: Basic Knowledge in Risikomanagement
Schwierigkeitsgrad: Einsteiger

Dr. Philipp Kazzer hat nach seinem Bachelor in Kognitionswissenschaften und dem Master der Bio-Informatik im Bereich Neurowissenschaften an der Charité/FU - Berlin promoviert. Seit 6 Jahren beschäftigt er sich als Berater bei der Syncwork AG mit den Verfahren von Natural Language Processing und arbeitet in verschiedenen DWH-Projekten mit. Er leitet das Team Data Science bei Syncwork und ist für das 'Ai-Labor' verantwortlich.

Julia Werra hat ihren Bachelor in 'international business Administration' mit Vertiefung in Finanzen dual innerhalb der Consulting-Sparte eines globalen IT-Konzerns abgeschlossen. Seit zwei Jahren arbeitet sie als Consultant der Syncwork AG. Ihre Arbeitsgebiete umfassen Projektmanagement und Anforderungserhebung für IT-Systeme. Sie leitet ein Migrationsprojekt und ein POC im Bereich Risikomanagement. Als Mitglied der taskforce vermarktet und entwickelt sie Syncwork AI-Dienstleistungen.

Panel: Branchenfokus Finanzindustrie
Panel: Branchenfokus Finanzindustrie

Dr. Andreas Totok ist Geschäftsbereichsleiter Enterprise Information Management bei der Finanz Informatik Solutions Plus GmbH. In dieser Funktion berät er Bankinstitute und Versicherungen der Sparkassen-Finanzgruppe zu strategischen IT-Themen und verantwortet Projekte für die Anwendung Künstlicher Intelligenz und dem Management von Daten. Seine Schwerpunkte liegen in der Fachkonzeption sowie der Architektur- und Organisationsberatung.

Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.

Philipp Kazzer, Julia Werra
Andreas Totok, Michael Zimmer
Philipp Kazzer, Julia Werra
Vortrag: Mo 1.4-1
Themen: Financing

Vortrag Teilen

Andreas Totok, Michael Zimmer
Vortrag: Mo 1.4-2
Themen: Financing
flag VORTRAG MERKEN

Vortrag Teilen

17:15 - 18:30
Mo 2.4
Datengetrieben in die Zukunft: Haltestellen einer Datenreise
Datengetrieben in die Zukunft: Haltestellen einer Datenreise

Die Vision der Wiener Linien ist der datengetriebene Ansatz, um mit qualitativ-hochwertigen Daten die richtigen Lösungen zu finden und Entscheidungen gewinnbringend zu nutzen. Das Wissen über und das Vertrauen in die Daten ist der Schlüssel zum Erfolg. Das Instrument eines durchgängigen Metadatenmanagements - von der fachlichen Definition bis hin zu Datennutzungen - ermöglicht eine datenzentrierte Sichtweise, beschleunigt die Digitale Transformation und die gesamte Wertschöpfungskette profitiert nachhaltig.

Zielpublikum: Data Governance-Verantwortliche, Data Scientists, CDO
Voraussetzungen: Experience, Senior Level
Schwierigkeitsgrad: Fortgeschritten

Jessica Gatterer ist Data Excellence Lead bei den Wiener Linien. Ihre Expertise liegt in den Bereichen Data Governance, Data Sharing und Data Quality und sie treibt die Digitale Transformation maßgeblich voran. In dieser Funktion vereint sie ihre mehrjährige Berufserfahrung in den Gebieten IT, Consultant und Strategy, IT-Transformation, Datenmanagement und Business-Analyse. Zudem setzt sich Frau Gatterer proaktiv für Diversity ein.

Data Excellence in der Stadt Wien - 'the next level'
Data Excellence in der Stadt Wien - 'the next level'

2016 startete die Stadt Wien das Thema Data Excellence - wie sehen nun im Jahr 2022 die Use-Cases im täglichen Leben dieser komplexen Organisation aus? Die Stadt Wien hat nicht nur fachliche Metadaten als Basis für ihr Wissensmanagement und Data Warehouse etabliert, sondern bringt durch den Einsatz von fachlichen und technischen Metadaten ihre gesamte Geodaten-Landschaft und auch alle Open Data unter Governance. Dadurch werden die wertvollen Daten der Stadt Wien sowohl für alle internen als auch für die externen Datenkonsument:innen nutzbar.

Zielpublikum: Data Governance-Verantwortliche, Data Scientists, CDO
Voraussetzungen: Experience, Senior Level
Schwierigkeitsgrad: Fortgeschritten

Brigitte Lutz ist Data Governance-Koordinatorin der Stadt Wien, leitet das Open Government-Kompetenzzentrum und ist Gründungsmitglied & Sprecherin der Cooperation Open Government Data Österreich. Weitere Aufgabenschwerpunkte sind der Digitale Zwilling der Stadt Wien, Data Analytics, Blockchain, E-Government-Bausteine und -Services. Sie hat eine postgraduale Ausbildung in Management & IT.

Jessica Gatterer
Brigitte Lutz
Jessica Gatterer

Vortrag Teilen

Brigitte Lutz
flag VORTRAG MERKEN

Vortrag Teilen

17:15 - 18:30
Mo 3.4
Sports Analytics in der Cloud
Sports Analytics in der Cloud

Analytics-Lösungen wie Maschinelles Lernen, Künstliche Intelligenz und Hochleistungs-Computing bieten neue Ansätze für Sports Analytics und somit für Innovationen im Sport, Sport-Management sowie der Sportvermarktung. Nationalmannschaften, Ligen, Sendeanstalten und Vermarktungsagenturen nutzen diese Technologien schon heute. Sports Analytics hilft, Spieler effektiver zu trainieren, den Fans individuelle Statistiken und Bildinhalte zur Verfügung zu stellen, vorhandene Fan-Kontakte zu monetarisieren und vieles mehr.

Zielpublikum: BI Manager, Data Scientist, Sport Marketing,
Voraussetzungen: Interesse an cloudbasierten Analytics-Referenzarchitekturen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Im Vortrag wird am Beispiel eines Fußballinformationssystems vorgestellt, wie die areto as a Service Architektur (areto Platform) Unternehmen eine 'Out of the box Architektur' als Service anbietet, die auf die branchen- und unternehmensspezifischen Anforderungen ausgerichtet ist (Architecture as a Service). Die Architektur besteht aus Infrastrukturmodulen, die technologische Anforderungen im Unternehmen bedienen, wie z.B. das Aufsetzen von Data Warehouses und Integration mit Data Lakes und Data Pipelines (Datenverarbeitungsstrecken). Die Plattform bietet eine stabile und skalierbare zentrale Infrastruktur, die alle Abteilungen eines Unternehmens an zentraler Stelle bedienen kann. In der Architektur etabliert areto ausschließlich marktführende Cloud-Technologien von Vorreitern, wie AWS und Microsoft. Die areto Platform vereint Daten aus Branchen-relevanten Datenquellen und stellt diese für unternehmensspezifische Analyse den Fachabteilungen zur Verfügung (Data as a Service). Das optimale BI Tool wird hierfür bereits auf Wunsch bereitgestellt. Darüber hinaus bietet areto eine Vielzahl an vorkonfigurierten Dashboards und Reports, die auf fachliche Fragestellungen einzelner Branchen Antwort geben (Information as a Service). Der Data Platform Service von areto versetzt Unternehmen in die Lage, schnell und flexibel auf Marktanforderungen zu reagieren und ihren Konkurrenten immer einen Schritt voraus zu sein.

Dorothea Gottwald, Team Lead Analytics bei areto blickt auf eine langjährige Erfahrung im Analytics-Bereich zurück. Stationen ihrer Laufbahn waren u.a. Lufthansa Cargo, IBM und KPMG. Als ausgewiesenen SCRUM-Expertin und AWS Certified Cloud Practitioner hat sie bei areto eine führende Rolle beim Aufbau der Analytics-Referenzarchitekturen (AWS / Azure) und der areto Standards.

André Dörr, BI Consultant und Data Engineer bei areto consulting. Als zertifizierter Data Vault 2.0 Practitioner (CDVP2) verfügt er über mehr als 12 Jahre Erfahrung in BI-Projekten in verschiedenen Industriesektoren. Er ist derzeit ein führender Data-Warehouse-Architekt bei areto, Sprecher auf Konferenzen und Autor des auf Sportwetten fokussierten Data Science Blogs https://beatthebookie.blog. André hat eine Leidenschaft dafür, Daten zum Leben zu erwecken und interessante Geschichten zu erzählen, die den digitalen Wandel in Unternehmen vorantreiben.

Dorothea Samira Gottwald, André Dörr
Dorothea Samira Gottwald, André Dörr
Vortrag: Mo 3.4
flag VORTRAG MERKEN

Vortrag Teilen

17:15 - 18:30
Mo 4.4
World Café: Datengetriebenes Arbeiten
World Café: Datengetriebenes Arbeiten

Vortrag: Mo 4.4
flag VORTRAG MERKEN

Vortrag Teilen

17:15 - 18:30
Mo 5.4
Explainable AI - Why interpret-able models are good models
Explainable AI - Why interpret-able models are good models

Machine learning and AI have changed the world of data processing and automation at a breathtaking pace, at the cost of turning algorithms into hard-to-control and monitor black boxes.
We present methods and concepts of explainable AI that aim to open the black box and tame these algorithms.

Target Audience: Decision-Makers/Stake Holders in AI & model development, Data Scientists
Prerequisites: general awareness of modeling pipeline and challenges, no coding/math skill required
Level: Basic

Maximilian Nowottnick is a Data Scientist at the full-service data science provider Supper & Supper GmbH from Germany. He has a B.Sc. and a M.Sc. in Physics and extensive knowledge in developing AI solutions in the areas of GeoAI and Mechanical Engineering. He was one of the driving engineers to develop the first SaaS solution of Supper & Supper, called Pointly for 3D point cloud classification.

Harness the power of language with NLP in the Cloud
Harness the power of language with NLP in the Cloud

Natural Language Processing (NLP) allows us to deeply understand and derive insights from language, ultimately leading to more automated processes, lower costs, and data-driven business decisions. 
Google is recognized as a market leader in AI and has built a range of solutions incorporating NLP to address a myriad of business challenges. This talk will introduce a few possible solutions, as well as some business use cases on how to incorporate them in a variety of industries.

Target Audience: Middle and upper-level management, Business users with AI/machine learning challenges, BI/Data professionals
Prerequisites: Basic knowledge of machine learning and cloud technology, interest in NLP
Level: Intermediate

Catherine King is a Customer Engineer at Google Cloud and is a Google Cloud Certified Professional Data Engineer. She works with customers in the Public Sector and supports them in digital transformations, big data analytics, and artificial intelligence implementations. Before Google, she worked for many years in the Translation Industry designing Machine Translation models for enterprise clients.
Catherine holds an MSc in Data Science and is passionate about decision science and data-driven cultures.

Maximilian Nowottnick
Catherine King
Maximilian Nowottnick

Vortrag Teilen

Catherine King
flag VORTRAG MERKEN

Vortrag Teilen

17:15 - 18:30
Mo 6.4
DWH-Migration in die AWS Cloud - Fast and Easy
DWH-Migration in die AWS Cloud - Fast and Easy

Porsche hat in den vergangenen Jahren ein DWH mit konsolidierten Fertigungsdaten on premises aufgebaut. Entsprechend der Cloud-Strategie werden nun sukzessive Lösungen in die Cloud migriert. Dieser Cloud-Move der DWH-Lösung ist aber nicht nur ein trivialer Wechsel von on prem in die Cloud. Neben der Datenplattform betrifft dieser Wechsel natürlich auch die Datenflüsse. Dank des eingesetzten Metadata-Driven Ansatzes ist die Migration aber kein Hexenwerk. Im Vortrag werden die Migrationsschritte aufgezeigt und erläutert.

Zielpublikum: Data Engineer, Project leader, decision makers, ...
Voraussetzungen: Basic knowledge, experience in data warehousing and cloud technologies
Schwierigkeitsgrad: Einsteiger

Gregor Zeiler ist seit dreißig Jahren in verschiedenen Funktionen in der Business Intelligence-Beratung tätig. Im Zuge seiner beruflichen Tätigkeit konnte er umfangreiche Projekterfahrung in vielen Branchen und auf Basis eines breiten Technologiespektrums sammeln. Zahlreiche Publikationen und Vorträge begleiten seine berufliche Tätigkeit. Als CEO bei biGENIUS AG kommt er seiner Passion die Prozesse in der Entwicklung von Data Analytics Lösungen zu optimieren nach.

Gregor Zeiler
Gregor Zeiler
flag VORTRAG MERKEN

Vortrag Teilen

17:15 - 18:30
SDmo2.5
Happy Hour Starburst
Happy Hour Starburst

Drinks, nibbles, competitions

Vortrag: SDmo2.5
flag VORTRAG MERKEN

Vortrag Teilen

18:45 - 19:30
KeyMo2
SPECIAL KEYNOTE: Haie, Höhlen, tiefes Wasser – Expeditionen unter dem Meer
SPECIAL KEYNOTE: Haie, Höhlen, tiefes Wasser – Expeditionen unter dem Meer

Im Leben des Unterwasserfotografen und Terra X Moderators Uli Kunz bedeutet ein Büro-Tag, dass er von winzigen Booten ins bodenlose Blau des Meeres springt, von Haien umringt oder von Robben angeknabbert wird, mit 150 Kilogramm Ausrüstung durch wassergefüllte Höhlen schwimmt, gefährliche Geisternetze aus dem Wasser zieht oder singenden Walen in der Arktis lauscht.
Der Meeresbiologe nimmt regelmäßig an abenteuerlichen Forschungsexpeditionen teil, von denen er faszinierende Unterwasserfotos mit nach Hause bringt. Für die aufwendigen Arbeiten in der Tiefe gelten die gleichen Prinzipien wie an Land: Projekte müssen genau geplant und effizient durchgeführt werden, die Mitglieder des Teams müssen motiviert miteinander kommunizieren und der Umgang mit riskanten Situationen muss mehrfach trainiert werden. Selbstüberschätzung führt bei der Bedienung einer Kaffeemaschine meist nur zu unschönen Flecken und schlechtem Geschmack. Beim Tauchen stellt sie ein tödliches Risiko dar.
In seiner Show berichtet Uli Kunz von denkwürdigen Begegnungen mit den faszinierenden Lebewesen der Ozeane, von gewaltigen Unterwasserwäldern, neugierigen Robben und riesigen Buckelwalen, von denen er fast verschluckt wurde. Da er die Begegnung heil überstanden hat, kann er nun auch davon erzählen...
Uli möchte mit seinen Erzählungen und Bildern den Schutz der Ozeane vorantreiben, den größten Lebensraum auf der Erde, dessen Geheimnisse wir gerade erst zu verstehen beginnen. 

Im Leben des Unterwasserfotografen und Terra X Moderators Uli Kunz bedeutet ein Büro-Tag, dass er von winzigen Booten ins bodenlose Blau des Meeres springt, von Haien umringt oder von Robben angeknabbert wird, mit 150 Kilogramm Ausrüstung durch wassergefüllte Höhlen schwimmt, gefährliche Geisternetze aus dem Wasser zieht oder singenden Walen in der Arktis lauscht.

Uli Kunz
Uli Kunz
Track: #Keynote
Vortrag: KeyMo2
flag VORTRAG MERKEN

Vortrag Teilen

, (Dienstag, 21.Juni 2022)
08:00 - 09:00
Pause
Kaffee / Coffee & Registrierung / Registration
Kaffee / Coffee & Registrierung / Registration

09:00 - 10:15
Di 1.1
Entfesseln Sie den Wert Ihrer Unternehmensdaten – mit Datenvirtualisierung
Entfesseln Sie den Wert Ihrer Unternehmensdaten – mit Datenvirtualisierung

In der schieren Menge an Daten, die in vielen Unternehmen schlummern, steckt ein enormes Wertpotential für das Business. Doch wie versetzen sich Organisationen in die Lage, diesen Datenschatz zu heben? Datensilos und heterogene Datenbestände scheinen oftmals eine unüberwindbare Hürde für eine nahtlose Integration zu sein – und die IT wird schnell zum Spielball aufwändiger und teurer Legacy Integrations-Technologien. Im Vortrag erfahren Sie von Robert Auerochs, wie die ING-DiBa diese Hürden in der Datenintegration und -nutzung überwindet und hierauf innovative und gewinnbringende Use-Cases aufsetzt.

Zielpublikum: Data Engineers, Data Scientist, Data Architects, Data and Analytics Manager, Chief Data Officer(CDOs), Chief Information Officer (CIOs), Data Analysts, Heads of Data Integration etc.
Voraussetzungen: Basic knowledge of data and analytics, especially data warehousing and data transformation processes and understanding of these in the larger organizational context to achieve the business goals
Schwierigkeitsgrad: Fortgeschritten

Robert Auerochs ist in seiner Funktion als Expertise Lead DataLake Platform seit über 13 Jahren bei der ING-DiBa beschäftigt. Er ist zudem als Freelancer im Bereich Spiel-Design und Referent an der TU Darmstadt tätig.

Robert Auerochs
Robert Auerochs
Vortrag: Di 1.1
Themen: Financing
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:15
Di 2.1
Datennutzung vereinfachen durch Data Governance
Datennutzung vereinfachen durch Data Governance

Eine steigende Anzahl von Datenquellen soll durch einen immer größer werdenden Abnehmerkreis immer agiler verarbeitet werden.

Die HUK-COBURG verfolgt mit ihrer Data Governance Initiative die Ziele, Data Analytics und datengetriebene Use-Cases zu unterstützen, zu verbessern und zu beschleunigen.

Dispositive Datenbestände werden hierfür beschrieben und katalogisiert, Rollen und Verantwortlichkeiten rund um die Daten geklärt und effektive Prozesse zur Datenverwendung etabliert.

Zielpublikum: Data Owner, Data Stewards, Data Governance Manager, Data User
Voraussetzungen: Grundkenntnisse zum Thema Data Governance
Schwierigkeitsgrad: Einsteiger

Michael Kolb ist seit 14 Jahren im Business Intelligence-Umfeld tätig - davon seit über 8 Jahren als BI-Projektleiter und BI-Architekt im BICC der HUK-COBURG. Seit zwei Jahren begleitet er die Themen Data Cataloging und Data Governance im Kontext des erweiterten Daten-Ökosystems der HUK-COBURG.

Michael Kolb
Michael Kolb
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:15
Di 3.1
Data Architecture: Data Lake vs Lakehouse vs Data Mesh
Data Architecture: Data Lake vs Lakehouse vs Data Mesh

In order to succeed in creating a data driven enterprise it is clear that choosing the right data architecture is now critical. This session explores the evolution of data and analytics architecture and looks at what is needed to shorten time to value and create a data driven enterprise. It looks at the pros and cons of data lake, lakehouse and data mesh architectures and asks: Is there a best approach? Is a lot more than this needed to succeed?

Target Audience: Data architects, CDOs, CAOs, enterprise architects, data scientists, business analysts
Prerequisites: Basic understanding of data architectures used in supporting analytical workloads
Level: Advanced

Extended Abstract:
In many companies today the desire to become data driven goes all the way to the boardroom. The expectation is that as more and more data enters the enterprise, it should be possible to understand and use it to quickly and easily drive business value. In order to succeed in creating a data driven enterprise it is clear that choosing the right data architecture is now critical. However, data and analytics architecture has been evolving over recent years to a point where now there are multiple options. Is it a data lake that is needed? Is it a lakehouse? Or is it a data mesh? Should this be the focus or is it just vendor hype to fuel their own interests?  What are the pros and cons of these options? Is there a best approach? Is a lot more than this needed to succeed? This session explores the evolution of data and analytics architecture and looks at what is needed to shorten time to value and create a data driven enterprise.

  • Data and analytics - where are we?
  • Data and analytics architecture evolution
  • Architecture options and their pros and cons - data lake Vs lakehouse Vs data mesh
  • The shift to data fabric, DataOps, and MLOps to industrialise pipeline development and model deployment
  • Using a data and analytics marketplace to putting analytics to work across the enterprise

 

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

Mike Ferguson
Mike Ferguson
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:15
Di 4.1
Best Practice Self Service & Analytics in großen Unternehmen
Best Practice Self Service & Analytics in großen Unternehmen

Die Einführung von Self Service in größeren Unternehmen bringt eine hohe Komplexität mit sich. Die Session zeigt Best-Practice-Ansätze, wie man Data Literacy unternehmensweit etabliert, wie man ein Schulungsprogramm aufsetzt und welche technischen Herausforderungen es zu beachten gilt. Die daraus folgende Data Culture und Governance im Umgang mit Daten und welche Potenziale sich ergeben werden anschaulich aufgezeigt.

Zielpublikum: IT-Leiter, Fachabteilungen, Controlling, BI-Verantwortliche
Voraussetzungen: Basic Knowledge
Schwierigkeitsgrad: Einsteiger

Der Buchautor und Dashboardexperte Andreas Wiener hat über 10 Jahre Erfahrung im Erstellen und der Etablierung von Dashboards in Unternehmen. Er hat zahlreiche Bücher und Artikel geschrieben und gehört zu einem der führenden Visualisierungs- und Dashboardexperten in Europa.

Oliver Ulbrich ist Head of Consulting bei der reportingimpulse GmbH. Er ist Multi-Projektleiter für Konzerne und den wachstumsstarken Mittelstand. Seine Beratungsthemen sind Self Service, Analytics, Dashboarding und Visualisierung. Zudem entwickelt er stetig neue Lösungen für seine Kunden vor allem in den Bereichen Einführung und Transformation von modernen Analytics Anwendungen. Darüber hinaus ist er Host in wöchentlichen Streams zum Thema Data sowie Moderator im BI or DIE Podcast mit über 25.000 Abonnenten. In seiner Freizeit beschäftigt er sich mit Cryptowährungen und NFTs und checkt gelegentlich die Fußball Ergebnisse vom FC St. Pauli.

Andreas Wiener, Oliver Ulbrich
Andreas Wiener, Oliver Ulbrich
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:15
Di 5.1
Von CRISP-DM zu DASC-PM: Vorgehensmodelle für Data-Science
Von CRISP-DM zu DASC-PM: Vorgehensmodelle für Data-Science

Vielfach wird als Vorgehensmodell in Data-Science-Projekten CRISP-DM herangezogen. Dabei handelt es sich um ein Modell, das über 20 Jahre alt ist, nicht mehr weiterentwickelt wird und aus einer Zeit stammt, die weit vor Big Data lag.

Im Beitrag werden einige der in der Data Science eingesetzten Vorgehensmodelle ausgehend von CRISP-DM vorgestellt. Dabei werden generelle Anforderungen an solche Modelle formuliert und mit dem DASC-PM ein neuer Ansatz vorgestellt, der die aktuellen Herausforderungen datengetriebener Projekte zu adressieren versucht.

Zielpublikum: Sämtliche Personengruppen, die an Data-Science-Projekten beteiligt sind oder den Einsatz von Data Science im Unternehmen planen
Voraussetzungen: Teilnehmer:innen sollten idealerweise erste Erfahrungen mit Data-Science-Projekten gesammelt haben
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Der Siegeszug von Data Science in den Unternehmen hält weiterhin an und ein Ende ist derzeit noch nicht absehbar. Immer mehr Unternehmen bauen Data-Science-Teams auf und integrieren Data Science in ihre Wertschöpfungskette. Dabei gilt es, verschiedene organisatorische Fragen zu klären, soll die Nutzung der entwickelten Modelle in der Produktion effizient gelingen. Eine wichtige Frage stellt dabei das Vorgehensmodell dar, an dem sich das Data-Science-Team orientiert. Vielfach wird hier ein Modell herangezogen, das über 20 Jahre alt ist, nicht mehr weiterentwickelt wird und aus einer Zeit stammt, die weit vor Big Data lag: der Cross Industry Standard Process for Data Mining (CRISP-DM). In den 1990er-Jahren für Data Mining-Projekte entwickelt, dominiert CRISP-DM noch heute den Bereich der in der Data Science Community eingesetzten Vorgehensmodelle (vgl. u.a. www.datascience-pm.com/crisp-dm-still-most-popular).  

In dem Beitrag soll zunächst die historische Entwicklung der in der Data Science eingesetzten Vorgehensmodelle nachvollzogen werden. Neben dem KDD-Prozess (Knowledge Discovery in Databases) und natürlich CRISP-DM werden auch die Foundational Methodology for Data Science (FMDS) von IBM und der Team Data Science Process (TDSP) von Microsoft kurz vorgestellt. Als Beispiel für eine Anpassung von CRISP-DM an die Welt des Machine Learning und der Data Science wird darüber hinaus das CRISP-ML(Q) diskutiert.

Anschließend werden generelle Anforderungen an ein Data-Science-Vorgehensmodell formuliert. Auf welche Besonderheiten sollte hier geachtet werden und wo muss und sollte ein solches Modell über den Klassiker CRISP-DM hinausgehen? Angesichts der rasanten Entwicklung und Verbreitung von Data Science haben sich in der Praxis weitere Anforderungen ergeben, die nun Eingang in neue Konzepte finden sollten.

Seit 2019 arbeitet eine Gruppe von Wissenschaftler:innen und Mitarbeiter:innen verschiedener Unternehmen an einem neuen Konzept. Mit DASC-PM (DAta SCience - Process Modell) wird ein noch junger Ansatz für ein Vorgehensmodell vorgestellt, in dem CRISP-DM zu einem vollwertigen Vorgehensmodell für Data Science ausgebaut wird. Neben dem Prozessmodell umfasst DASC-PM eine Zuordnung der Aufgaben im Rahmen der verschiedenen Arbeitsschritte, ein Rollenkonzept, eine Bestimmung der jeweils notwendigen Skills sowie eine Betrachtung der Schnittstellen. Daraus ergibt sich ein ganzheitliches Modell, das es Data-Science-Teams ermöglicht, ein effektives und effizientes Vorgehen zu etablieren. Dabei ist DASC-PM so generisch angelegt, dass es sowohl im Bereich Scientific Data Science, also im Forschungsumfeld, als auch im Bereich Applied Data Science, beispielsweise im unternehmerischen Umfeld, eingesetzt werden kann.  

Der Vortrag zeigt den aktuellen Stand von DASC-PM und gibt einen Ausblick, wie das Vorgehensmodell in den nächsten Schritten weiter ausgebaut werden soll.  

Im letzten Teil des Beitrags werden anhand kurzer Case Studies Einsatzmöglichkeiten von DASC-PM präsentiert. Dabei soll die Nutzung von DASC-PM in unterschiedlichen Unternehmenstypen betrachtet werden.

Verschiedene Branchen werden ebenso herangezogen wie der Einsatz in unterschiedlichen Unternehmensgrößen. 

Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe (HKA). Dort vertritt er u. a. die Bereiche Business Intelligence und Projektmanagement im Fachgebiet Informatik. Den Bachelor Studiengang 'Data Science' an der HKA hat er maßgeblich mitgestaltet. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.

Prof. Dr. Michael Schulz hält eine Professur für Wirtschaftsinformatik, insb. analytische Informationssysteme an der NORDAKADEMIE - Hochschule der Wirtschaft in Elmshorn und ist Studiengangsleiter des Master-Studiengangs 'Applied Data Science'. Seine Interessenschwerpunkte in Lehre, Forschung und Praxisprojekten liegen in der Business Intelligence und der Data Science. Er ist einer der Autoren des DASC-PM-Konzeptes.

Uwe Haneke, Michael Schulz
Uwe Haneke, Michael Schulz
Vortrag: Di 5.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:15
Di 6.1
IoT und Industrie 4.0 – Analytics-basierte Wertschöpfung in branchenübergreifenden Ökosystemen
IoT und Industrie 4.0 – Analytics-basierte Wertschöpfung in branchenübergreifenden Ökosystemen

Innovative IT ermöglicht Unternehmen neue Kooperationsformen mit verschiedenen Partnern in offenen Netzwerken. Hierbei entstehen kooperative Datenräume auf der Basis IoT-basierter Digitaler Zwillinge, deren erfolgreiche Umsetzung leistungsfähige BIA-Infrastrukturen voraussetzen. 

Zielpublikum: Management, BIA-Verantwortliche, Chief Information Officer / Chief Digital Officer 
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Prof. Dr. Hans-Georg Kemper ist Inhaber des Lehrstuhles für Wirtschaftsinformatik 1 an der Universität Stuttgart. Seine Lehr- und Forschungsschwerpunkte liegen im Bereich der Entwicklung und Implementierung von Informations- und Kommunikationssystemen für Führungskräfte. Im Sinne einer konsequenten gestaltungsorientierten Wirtschaftsinformatik ist von ihm in den letzten Jahren eine Vielzahl praxisrelevanter wissenschaftlicher Arbeiten zu technischen sowie organisatorischen Gestaltungsbereichen der integrierten Managementunterstützung – Business Intelligence – durchgeführt worden.
Prof. Dr. Heiner Lasi leitet seit April 2015 das Ferdinand-Steinbeis-Institut mit Sitz in Stuttgart und Heilbronn und ist Inhaber der Professur für Industrial Intelligence an der Steinbeis Hochschule. Lasi forscht und lehrt im Bereich neuer Konzepte und Methoden zur erfolgreichen Gestaltung der Digitalen Transformation in Wirtschaft und Gesellschaft. Im Rahmen seiner internationalen Aktivitäten ist er u.a. Mitglied im AIoT Editorial Board und ein gefragter Experte für die Gestaltung neuer Wertschöpfungsmodelle, u.a. in der Enquete Kommission KI des Deutschen Bundestags und der Arbeitsgruppe Digitale Agenda des Bundeskanzleramts.
Trustworthiness of datapoints as a foundation for Digital Twin based secure systems
Trustworthiness of datapoints as a foundation for Digital Twin based secure systems

Factories of tomorrow are built based on digitized and modular elements and systems. 
In order to make sure (worker’s) safety is still given, reliable confirmations at runtime for autonomous processes and its dependencies as part of digital twins have to be deployed. 
The speech further will outline the way trustworthiness of datapoints ensure a resilience and productive operation as part of an enablement.

Target Audience: Infrastructure decision maker, CDO, COO, CEO, business owner, production manager
Prerequisites: Basic knowledge of data analysis - production methods - manufacturing technologies - supply chain
Level: Basic

His bandwidth of production & manufacturing related experiences as well as his management skills were reached in various and different positions over 22 years like head of global manufacturing and heading the operation & asset technology at 13 factories / sites. Frank has implemented technologies, methods and strategies to enable supply chain transformation - implementing Industry 4.0 and Internet of Things (IoT) operations. He further collaborate and interact with committees, customers and research organizations to settle and deploy smart factory related references, technologies and standards. At TUV SUD, he is heading the global business line Advanced Manufacturing where operations of Industrial Software, CyberSecurity, Artificial Intelligence and Digitized Compliance Management are hosted. Bringing skills and technology together is Frank’s key to success and an important competency for a digital world. The Vice President for Advanced Manufacturing interact with I4.0 and Internet of Things in his daily work at TÜV SÜD. His goal is to make connected and autonomous manufacturing safe, secure and resilient. Frank acts additionally as Trainer, coach and mentor for people development of internal staff.

Hans-Georg Kemper, Heiner Lasi
Frank Blaimberger
Hans-Georg Kemper, Heiner Lasi
Vortrag: Di 6.1-1
Themen: IoT

Vortrag Teilen

Frank Blaimberger
Vortrag: Di 6.1-2
Themen: IoT
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:15
Di 7.1
Limitiert Grundlagen der Datenanalyse
Grundlagen der Datenanalyse

Diese Session ordnet die Themenfelder und stellt den organisatorischen Rahmen dar, in den die Nutzung von Analytics in Unternehmen eingebettet sein sollte. Dazu werden zunächst statistische Grundlagen aufgefrischt. Darauf aufbauend werden Algorithmen und deren potenzielle Eignung für Anwendungen vorgestellt und diese anhand kleiner Beispiele durchgerechnet.

Maximale Teilnehmerzahl: 20

Bitte halten Sie einen Taschenrechner (die Taschenrechner-App Ihres Smartphones ist ausreichend) für diese Session bereit.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:30
SDdi2.1
Getting it to stick – Wie sich Datenethik etablieren lässt
Getting it to stick – Wie sich Datenethik etablieren lässt

Stakeholder fordern immer stärker einen ethischen Umgang mit ihren Daten ein. Doch welche Fragen müssen beantwortet und welche Maßnahmen ergriffen werden, damit Datenethik im Unternehmen wirklich ankommt? Im Vortrag skizzieren wir ein Vorgehen für die Erarbeitung eines datenethischen Gesamtkonzepts. Das beinhaltet unter anderem die Definition eines Zielbildes, Maßnahmen für eine erfolgreiche Etablierung und die zugehörige Kommunikationsstrategie.

Maurice Polkehn studierte Mathematik mit Schwerpunkt in diskreter Optimierung an der Technischen Universität Darmstadt. Seit seinem Einstieg bei INFOMOTION 2014 beschäftigt er sich mit Analytics insbesondere im Finanzsektor. Dabei fokussiert er sich auf die Standardisierung von Analyseprozessen und ist mitverantwortlich für die Entwicklung von Themen aus dem Bereich Data Literacy.

Miriam Goetz studierte Physik mit Fokus auf Quanteninformationsverarbeitung und statistischer Physik. Danach promovierte sie in Volkswirtschaftslehre. Ihre Forschungsaktivitäten betreffen die Modellierung und ökonometrische Auswertung internationaler Bankenregulierung. Seit 2021 bei INFOMOTION tätig, beschäftigt sich Miriam Goetz insbesondere mit der Digitalisierung von Reporting Prozessen. Ein weiterer Schwerpunkt liegt in der Entwicklung von Data Litercy Strategien und Trainingsinhalten. 

Maurice Polkehn, Miriam Goetz
Maurice Polkehn, Miriam Goetz
Vortrag: SDdi2.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:35
T1
Data Strategy driven Data Governance beim DKV – das richtige Tool zählt
Data Strategy driven Data Governance beim DKV – das richtige Tool zählt

Als integralen Bestandteil der Unternehmensziele formulierte der DKV Mobility (DKV) 2020 eine auf Use Cases gestützte Datenstrategie. Seit Anfang 2021 wird diese mit den drei folgenden Schwerpunkten operationalisiert: Der Aufbau der Abteilung Data Intelligence & Analytics, die Einführung einer cloud-basierten analytischen Plattform und die Umsetzung des Data Governance Programms.

Die wesentliche Säule des Data Governance Programms war dabei die Einführung des Data Catalogs, realisiert durch die Softwarelösung D-QUANTUM. In diesem Vortrag erläutert Sönke Iwersen gemeinsam mit Wolf Erlewein die Erfahrungen und Mehrwerte durch die Nutzung von D-QUANTUM. Durch die große Flexibilität der Software konnte das benötigte Business Glossary einfach und unkompliziert an die sich stetig entwickelnden Anforderungen angepasst werden, um die fachlichen Metadaten wie Kennzahlen, Geschäftsobjekte sowie deren Zuständigkeiten abzubilden.

Um die Entwicklung der analytischen Plattform durch den Data Catalog zu begleiten, wurden Snowflake und Microsoft Purview mit D-QUANTUM Connect angebunden.

Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in unterschiedlichen Branchen (Telekommunika- tion, Banken und Handel). In seiner Funktion als COO der Synabi Business Solution GmbH verantwortet er die Konzeption und Umsetzung von Metadaten und DataGovernance-Projekten.

Dr. Sönke Iwersen verantwortet seit mehr 15 Jahren Data & Analytics Organisationen in verschiedenen Industrien (u.a. Telefónica, Handelsblatt, XING, Fitness First, HRS). Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML/ AI Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.

Wolf Erlewein, Sönke Iwersen
Wolf Erlewein, Sönke Iwersen
Track: #Track +
Vortrag: T1
flag VORTRAG MERKEN

Vortrag Teilen

09:30 - 10:15
SDdi2.2
Analytische Architekturen der Zukunft - Aktuelle Trends und deren Bedeutung für künftige Architekturen
Analytische Architekturen der Zukunft - Aktuelle Trends und deren Bedeutung für künftige Architekturen

Die bestehenden Lösungsarchitekturen für Data & Analytics werden kontinuierlich weiterentwickelt, daher werden derzeit viele bisher etablierten Ansätze aus unterschiedlichen Perspektiven in Frage gestellt. Hierbei geht es nicht immer nur um die Möglichkeiten neuster Technologien, sondern häufig auch um alternative Zusammenarbeitsmodelle zwischen Fachbereichen und IT und der optimalen Integration in die Prozess- und Datenlandschaft des Unternehmens. Wir geben Ihnen im Vortrag einen Überblick über die aktuellen Entwicklungen der Lösungsarchitekturen im Kontext von Data & Analytics und zeigen die grundlegenden Bestandteile dieser und deren erwarteten Nutzen auf. Auf dieser Grundlage blicken wir abschließend gemeinsam auf die potenziellen Data & Analytics Architekturen der kommenden Jahre.

Steffen Kandler studierte Wirtschaftsinformatik an der Technischen Hochschule Mittelhessen. Nach seinem Einstieg bei INFOMOTION arbeitet er als BI-Entwickler und Architekt mit Schwerpunkten im Data Management, Data Warehousing sowie Data Visualization. Aktuell befasst er sich mit dem Einfluss der Digitalen Transformation auf Data & Analytics und den Facetten von modernen, skalierbaren und flexiblen Analytics-Plattformen sowie den zugehörigen Architekturen, Technologien und Methoden.

Steffen Kandler
Steffen Kandler
Vortrag: SDdi2.2
flag VORTRAG MERKEN

Vortrag Teilen

09:40 - 10:15
T2
Track+: SCALEFREE
Track+: SCALEFREE

Weitere Infos folgen.

Track: #Track +
Vortrag: T2
flag VORTRAG MERKEN

Vortrag Teilen

10:15 - 10:45
Pause
Kaffee & Ausstellung / Coffee & Exhibition
Kaffee & Ausstellung / Coffee & Exhibition

10:45 - 12:00
Di 1.2
Theorie vs Praxis: Data Excellence nur Trittbrettfahrer?
Theorie vs Praxis: Data Excellence nur Trittbrettfahrer?

Viele Unternehmen sehen sich mit neuen digitalen Anforderungen konfrontiert. Eine Lösung stellt hier die Einführung eines Data Excellence Frameworks dar. Nach der Festlegung von Richtlinien und dem Aufbau einer Organisation stehen viele Unternehmen vor der Hürde der Ausrollung des Data Excellence Frameworks. Die Raiffeisen-Landesbank Steiermark nutzt hier die von außen einfließenden (Daten-)Anforderungen, zum Beispiel aus der Regulatorik, um ihr Data Excellence Framework zum Leben zu erwecken und erfolgreich in die Organisation zu tragen.

Zielpublikum: Data Governance-Verantwortliche, Data Scientists, CDO
Voraussetzungen: Experience, Senior Level
Schwierigkeitsgrad: Fortgeschritten

Markus Hefler ist Chief Information Security Officer und Chief Data Protection Officer der RLB Steiermark und betreut als solcher auch das Data Excellence Programm der Bank mit dem Ziel, die Datenflüsse unter Kontrolle zu halten, sowie mithilfe qualitativ hochwertiger Daten einen Mehrwert für die RLB Steiermark und ihre Kunden zu generieren.

Lisa Müller ist Senior Consultant bei dataspot. Seit mehreren Jahren setzt sie sich im Projektgeschäft - besonders im Bankwesen - mit Fragestellungen an der Schnittstelle zwischen Fachbereich und Technik auseinander und erarbeitet kundenindividuelle Lösungen. Ihre exzellente fachliche Expertise kommt dabei im gesamten Lebenszyklus von Metadaten und Data Governance zur Geltung, wobei sie besonderen Wert auf die fachliche Datenmodellierung und das Metadatenmanagement legt. Neben zwei abgeschlossenen Bachelorstudien hält sie einen Master in Betriebswirtschaft.

DWH 3.0: Fachliche Datenarchitektur der Schlüssel zum Erfolg
DWH 3.0: Fachliche Datenarchitektur der Schlüssel zum Erfolg

Ein 'Banksteuerungs-DWH neu' zu entwickeln, war das große Ziel der österreichischen 3-Banken-Gruppe. Der fachliche Ansatz mittels Fachdatenmodell hat nicht nur die IT entlastet, sondern den Fachbereich unmittelbar in seine Data Governance-Verantwortung geführt. Damit das DWH aber nicht nur einen Mehrwert für die Banksteuerung bringt, wurde mit dem Fachbereich die fachliche Datenarchitektur klargestellt und auf dieser Basis ein Datenmodell samt Umsetzung entwickelt, das gleichzeitig einen großen Nutzen für alle operativen Bereiche bietet.

Zielpublikum: Data Governance-Verantwortliche, Data Scientists, CDO
Voraussetzungen: Experience, Senior Level
Schwierigkeitsgrad: Fortgeschritten

Clemens Bousquet ist Risikomanager in der Oberbank, die Teil der österreichischen 3-Banken-Gruppe ist. Sowohl in einer Leitungsfunktion des Risikomanagements als auch in zahlreichen Projekten hat er eine hohe Expertise in der fachlichen Datenmodellierung, der Einführung von Data Governance, aber auch der Umsetzung von BCBS 239 und IFRS 9 aufgebaut. Zuvor hat er die Diplomstudien in Volkswirtschaftslehre und Internationale Wirtschaftswissenschaften absolviert.

Markus Hefler, Lisa Müller
Clemens Bousquet
Markus Hefler, Lisa Müller

Vortrag Teilen

Clemens Bousquet
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:00
Di 2.2
Data Strategy driven Data Governance
Data Strategy driven Data Governance

Der DKV ist auf dem Weg zu Europas führendem Mobilitätsdienstleister. Digitale Produkte und Services stehen für das traditionsreiche Unternehmen im Fokus der Weiterentwicklung des Geschäftsmodells.  

Der Vortrag nimmt den Ausgang von der kurzen Darstellung der erarbeiteten Datenstrategie und gibt dann einen Abriss zu Struktur und Ablauf des bisherigen, zum Vortragszeitpunkt eineinhalbjährigen Verlaufs des Data Governance-Projekts

Zielpublikum: Business Users, C-Level, Head of BICC
Voraussetzungen: None
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der DKV ist auf dem Weg zu Europas führendem Mobilitätsdienstleister. Digitale Produkte und Services stehen für das traditionsreiche Unternehmen im Fokus der Weiterentwicklung des Geschäftsmodells.  

Als integralen Bestandteil der Unternehmensstrategie formulierte der DKV 2020 eine auf Use-Cases gestützte Datenstrategie, die seit Anfang 2021 mit drei Schwerpunkten operationalisiert wird: Der Aufbau der Abteilung Data Intelligence & Analytics, der Einführung einer Cloud basierten analytischen Plattform und der Umsetzung des Data Governance-Programms.

Der Vortrag nimmt den Ausgang von der kurzen Darstellung der erarbeiteten Datenstrategie und gibt dann einen Abriss zu Struktur und Ablauf des bisherigen, zum Vortragszeitpunkt eineinhalbjährigen Verlaufs des Data Governance-Projekts:

Das Data Governance-Programm des ersten Jahres war vom Aufbau der virtuellen Data Governance Organisation, dem Metadatenmanagement mit der Einführung eines Datenkatalogs und dem Aufbau eines Data Quality Monitorings geprägt.

Die Vorgehensweise des nun zweiten Jahres stellt die Unterstützung der laufenden strategischen Projekte des DKV und die Etablierung von Arbeitsgruppen als Einstieg in ein umfassendes Change-Management in den Mittelpunkt.

Der Schwerpunkt des Vortrags liegt auf den Schlüsselfaktoren des Erfolgs und den Herausforderungen für den weiteren Weg des Data Governance-Programms. Entlang von zehn Erfolgsfaktoren teilen wir unsere Erfahrung und stellen uns dazu der Diskussion.

 

Dr. Sönke Iwersen verantwortet seit mehr 15 Jahren Data & Analytics-Organisationen in verschiedenen Industrien (u.a. Telefónica, Handelsblatt, XING, Fitness First, HRS). Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.

Thomas Liegl arbeitet bei b.telligent als Consultant im Competence Center Data Strategy & Governance, wobei die Themen Data Governance, Datenstrategien sowie Business Intelligence-Strategien und -Organisationen zu seinen Aufgaben zählen. Zuvor umfasste sein Tätigkeitsgebiet die Digitalisierung der Produktion bei Audi. In diesem Zuge war er als wissenschaftlicher Mitarbeiter am Zentrum für angewandte Forschung in Ingolstadt für ein Forschungsprojekt mit Schwerpunkt auf der Verbesserung der Datenqualität und der Datennutzung tätig.

Sönke Iwersen, Thomas Liegl
Sönke Iwersen, Thomas Liegl
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:00
Di 3.2
Data Lakehouse: Marketing Hype or New Architecture?
Data Lakehouse: Marketing Hype or New Architecture?

The data lakehouse is the new popular data architecture. In a nutshell, the data lakehouse is a combination of a data warehouse and a data lake. It makes a lot of sense to combine them, because they are sharing the same data and similar logic. This session discusses all aspects of data warehouses and data lakes, including data quality, data governance, auditability, performance, historic data, and data integration, to determine if the data lakehouse is a marketing hype or whether this is really a valuable and realistic new data architecture.

Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists
Prerequisites: General knowledge of databases, data warehousing and BI
Level: Basic

Extended Abstract:
The data lakehouse is the new kid on the block in the world of data architectures. In a nutshell, the data lakehouse is a combination of a data warehouse and a data lake. In other words, this architecture is developed to support a typical data warehouse workload plus a data lake workload. It holds structured, semi-structured and unstructured data. Technically, in a data lake house the data is stored in files that can be accessed by any type of tool and database server. The data is not kept hostage by a specific database server. SQL engines are also able to access that data efficiently for more traditional business intelligence workloads. And data scientists can create their descriptive and prescriptive models directly on the data.  

It makes a lot of sense to combine these two worlds, because they are sharing the same data and they are sharing logic. But is this really possible? Or is this all too good to be true? This session discusses all aspects of data warehouses and data lakes, including data quality, data governance, auditability, performance, immutability, historic data, and data integration, to determine if the data lakehouse is a marketing hype or whether this is really a valuable and realistic new data architecture.

Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.

Rick van der Lans
Rick van der Lans
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:00
Di 4.2
Data Vault Automatisierung in der Cloud
Data Vault Automatisierung in der Cloud

Beim Aufbau moderner DWHs kann man sich dem Thema 'Cloud' nur noch schwer entziehen. Echte Cloud-Datenbank wie z.B. Snowflake weisen den Weg konsequent in Richtung einer skalierbaren Datenplattform. Aufseiten der ETL-Werkzeuge kristallisiert sich mit Matillion ein herausragendes Werkzeug für Cloud DWH heraus. Mithilfe eines intelligenten Frameworks und einer agilen Vorgehensweise zeigt dieser Vortrag, wie Unternehmen die Data Vault-Modellierung mit der Skalierbarkeit der Cloud verbinden können.

Zielpublikum: DWH & BI-Experten, BI-Manager, Data Engineer
Voraussetzungen: DWH Grundwissen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Moderne DWHs basieren in der Regel auf einer Data Vault-Modellierung. Data Vault zeichnet sich durch eine extreme Flexibilität und Erweiterbarkeit aus, die aber u.a. durch eine Vielzahl an Datenbankobjekten mit entsprechend vielen Referenzen erkauft wird. Eine manuelle Erstellung eines Data Vault-Modells inkl. der Ladroutinen verbietet sich schon vor dem Hintergrund des zu erwartenden Arbeitsaufwandes. Vielmehr noch schreit ein Data Vault-Modell aufgrund der hohen Standardisierung geradezu nach einer Automatisierung oder zumindest automatisierten Generierung.  

Matillion bietet auf den ersten Blick keine Möglichkeit, komplexe Datenmodelle zu erzeugen oder gar ELT-Prozesse zu automatisieren. Matillion bietet aber sehr wohl das technische Grundgerüst, um eine Automatisierung zu entwerfen und auszuführen. Dieser Herausforderung hat sich areto angenommen und einen DV-Generator-Framework entwickelt, das den Aufbau eines Data Vault-basierten DWHs automatisiert und sowohl die Datenmodellierung als auch die Datenbewirtschaftung anhand weniger Metadaten realisiert.  

Der areto DV-Generator basiert auf Matillion Standardoperator und der Fähigkeit Matillions, alle Operatoren mittels Variablen zu dynamisieren. Der Anwender muss lediglich ein paar Metadaten pflegen und die Fragen beantworten, die im Zuge jeder Data Vault-Modellierung gestellt werden. Auf Basis dieser Daten wird dann ein komplettes Data Vault 2.0-Modell generiert und beladen. Dem Entwickler steht somit eine Ergänzung zu Matillion zur Verfügung, die es ermöglicht, innerhalb sehr kurzer Zeit ein komplett standardisiertes und auf Best Practices basierendes DWH zu generieren und sukzessive zu erweitern.

 

André Dörr, BI Consultant und Data Engineer bei areto consulting. Als zertifizierter Data Vault 2.0 Practitioner (CDVP2) verfügt er über mehr als 12 Jahre Erfahrung in BI-Projekten in verschiedenen Industriesektoren. Er ist derzeit ein führender Data-Warehouse-Architekt bei areto, Sprecher auf Konferenzen und Autor des auf Sportwetten fokussierten Data Science Blogs https://beatthebookie.blog. André hat eine Leidenschaft dafür, Daten zum Leben zu erwecken und interessante Geschichten zu erzählen, die den digitalen Wandel in Unternehmen vorantreiben.

André Dörr
André Dörr
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:00
Di 5.2
AI Driven Automation - Putting Data & Analytics to Work
AI Driven Automation - Putting Data & Analytics to Work

This session introduces AI-driven automation and looks at the building blocks needed to automate operational tasks and decisions.

It discusses ground-breaking innovation that opens up the next stage in data and analytics for the data driven enterprise. It provides key information on how to use data, analytics and AI to automate decisions to significantly shorten time to reduce costs, reduce risks and seize opportunities to grow revenue.

Target Audience: Chief Analytics Officer, Chief Data Officer, Data Architects, Data Scientists, Business Analysts
Prerequisites: Basic knowledge of analytics and machine learning
Level: Advanced

Extended Abstract:
According to some analysts, the hyper-automation software market opportunity in 2025 will be as much as $850Bn. There is no doubt that if you can scale automation it will help companies significantly reduce costs and outperform their competitors in revenue growth. There are many things that can be automated including tasks, processes, IT and DevOps operations. However, there are so many things needed to make this happen. Given this opportunity, this session introduces AI-driven automation, looks at the building blocks needed to make it happen.  

  • What is AI-driven automation and what can it do?  
  • Size of the AI marketplace
  • Use case opportunities
  • Automating human tasks using AI-driven robotic process automation
  • Intelligent document processing
  • The power of human and AI-driven orchestration
  • Automation building blocks
  • Business goals
  • Process mining  
  • Data Events, business conditions and event detection
  • Data integration
  • Machine learning model services to predict outcomes
  • Decision services
  • Action services (skills that can be automated)
  • Intelligent Orchestration - goal driven closed loop automation  
  • The AI-driven automation process - capture, prepare, analyse, decide, act, optimise
  • Human and AI-driven decision and action automation
  • Getting started - what needs to be considered?

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

Mike Ferguson
Mike Ferguson
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:00
Di 6.2
Data Analytics auf Basis Digitaler Zwillinge – Lessons learned aus Projekten in der Instandhaltung der Deutschen Bahn
Data Analytics auf Basis Digitaler Zwillinge – Lessons learned aus Projekten in der Instandhaltung der Deutschen Bahn

Am Beispiel der Instandhaltung von ICE’s der Deutschen Bahn gibt der Vortrag Impulse wie scheinbar unvereinbare Vorgehen aus dem Bauwesen bzw. dem Maschinenbau mit agilen Ansätzen der IT kombiniert werden können, um Nutzen aus künstlicher Intelligenz und digitalen Zwillingen zu ziehen.  

Zielpublikum: Alle, für die AI, Advanced Analytics und Machine Learning mehr als nur ein Hype sein soll und sich fragen, wie der Return für die getätigten Investitionen aussehen kann.
Voraussetzungen: Erste Erfahrung mit Initiativen im Bereich der Datenanalyse und dem Daten orientierten Unternehmen ist wünschenswert. Grundkenntnisse in Statistik sind hilfreich.
Schwierigkeitsgrad: Fortgeschritten

Jürgen Boiselle ist Lead Architect Big Data & Data Strategy bei der DB Systel GmbH. Seine mehr als 20-jährige Erfahrung im Bereich Big Data, Machine Learning und Artificial Intelligence spannt sich von frühen Data Warehouses bis zur aktuellen, AI gestützten Instandhaltung der ICE Flotte der Deutschen Bahn. Er ist Diplom-Ingenieur und hat Technische Informatik studiert. Seine reichhaltige Erfahrung in AI- und Big Data Projekten sammelte er als Berater und in leitenden Positionen u.A. bei Deutsche Bahn, Microsoft und Teradata.
 

Digitale Zwillinge im Produktionsunternehmen – Künstliche Intelligenz schafft innovative Services und Anwendungspotentiale
Digitale Zwillinge im Produktionsunternehmen – Künstliche Intelligenz schafft innovative Services und Anwendungspotentiale

Digitaler Zwilling in Produktionsunternehmen am Beispiel "Kyana" von Koenig & Bauer 
Kyana ist ein virtueller Assistent, der Performance-Daten, Optimierungsmöglichkeiten, digitalen Service-Support mit augmentierten sowie sprachunterstützenden Funktionen bietet. 
Ziel war es einen "virtuellen" Mitarbeiter von Koenig & Bauer zu kreieren und diesen in den täglichen Produktionsablauf zu integrieren. 
Best Practise Studie mit detaillierten Informationen zur Umsetzung - von der Idee bis hin zur Implementierung 

Zielpublikum: Verantwortliche für digitale Transformation, digitale Business Modelle, Industrie 4.0 
Schwierigkeitsgrad: Anfänger

Sandra Wagner leitet bei der Koenig & Bauer AG als Vice President Digitalization die konzernweite digitale Transformation. 
Von der Entwicklung der jeweiligen Idee bis hin zur Realisierung und Vermarktung von digitale Produkten, neue Geschäftsmodelle und das Vorantreiben der kulturellen Transformation sind hierbei ihre Hauptaufgaben.

Frau Wagner hat in der Business Unit Coding von Koenig & Bauer 10 Jahre den Vertrieb und das Marketing erfolgreich geleitet und hier bereits diverse digitale Produkte, Geschäftsmodelle und neue Marktansätze  entwickelt und umgesetzt. 

Sie hat in ihrem Werdegang in diversen Maschinenbauunternehmen, aber auch in IT-Unternehmen wie z.B. HP verschiedenste Funktionen ausgefüllt und hier bereits die erste Grundsteine für digitale Geschäftsmodelle und digitale Produkte kennengelernt, begleitet und umgesetzt. 

Jürgen Boiselle
Sandra Wagner
Jürgen Boiselle

Vortrag Teilen

Sandra Wagner
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:00
Di 7.2
Limitiert Einführung in ein grafisches Analysewerkzeug
Einführung in ein grafisches Analysewerkzeug

Diese Session erarbeitet Auswahlkriterien von Algorithmen und überträgt die Umsetzung in das Werkzeug RapidMiner. Natürlich ist dies nur ein Werkzeug unter vielen, jedoch soll es den Teilnehmern einen Eindruck vermitteln, wie in Projekten mit großen Datenbeständen und entsprechenden Analyseanforderungen werkzeugunterstützt gearbeitet wird.

Maximale Teilnehmerzahl: 20

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Diese Session erarbeitet Auswahlkriterien von Algorithmen und überträgt die Umsetzung in das Werkzeug RapidMiner. Natürlich ist dies nur ein Werkzeug unter vielen, jedoch soll es den Teilnehmern einen Eindruck vermitteln, wie in Projekten mit großen Datenbeständen und entsprechenden Analyseanforderungen werkzeugunterstützt gearbeitet wird.

Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:  

Rapidminer rapidminer.com (falls Sie kein Rapidminer Account anlegen möchten, suchen Sie bitte im Web nach der Version 5 und installieren Sie diese nach Download auf Ihrem Rechner)

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 11:15
SDdi2.3
Advanced Analytics Literacy - Vorgehen zur Transformation in eine Advanced Analytics getriebene Company
Advanced Analytics Literacy - Vorgehen zur Transformation in eine Advanced Analytics getriebene Company

Mit neuen Methodiken und Technologien rund um das Thema Advanced Analytics werden auf allen Ebenen eines Unternehmens neue Kompetenzen nötig. Sowohl im Bereich der technologischen/methodischen Kompetenzen als auch in Bereichen Projektmanagement, Steuerung & Use Case Entwicklung. Wir stellen ein Vorgehen vor, mit welchem der unternehmensweite Reifegrad in Bezug auf Advanced Analytics durch gezielte Schulungsinhalte gesteigert werden kann. Das Vorgehen kann individuell je nach benötigtem Know-how und Hierarchiestufe angewendet werden.

 Nach dem Abschluss ihres Masterstudiums der Wirtschaftsinformatik mit Schwerpunkt Data Science hat sie direkt mit dem Data Science Traineeprogramm bei der INFOMOTION GmbH begonnen. Mittlerweile ist Saskia Wachs seit 2019 als Beraterin für das IT-Unternehmen INFOMOTION GmbH tätig und unterstützt Kunden auf ihrer Advanced Analytics Reise.

An Dang hat nach seinem Masterstudium in Wirtschaftsinformatik 2020 das Data Science Traineeprogramm bei der INFOMOTION angefangen. Nach erfolgreichem Abschluss des Traineeprogramms konzentriert er sich nun auf die Industrialisierung von Use-Cases für den Kunden, die Ausbildung der neuen Trainees und internen Mitarbeiter. Als Hackathon-Enthusiast arbeitet er außerdem an Nebenprojekten wie "CadoCards".

Saskia Wachs, An Dang
Saskia Wachs, An Dang
Vortrag: SDdi2.3
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 11:20
T3
Self-Service Analytics: Warum ist fakten-basiertes Entscheiden immer noch nicht im Business-Alltag angekommen?
Self-Service Analytics: Warum ist fakten-basiertes Entscheiden immer noch nicht im Business-Alltag angekommen?

Dieser Vortrag handelt von Self-Service Analytics, Daten Demokratisierung und der Rolle des Modernen Analytics Teams. 

Eine Live-Demo von Veezoo, der State-of-the-Art Lösung für Conversational Interfaces, soll eindrücklich demonstrieren, wie Self-Service Analytics im 21-Jahrhundert auszusehen hat.

Till Haug is Co-Founder and COO of ETH Spin-off Veezoo, a Self-Service Analytics company building the next generation business intelligence solution based around an intuitive natural language interface.

While studying computer science at ETH Zurich, his bachelor’s thesis involved developing a Q&A system that achieved the world’s highest accuracy, surpassing previous results from Google and Stanford. After publishing his state-of-the-art results and presenting at the A-ranked ECIR conference in Grenoble, Till went on to join Marcos and João Pedro Monteiro in founding Veezoo in 2016 with the goal of making business-critical data easily accessible for anyone.

Since then, the company has gone on to raise funding and scale to serve Fortune 500 companies in answering business critical questions. Till has been a featured speaker at conferences such as Finance 2.0 InsurTech and the EFMA Insurance Awards, while the company has profiled in the likes of BILANZ, Handelszeitung, Le Temps, cash, and Yahoo Finance.

Till Haug
Till Haug
Track: #Track +
Vortrag: T3
flag VORTRAG MERKEN

Vortrag Teilen

11:15 - 12:00
SDdi2.4
Dezentrale Architektur mit SAP - Was man von Data Mesh lernen kann
Dezentrale Architektur mit SAP - Was man von Data Mesh lernen kann

Im SAP-Umfeld ist die klassische Datenplattform das SAP Business Warehouse z. B. in seiner aktuellen Ausprägung, dem BW/4HANA. Die SAP HANA Datenbank als analytische Plattform und neue Entwicklungen

in der Cloud haben den Weg frei gemacht, Datenarchitektur mit SAP neu zu denken. Aktuelle Ansätze erlauben hohen Anforderungen an Flexibilität, organisatorischer Skalierbarkeit, niedrigschwelliger

Nutzbarkeit und der Abbildung komplexer analytischer Workloads gerecht zu werden. Der Vortrag erläutert Ansätze, dezentrale Datenarchitekturen mit SAP abzubilden und diese effektiv in der Organisation zu nutzen.

Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einsteig bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.

Peter Baumann
Peter Baumann
Vortrag: SDdi2.4
flag VORTRAG MERKEN

Vortrag Teilen

11:25 - 12:00
T4
Track+: EXASOL
Track+: EXASOL

Weitere Infos folgen.

Track: #Track +
Vortrag: T4
flag VORTRAG MERKEN

Vortrag Teilen

12:15 - 13:00
KeyDi
KEYNOTE: The information enabled company – a long way to digital transformation
KEYNOTE: The information enabled company – a long way to digital transformation

Digital transformation is in a way a never-ending journey. Recent trends put high expectations on AI technologies for process automation, insight generation and decision support. In Hilti, we see information generated from our data as substantial contribution to the success of our business. 
We will describe how we put the user and the usage of information in the center of our initiative of an information enabled company. Hilti’s journey towards process, data and system consolidation serves as an excellent foundation for that. We present the foundational technologies we put in place to manage the increasing amount and variety of data, as well as our “Integrated Information Management” approach. We will especially focus on advanced analytics and AI and give examples for successful implementations, but also highlight challenges, especially when it comes to change management and taking the organization along.

In his function as Head of Information Management in Global IT, Ralf Diekmann is responsible for all reporting, data engineering, and analytics solutions of Hilti AG globally. Ralf holds a PhD in Computer Science from the Paderborn Center of Parallel Computing. He joined Hilti AG 22 years ago as research engineer and since then held various positions in business and IT incl. Global Process responsibility, SAP implementation manager, Head of Process Governance, and various leadership functions in Hilti’s Global IT department. 

Ralf Diekmann
Ralf Diekmann
Track: #Keynote
Vortrag: KeyDi
flag VORTRAG MERKEN

Vortrag Teilen

13:00 - 14:30
Pause
Mittagessen & Ausstellung / Lunch & Exhibition
Mittagessen & Ausstellung / Lunch & Exhibition

13:45 - 14:15
CSdi1
DB Systel: dank agilem Datenmanagement mit Datavault Builder zur datengetriebenen Marketingorganisation
DB Systel: dank agilem Datenmanagement mit Datavault Builder zur datengetriebenen Marketingorganisation

Petr Beles has profound experience in data warehouse projects in the telecommunications, financial and industrial sectors. For several years he has been successfully implementing projects with Data Vault as a Senior Consultant. After recognizing the need of automation with Data Vault, he and his colleagues started to develop an automation tool, culminating in the creation of the Datavault Builder. Petr Beles is today CEO of 2150 Datavault Builder AG

Rüdiger Koch, Petr Beles
Rüdiger Koch, Petr Beles
Vortrag: CSdi1
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 14:15
CSdi2
Case Study Wherescape
Case Study Wherescape

Vortrag: CSdi2
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 14:15
CSdi3
Interactive machine learning predictions using microservices and Tableau
Interactive machine learning predictions using microservices and Tableau

Bringing advanced analytics to end users through well-established reporting tools can be challenging. The solution we present in this talk enables business users to directly receive machine learning (ML) predictions for their custom selections in Tableau. We use Big Data and AWS (PySpark) technologies for our ML pipeline. The ML models are then deployed to MLflow and two-way communication to Tableau is ensured through APIs.

Johannes Mellenthin promovierte in Teilchenphysik an der Universität Göttingen und am CERN. Er hat langjährige Erfahrung im Consulting im Bereich Data Science. Neben der technischen Implementierung von End-to-End-Machine-Learning-Lösungen konzentriert er sich auf die Identifizierung von Möglichkeiten für Unternehmen, langfristig den größten Nutzen aus ihren Daten zu ziehen.

Johannes Mellenthin completed his doctorate in Particle Physics at the University of Göttingen and CERN. He has several years of experience in consulting in the Data Science sector. Besides the technical implementation of end-to-end Machine Learning solutions, he focuses on identifying opportunities for businesses to get the most value out of their data.

Johannes Mellenthin
Johannes Mellenthin
Vortrag: CSdi3
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 14:15
CSdi4
Case Study Fivetran
Case Study Fivetran

Vortrag: CSdi4
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 14:15
CSdi5
Analytics Innovation: Proven Case Studies and Strategies that Work
Analytics Innovation: Proven Case Studies and Strategies that Work

Embracing a holistic analytics across an organization can make it more innovative, agile, and successful. For instance, data democratization makes analytics more accessible and this leads to better-informed decisions. Modernizing data warehouses reduces complexity and improves reporting. Using hybrid cloud deployment strategies can increase the ability to analyze data no matter where it resides.

In this presentation, we will discuss how companies across different verticals are planning and implementing data warehouse modernization, data democratization, and hybrid cloud migration, improving revenue and efficiency to ensure market leadership.   

Sabrina Corazza is the Director of Global Business Development, Enablement, and Training for Vertica, the industry’s leading analytical database trusted by the world’s leading data-driven organizations. Fluent in seven languages, she leads a global team responsible for educating a community of thousands of Vertica users via the Vertica Academy, delivering enablement to all indirect and direct sales teams, and building early-stage sales pipeline and accelerating new business opportunities across the Americas, Europe, and Asia-Pacific and Japan. With more than a decade in the software industry – focused on analytics, machine learning, data warehousing, and cloud-native databases – Sabrina has held key positions within inside and field sales, marketing, education, and business development. She has a passion for building and leading top-performing teams that consistently exceed their goals and contribute to the overall company’s top and bottom-line goals.

Sabrina Corazza
Sabrina Corazza
Vortrag: CSdi5
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 14:15
CSdi6
Delivering Data Intelligence - The Collibra Data Intelligence Platform
Delivering Data Intelligence - The Collibra Data Intelligence Platform

In his talk Paul Dietrich describes what 'United by Data' means to Collibra's customers and ways to support those 66% of companies which still struggle to turn their data into useful insights.

Paul leads the Collibra Field Teams for the Nordics and DACH region. He joined Collibra in early 2019 after eight years with Salesforce.com where he built teams for different regions in Germany. Prior to that, he held international Enterprise Sales and Business Development roles at Gartner (CEB) and BBDO. He is passionate about helping Collibra customers to use data as a shared language to drive empathy, understanding, and successful business outcomes.

Paul Dietrich
Paul Dietrich
Vortrag: CSdi6
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 14:15
CSdi7
Intelligent user centric information feed - Wie eine Business App Ihre Daten verfügbar und Ihren Alltag leichter macht
Intelligent user centric information feed - Wie eine Business App Ihre Daten verfügbar und Ihren Alltag leichter macht

Tagtäglich erreichen uns Informationen via unterschiedlichste Kanäle und Applikationen, die es zu verarbeiten gilt. Meist erreichen uns diese weder konsolidiert noch zur rechten Zeit. Dies gilt es zu ändern und effektiver zu gestalten.

Als Ecosystem diverser Microservices bildet rpc.live als Applikation eine intelligente und zielgruppengerichtete Darstellung angebundener Inhalte als intelligenten Business Feed. Die Applikation ist basierend auf einer Cloud Architektur aufgebaut, die es ermöglicht einfach und zukunftsorientiert zu skalieren, sodass die Handhabung und Wartung möglichst effizient gestaltet ist. Neben dem steht vor allem die User Experience der Inhalte im Vordergrund, um derweil die alltägliche Informationsflut bändigen zu können.
Sehen Sie wie rpc.live anhand eines praxisnahen Beispiels Kunden und Mitarbeiter unterstützt Informationen im Alltag leicht konsumierbar zu gestalten.

As Product Owner Niklas Kroll is experienced with several technology stacks and is visionary in combining them to new digital products & services. He ideates and generates simplified and user centric solutions.

Tayfun Gülcan ist Senior Manager bei rpc - The Retail Performance Company, einem Joint Venture der BMW Group und der h&z Unternehmensberatung.

Er unterstützt Unternehmen sowohl bei der Einführung von digitalen Services als auch bei der Entwicklung von neuen nutzerzentrierten Anforderungen und arbeitet gemeinsam mit seinem Team an neuen Technologien und Innovationsfeldern welche er bei Kunden unter Berücksichtigung von Unternehmensstandards ausrollt.

Niklas Kroll, Tayfun Gülcan
Niklas Kroll, Tayfun Gülcan
Vortrag: CSdi7
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 16:00
Di 1.3
Mit Customer Analytics zur Next Best Action für jeden Kunden
Mit Customer Analytics zur Next Best Action für jeden Kunden

Viele Versicherer versuchen, Kundeninteraktionen mithilfe von Data Science-Methoden zu optimieren. Wir zeigen einen systematischen Ansatz, wie Customer und Sales Analytics effizient entlang der gesamten Customer Journey eingesetzt werden können.

Zielpublikum: Vertrieb, Kundenmanagement, Business Development, Data Analytics
Voraussetzungen: keine spezifischen
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der heutige Versicherungskunde erwartet maximalen Komfort, d. h. passgenauen individualisierten Service zum richtigen Zeitpunkt über den bevorzugten Kanal.

Im Rahmen dieses Vortrags geben wir Ihnen einen strukturierten Lösungsansatz für die nachhaltige Nutzung von Customer Analytics an die Hand, um den gestiegenen Anforderungen der Versicherungskunden zu begegnen. Wir orientieren uns dabei an vier Schritten:

1) Datenstrukturierung und Sammlung aller Kundendaten und Touchpoints stellen den ersten Schritt dar und bieten Transparenz über die Kundeninteraktionen.  

2) Ist die technische Basis vorhanden, prognostizieren Machine Learning-Modelle das Kundenverhalten und die Kundenbedürfnisse entlang der Customer Journey.  

Wir zeigen Ihnen hierzu Architekturoptionen zur Datenzentralisierung sowie mögliche Vorgehensweisen anhand konkreter Use-Cases aus Praxisprojekten.

3) Die Erklärung der Vorhersagen mittels Explainable AI schafft weiterführende Erkenntnisse und Hintergrundinformationen zu den Prognosen.

4) Den finalen Schritt stellt die Zusammenführung aller über die vorherigen Aktivitäten gesammelten Erkenntnisse hin zur nächsten besten Aktion für die individuelle Customer Journey des Kunden dar.  

Wie diese Technologien Kunden individuelle Ausgestaltung der maschinellen Empfehlungen und somit eine kundenzentrierte Perspektive ermöglichen, ist der Schwerpunkt dieses Vortragsabschnitts. Dazu thematisieren wir Ansätze zur Ermittlung der 'Next Best Action', mit denen Versicherer den gestiegenen Erwartungen der Kunden gerecht werden und ihre Bedürfnisse optimal bedienen.

Janera Kronsbein, Bachelor of Science der Wirtschaftsmathematik, Studium an der Universität Bielefeld. Seit 2014 als Business Analyst, Data Science Consultant und Produktmanagerin tätig. Als Projektleiterin verantwortet sie seit Anfang 2021 Data Analytics-Projekte bei der Informationsfabrik - hier insbesondere mit dem Schwerpunkt Customer Analytics.

Thomas Löchte ist Geschäftsführer und Gründer der IKOR Informationsfabrik GmbH. Er arbeitet seit 25 Jahren im Data Analytics-Umfeld und war in vielen verschiedenen Projekten und Rollen tätig. Heute unterstützt er das Lösungsdesign und coacht Manager und Führungskräfte technologisch und organisatorisch zu Data Analytics und KI-Themen.

Künstliche Intelligenz: trotzdem flexibel und transparent?
Künstliche Intelligenz: trotzdem flexibel und transparent?

Es gibt 2 große Show Stopper für KI:

  1. Banken benötigen Transparenz, warum KI was empfiehlt, bspw. die Annahme eines Kredites. Eher einfache Datenanalysemethoden, wie Entscheidungsbäume, geben diese Transparenz.
  2. Aber sie sind recht starr. Jedoch wird Flexibilität benötigt Deep Learning ist adaptiv, aber eine Black Box. Daher wurde das Positive „beider Welten“ vereint in Deep Learing (DL) mit SEMANTISCHEN Netzen.

Diese Präsentation beschreibt semantisches DL in der Kredit-/Förderbearbeitung.

Zielpublikum: Representatives from Banking or Insurance
Voraussetzungen: Keine
Schwierigkeitsgrad: Einsteiger

Britta Hilt beschäftigt sich seit 2011 mit der Anwenderseite von Künstlicher Intelligenz. Sie ist Mitbegründerin und Geschäftsführerin der KI-Firma IS Predict, die sich einen Namen gemacht durch ihre Automatisierung von Data Science sowie durch erklärende KI. Vor der Gründung von IS Predict war sie über 15 Jahre in einer internationalen IT-Firma (IDS Scheer / Software AG) tätig, zuletzt als Director verantwortlich für Product Management und Solution Marketing.

Janera Kronsbein, Thomas Löchte
Britta Hilt
Janera Kronsbein, Thomas Löchte

Vortrag Teilen

Britta Hilt
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 16:00
Di 2.3
Nicht ohne meine Community! Die Community Governance
Nicht ohne meine Community! Die Community Governance

Bei der Umsetzung von konzernweiten ERP- und BI-Projekten mit einer Vielzahl von heterogenen Einheiten besteht die Herausforderung, dass die Implementierungen nicht nur dem Konzernstandard genügen, sondern auch die Effizienz und Passgenauigkeit in den Einheiten sicherstellen müssen, ohne dabei die Harmonisierung von globalen Prozessen zu gefährden. Dieser Vortrag zeigt anhand der Implementierung eines EU Taxonomie Reporting, wie dieser Spagat mit einer Community Governance funktionieren kann.

Zielpublikum: Project leader, decision makers, data stuart, BI experts
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Wie können harmonisierte ERP- und BI-Projekte in einer heterogenen Konzernstruktur mit einer Vielzahl von Tochterunternehmen umgesetzt wird? Wird von oben herab entschieden, werden spezifische Anforderungen einzelner Einheiten häufig übersehen und die Folgen können fatal sein: Fehlende Akzeptanz, schlechte Datenqualität, hohe Aufwände und Kosten bis hin zum Scheitern des gesamten Projektes. 

Initiativen und Umsetzungen auf lokaler Ebene können hingegen zu fehlender Prozessharmonisierung führen, was globale BI-Projekte unmöglich macht.  

Bilfinger hat daher im Finance-Bereich ein Governance System aufgebaut, das für alle Beteiligten und Interessierten im Konzern eine Plattform zum Diskutieren, Beraten und Entscheiden bietet. Dabei wurde für jeden finanzrelevanten Kernprozess und jede operative Region eine Community mit einem Verantwortlichen aufgebaut, die sich austauschen, Ideen einholen, Verbesserungen auf den Weg bringen und bei neuen Projekten und Anforderungen von Anfang an abgeholt und einbezogen werden. Das Group Finance hat durch die Communities direkte Ansprechpartner und kann bereits in der Konzeptphase sowohl auf ein Schwarmwissen als auch auf einzelne Wissenshelden zurückgreifen. Zusätzlich wird der Austausch untereinander gestärkt und bisheriges Inselwissen für alle zugänglich gemacht.  

Mithilfe dieser Communities hat Bilfinger binnen weniger Monate eine solide Datenbasis für das EU Taxonomie Reporting entwickelt, das trotz heterogener Projekt- und Leistungsstrukturen die Mehrbelastung für die Einheiten minimiert, die Datenqualität sicherstellt und sich flexibel je nach EU-Vorgabe anpassen lässt.

Mirjam Cohrs (M.A. Politikwissenschaft) ist Leiterin des Management Business Intelligence Teams bei der Bilfinger SE. Ihre Karriere begann als Analystin im CRM-Umfeld, heute bringt sie mehrjährige Erfahrung in der Umsetzung von Reporting- und DWH-Projekten in der Finanz- und Vertriebssteuerung mit.

Axel Schaefer ist der Global Lead Bilfinger Business Systems, umfassend verantwortlich für die bedarfsorientierte Pflege und Weiterentwicklung des Konzern-ERPs. Vertiefte Fachkenntnisse in Recht, Steuerberatung, Bilanzierung sowie operative Leitungserfahrungen in Konzerngesellschaften helfen ihm seit Jahren bei der Einführung und Prozessharmonisierung der Bilfinger ERP-Landschaft.

Mirjam Cohrs, Axel Schaefer
Mirjam Cohrs, Axel Schaefer
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 16:00
Di 3.3
How to Design a Logical Data Fabric?
How to Design a Logical Data Fabric?

A popular new architecture for offering frictionless access to data is the data fabric. With a data fabric, existing transactional and data delivery systems are wrapped (encapsulated) to make all of them look like one integrated system. A data fabric enables all data consumers to access and manipulate data. Technically, data is accessed and used through services. But data fabrics cannot be bought, they need to be designed and developed. This session discusses key guidelines for designing data fabrics.

Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists
Prerequisites: General knowledge of databases, data warehousing and BI
Level: Advanced

Extended Abstract:
Companies are becoming increasingly dependent on data. Having access to the right data at the right time is essential. This implies that users need frictionless access to all the data, wherever it is stored, in a transactional database, a data warehouse, or a data lake. It does not matter to users where data comes from as long as it meets all their requirements. Users do not want to be hindered by all the data delivery silos. They want one system that gives them access to all the data they need.

The solution to provide frictionless access cannot be data warehouse-like, wherein all the data is copied (again) to one big central database. In this second era of data integration, integration must be achieved without copying. A new solution must be based on a single universal entry point to access all data. Where and how the data is stored, whether it is stored in various databases, must be completely hidden from data users.

A popular new architecture that supports this approach is data fabric. With a data fabric, existing transactional and data delivery systems are wrapped (encapsulated) to make all the independent systems look like one integrated system.  

A data fabric is formed by a software layer that resides on top of all the existing transactional silos and data delivery silos, enabling all data consumers to access and manipulate data. Technically, data is accessed and used through services.  

A real data fabric supports any type of service, whether this is a more transactional or analytical service. And especially the second group of services is complex to develop. Maybe analytical services based on predefined queries are not that complex to develop, but how are such services developed that need to deal with ad-hoc queries?

This session explains the need for data fabrics that support all types of services and discusses key guidelines for designing data fabrics. Technologies are discussed that help with developing such services.

  •  What a data fabric is, and why you need one
  • How you can architect a service-centric fabric to gain flexibility and agility
  • The data management and integration capabilities that are most relevant
  •  Where to start your journey to data fabric success
  •  What is logical data fabric?

 

Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.

Rick van der Lans
Rick van der Lans
Vortrag: Di 3.3
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 16:00
Di 4.3
Cloud-Plattformen in der Business Intelligence
Cloud-Plattformen in der Business Intelligence

Vorstellung von Cloud-Plattformen in der Business Intelligence mit Praxisbeispiel aus der BerlinHyp.  

Teil 1:  

  • Vorstellung des SAC-Projektes bei der BerlinHyp
  • Nutzerversprechen und Handling der SAC als Cloud Tool auf einer HANA-Lösung
  • Vorstellung Projektvorgehen

Teil 2:  

  • Umsetzung der Anforderungen in einer modernen Cloud-Architektur am Beispiel der SAP DWC
  • Prozessumkehr bei Datenprojekten und konsequente Verfolgung produktbezogener Ansätze
  • Wie ein Modellierungsframework als Beschleuniger für die schnelle Produktreife fungiert

Zielpublikum: Alle Rollen rund um die Themen Datenmanagement, Infrastruktur und Business Intelligence
Voraussetzungen: basic knowledge (der Vortrag wird seinen Schwerpunkt setzen auf Vorteilen von Cloud-Plattformen, Grenzen, die diese mitbringen, und welche Punkte es im Rahmen der Veränderungen der IT zu beachten gilt)
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die Frage ist nicht, ob Unternehmen in die Cloud gehen - sondern wann.  

Wir zeigen, wie in einer Cloud-Architektur schnelle Reportinglösungen umgesetzt werden, noch bevor das Backend entwickelt und umgesetzt ist. In einem Use-Case-getriebenen Ansatz werden sowohl das visuelle Reporting als auch die Umsetzung der Business-Semantik durch ein Framework unterstützt und beschleunigt.  

In diesem Zusammenhang werden best practices und zielführende Vorgehensweisen im Kontext von innovativen Cloud-Projekten vorgestellt.

Carsten Blöcker ist Gründer und Geschäftsführer der cloudimpulse GmbH und kann dort sein Herzensthema Business Intelligence in allen Facetten ausleben. Mit über 20 Jahren Berufserfahrung im Banking mit Schwerpunkt auf Datenmanagement und Reportingsysteme liegt ihm die Verbindung zwischen effizientem und qualitativ hochwertigem Reporting und einem funktionierenden Backend sehr am Herzen. Mit cloudimpulse macht er es sich zur Aufgabe, die Schnittstelle zwischen Fachbereich und IT im Rahmen von BI-Projekten effizient zu strukturieren und Klarheit über die Schnittstellen zu schaffen. Hilfe zur Selbsthilfe und Standardisierung von Prozessen stehen dabei im Vordergrund seiner Beratungsleistungen.

Till Kasperbauer ist stellvertretender Leiter IT und Abteilungsleiter in der Berlin Hyp AG. Sein Verantwortungsbereich umfasst die Anwendungsbetreuung diverser IT-Lösungen. Darunter fallen Standardanwendungen von A wie Abacus360 bis Z wie Zahlungsverkehrssysteme, Eigenentwicklungen und Daten- und Reportinglösungen sowie diverse IT-Anwendungen aus dem Digitalisierungskontext. Aktuell leitet er zusätzlich die Abteilung IT-Infrastrukturmanagement.

Carsten Blöcker, Till Kasperbauer
Carsten Blöcker, Till Kasperbauer
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 18:00
Di 5.3
Limitiert Designing Human-Centered Data Products
Designing Human-Centered Data Products

If your data product relies on humans to engage with it before any business value is produced, then success boils down to the UX you deliver in the last mile. Doing this well however, requires more than technical or business skills. Design is the glue that connects the analytics, AI/ML, and engineering with the outcomes the business and users seek. Users don't want data; they want clear answers and actionable decision support. If you're tired of making 'technically right, effectively wrong' solutions that don't get used, this session will help!

Maximum number of participants: 40
A laptop is required for participation

Target Audience: Directors, managers, and principal data product leaders. This can be data scientists, analysts, technical/data/AI product managers, engineers, BI developers, data engineers, and UX professionals in the session. If you have responsibility to deliver business value, and make your application, dashboards, and models useful, usable, and actionable, this session will help. It will not help you if you're interested in only working alone on technical implementation, coding, statistics, modeling and making solutions without any regard for whether they serve the audience they are intended to help.
Prerequisites: You're ready to approach your data work differently, with a human-first, data-second approach. You don't think that the reason that data tools/apps/dashboards go unused is because the users aren't 'smart enough' to understand them. You believe it's more interesting, fun, and valuable to produce data products that actually get used, produce value, and change people's lives. You're curious and open to non-analytical approaches to problem solving.
Level: Expert

Extended Abstract:
It's simple: your team's AI/ML applications, dashboards, and other data products will be meaningless if the humans in the loop cannot or will not use them.

Yes, they may have asked your team for those ML models or dashboards.  

Unfortunately, giving stakeholders what they asked for doesn't always result in meaningful engagement with AI and analytics -- and data products cannot produce value until the first hurdle is crossed: engagement.  

Until users actually use, trust, and believe your ML and analytics solutions, they won't produce value.  

'Just give me the CSV/excel export.' How many times have you heard that -- even after you thought your team gave them the exact ML model, dashboard, or application they asked for?

No customers want a technically right, effectively wrong data product from your team, but this is what many data science and analytics teams are routinely producing -- because the focus is on producing outputs instead of outcomes. The thing is, the technical outputs are often only about 30% of the solution; the other 70% of the work is what is incorrectly framed as 'change management' or 'operationalization' -- and it all presumes that the real end-user needs have actually been surfaced up front.  

If you want to move your team from 'cost center' to 'innovation partner,' your team will need to adopt a mindset that is relentlessly customer-centered and measures its success based on delivering outcomes. However, this is a different game: it's a human game where ML/AI and analytics is behind the scenes and customers' pains, problems, jobs to be done, and tasks are at the forefront. Enter human-centered design and data product management: the other skills that modern data science and analytics teams will need if they want to become indispensable technology partners to their business counterparts.  

This talk is for data product leaders who have talented technical teams, but struggle to regularly deliver innovative, usable, useful data products that their customers find indispensable.  

You've heard for 20 years how Gartner and other research studies continue to predict limited value creation from enterprise data science and analytics engagements, with 80% of projects on average failing to deliver value.  

MIT Sloan/BCG's 2020 AI research shows that companies who are designing human-centered ML/AI experiences that enable co-learning between technology and people are realizing significant financial benefits.  

Leaders aren't repeating yesterday.  

If your data science and analytics requires human interaction before it can deliver any business value, you won't want to miss this session with Brian T. O'Neill -- the host of the Experiencing Data podcast and founder of Designing for Analytics.  

Brian will discuss strategies that leaders should know about designing effective data products. He'll discuss the mindshift change around outputs and outcomes, the role of data product management, how separating 'operationalization' from core ML and analytics work leads to failures, and how human-centered design provides teams a step-by-step method for 'doing innovation' that leads to better data products.

If you want customers to go like this

Brian T. O'Neill helps data product leaders use design to create indispensable ML and analytics solutions. In addition to helping launch several successful startups, he's brought design-driven innovation to DellEMC, Tripadvisor, JP Morgan Chase, NetApp, Roche, Abbvie, and others. Brian also hosts the Experiencing Data podcast, advises at MIT Sandbox, and performs as a professional percussionist.

Brian O'Neill
Brian O'Neill
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 16:00
Di 6.3
Wie Sie das IoT im Modern Data Warehouse effektiv nutzen
Wie Sie das IoT im Modern Data Warehouse effektiv nutzen

Dank hoch flexibler Cloud-Technologien ist das Modern Data Warehouse wie geschaffen für den Aufbau von Internet-of-Things(IoT)-Lösungen. Doch wie sieht eine leistungsfähige Architektur aus? Insbesondere, wenn immer mehr Streaming-Quellen direkt in die Datenanalyse einfließen sollen?  

Jens Kröhnert und Christoph Epping bauen vor den Augen des Publikums eine vollständige IoT-Infrastruktur auf und spielen konkrete Einsatzszenarien durch. Dabei werden von Lambda über Kappa bis hin zu DataMesh die aktuell wichtigen Architekturtrends angesprochen.

Zielpublikum: Data Engineers, Data Scientists, Projektleiter, Entscheider
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger

Jens Kröhnert verfügt über langjährige Erfahrung in der Planung und Umsetzung von Digitalisierungsprojekten. Als Innovationsexperte hat er für ORAYLIS immer die neuesten Technologien und Entwicklungen im Blick.

Christoph Epping gehört zu den Top-IoT-Experten bei ORAYLIS. Gemeinsam mit Unternehmen aus verschiedensten Branchen realisiert er Echtzeit-Lösungen von der Ideenfindung bis zur konkreten Umsetzung.

Jens Kröhnert, Christoph Epping
Jens Kröhnert, Christoph Epping
Vortrag: Di 6.3
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 16:00
Di 7.3
Limitiert Einführung in die Programmiersprache R
Einführung in die Programmiersprache R

Diese Session beschäftigt sich mit dem Werkzeugunterstützungsgedanken mittels der Sprache R. Die in diesem Umfeld prominent genannte Sprache ist für statistische Berechnungen und Grafiken geschaffen worden. In der Session werden ausgewählte kleine Beispiele im Werkzeug umgesetzt.

Maximale Teilnehmerzahl: 20

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Diese Session beschäftigt sich mit dem Werkzeugunterstützungsgedanken mittels der Sprache R. Die in diesem Umfeld prominent genannte Sprache ist für statistische Berechnungen und Grafiken geschaffen worden. In der Session werden ausgewählte kleine Beispiele im Werkzeug umgesetzt.

Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:

RStudio DESKTOP www.rstudio.com/products/rstudio/ (berücksichtigen Sie bitte, dass RStudio die zusätzliche Installation der R-Bibliotheken während der Schulung verlangt, z. B. von cran.r-project.org/mirrors.html)

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Limitiert Einführung in die Programmiersprache Python
Einführung in die Programmiersprache Python

Diese Session fokussiert die Programmiersprache Python anhand vorgefertigter Code-Beispiele, um den Teilnehmern eine Grundlage zu schaffen, die Einsatzpotenziale und Aufwände der Sprache im Bereich Advanced Analytics besser abschätzen zu können.

Maximale Teilnehmerzahl: 20

Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können: Anaconda www.anaconda.com/products/individual, um Python nutzen zu können.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden

Vortrag Teilen

Claudia Koschtial, Carsten Felden
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:00
SDdi2.5
ML Ops Best Practices mit Azure: Mit operationalisierten Data Science Projekten zu nachhaltigem Geschäftswert
ML Ops Best Practices mit Azure: Mit operationalisierten Data Science Projekten zu nachhaltigem Geschäftswert

In den letzten Jahren ist die Nachfrage nach datenwissenschaftlichem Know-how erheblich gestiegen. Dennoch kommen viele Data-Science-Lösungen nicht über das Vorproduktionsstadium hinaus und scheitern am Industrialisierungsprozess.
Microsoft Azure, als skalierbare und individuell anpassbare Cloud Computing-Plattform, ermöglicht Unternehmen jeder Größe diese Herausforderungen zu meistern.

Um Künstliche Intelligenz (KI) und Machine Learning (ML) zu skalieren, ist es wichtig, sich auf die Implementierung einer Reihe von Standards zu fokussieren. Diese Standards schaffen den Rahmen zur Entwicklung und Bereistellung von produktionsreifen KI- und ML-Bausteinen.

Gemeinsam wollen wir die Anwendung von MLOps-Konzepten in der Azure Cloud-Umgebung auf datenwissenschaftliche Anwendungsfälle betrachten, die Vorteile hervorheben und das in den letzten Jahren bei der Implementierung solcher Lösungen gewonnene Wissen teilen. 

Als Consultant mit den Schwerpunkten Daten Engineering, Data Science und Machine Learning berate ich zu cloudbasierten Systemarchitekturen auf Basis von Microsoft Azure, mit einem Schwerpunkt auf Data Engineering Pipelines und Machine Learning Infrastruktur und Operationalisierung.
Ein weiterer Fokus liegt auf der Begleitung von Innovationsprojekten im Kontext der digitalen Transformation, in welchem neue Ideen und Technologien in POCs verprobt werden und auf eine Umsetzung in Produktivumgeben vorbereitet werden.

Julian Kling
Julian Kling
Vortrag: SDdi2.5
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:15
T5
Data-Ware-Lake-Stream-Mesh-Fabric – mit TIBCO Agile Data Fabric sind (Sie und) Ihre Daten jedem Trend gewachsen
Data-Ware-Lake-Stream-Mesh-Fabric – mit TIBCO Agile Data Fabric sind (Sie und) Ihre Daten jedem Trend gewachsen

Bei allen Trends, die rund um ‘Data Management’ kommen und gehen ist eins klar: es ist vielmehr ein kontinuierlicher Weg, als ein finales Ziel, das zählt. Um bestehen zu können, brauchen Organisationen einen agilen Ansatz, der die Grundlage dafür legt, den Berg- und Talfahrten von technologischen Trends zu folgen und das mit geringem Aufwand.
Als ein führender Anbieter diskutieren wir mit Ihnen unseren ‘Agile Data Fabric’ Ansatz und zeigen, wie verschiedene Trends umgesetzt werden können.
 

Dirk Schober ist ein Experte darin, Herausforderungen beim Kunden zu identifizieren und zu beschreiben. Er hat über 12 Jahre Erfahrung im Design von Lösungen rund um Analytics und das damit verbundene Datenmanagement. Er arbeitet als Presales Experte bei TIBCO und vormals bei IBM. Fokusbereiche sind durchgängige 'data-driven' Lösungen in der Fertigung, Industrie, Handel und im Bereich Pharma.

Dirk Schober
Dirk Schober
Track: #Track +
Vortrag: T5
flag VORTRAG MERKEN

Vortrag Teilen

15:00 - 15:30
SDdi2.6
Neue Möglichkeiten der Snowflake Data Cloud
Neue Möglichkeiten der Snowflake Data Cloud

Erfahren Sie wie Sie mit Hilfe von Snowflake einfach und sicher Zugang zu hilfreichen Live-Daten bekommen, wie Sie beliebig große Mengen an Daten effizient, flexibel und performant verarbeiten können und wie die Snowflake Data Cloud Platform Ihr Unternehmen dabei unterstützt datengetrieben zu agieren. Zusätzlich erhalten Sie Einblicke in aktuelle Innovationen der Snowflake Data Cloud.

Marko Cavar ist Diplom-Informatiker der Medizin und verfügt über einen BSc (Hons) in Computing. Nach seinem Studium war er 8 Jahre als Management Berater hauptsächlich im Bereich IT Strategie tätig, bevor er weitere 8 Jahre Erfahrung in Cloud-Unternehmen als Senior Service Line Manager und Senior Technical Account Manager sammelte. Als Senior Partner Sales Engineer bei Snowflake unterstützt er führende Snowflake Partner in der DACH-Region bei technischen Themen und bei der Entwicklung gemeinsamer Lösungen und Angebote.

Marko Cavar
Marko Cavar
Vortrag: SDdi2.6
flag VORTRAG MERKEN

Vortrag Teilen

15:15 - 16:00
T6
Track+: LEANIX
Track+: LEANIX

Weitere Infos folgen.

Track: #Track +
Vortrag: T6
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:00
SDdi2.7
Demo: Schnelle Verarbeitung von semistrukturierten JSON- und Parquet-Daten
Demo: Schnelle Verarbeitung von semistrukturierten JSON- und Parquet-Daten

Die Data Warehouse-Architektur ist nicht mehr die einzige Architektur, die es gibt, und findet sich heute in der Gesellschaft von Data Hubs und Data Lakehouses wieder. Da die Daten in diesen neuen Datenarchitekturen anders strukturiert, organisiert und verwendet werden, müssen wir in der Lage sein, alle Formen von Daten nahtlos in unserer Infrastruktur zu bewegen, um ihr Potenzial zu maximieren.

In dieser Session zeigen wir, wie Sie JSON- und Parquet-Daten schnell in Ihre Infrastruktur einbinden können. Im Anschluss lernen Sie in der 15-minütigen Demonstration die Funktionsweise von WhereScape Data Automation näher kennen.

Vortrag: SDdi2.7
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 16:30
Pause
Kaffee & Ausstellung / Coffee & Exhibition
Kaffee & Ausstellung / Coffee & Exhibition

16:30 - 18:00
Di 1.4
BI@AWS bei einer deutschen Versicherung
BI@AWS bei einer deutschen Versicherung

Im Kontext der Neuausrichtung der BI & Analytics-Lösungen bei DEVK Versicherungen wird eine komplett neue BIA-Lösung in der AWS Cloud aufgebaut. Im Vortrag werden die Implementierungsschritte und die lessons learned im Umgang mit Cloud-Umgebungen im Kontext sensibler Daten erläutert.

Zielpublikum: Data Engineer, Project leader, decision makers, ...
Voraussetzungen: Basic knowledge and experience in Data Warehousing and Cloud Services
Schwierigkeitsgrad: Einsteiger
 

Panel: Branchenfokus Finanzindustrie
Panel: Branchenfokus Finanzindustrie

Dr. Andreas Totok ist Geschäftsbereichsleiter Enterprise Information Management bei der Finanz Informatik Solutions Plus GmbH. In dieser Funktion berät er Bankinstitute und Versicherungen der Sparkassen-Finanzgruppe zu strategischen IT-Themen und verantwortet Projekte für die Anwendung Künstlicher Intelligenz und dem Management von Daten. Seine Schwerpunkte liegen in der Fachkonzeption sowie der Architektur- und Organisationsberatung.

Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.

Ralf Gnädinger
Andreas Totok, Michael Zimmer
Ralf Gnädinger

Vortrag Teilen

Andreas Totok, Michael Zimmer
flag VORTRAG MERKEN

Vortrag Teilen

16:30 - 18:00
Di 2.4
Executing a Data Strategy in a Federated Organization
Executing a Data Strategy in a Federated Organization

DB Regio Bus, a subsidiary of Deutsche Bahn, has been executing a data strategy to support digitization and automation in a very decentralized organization. In this presentation, Asha, Marcus, and Christian will provide insights, methods, and lessons learned about the data strategy at DB Regio Bus and their experiences related to its successful execution.

Target Audience: Chief Data Officers, Chief Digital Officers, Data Manager, Data Governance Manager, Data Governance Directors
Prerequisites: None
Level: Basic

Asha Joseph Pattani is responsible for Enterprise Architecture and Digitalization at DB Regio Bus. She has vast experience in data management, digitization, and software architecture for large-scale systems. In her previous positions, she has experience in diverse industries and domains where Data was harnessed to drive digitalization. Asha established and is responsible for the data platform and its integrations into enterprise systems. From a technological and architectural perspective, she emphasizes the importance of data excellence, automation, and modular architecture. The introduction of digital assistants was one of her digitalization initiatives.

Marcus is Head of ICT at DB Regio Bus. He has a long experience in data management, digitization and public transportation. After previous positions in transport management, e-commerce and M&A, he took over the position as Head of ICT in 2014 with the ambition to modernize the ICT of the bus company of Deutsche Bahn. Marcus established a 100% cloud strategy and renewed the whole IT-infrastructure for around 9.000 employees. At present, the focus of his team is digitization, automation and modularization. In this context, Marcus successfully established the data excellence initiative of DB Regio Bus.

Dr. Christian Fürber is founder and CEO of the Information Quality Institute GmbH (iqinstitute.de), a specialized consultancy for Data Excellence and Data Management solutions. Prior to founding IQI in 2012, he held several data management positions at the German Armed Forces where he designed and executed the Forces’ Data Management Strategy. Since his leave from the Forces, Christian and his team have successfully established data management framworks for many companies in Europe helping them to accellerate innovation and digitization through data. Christian is also author, lecturer and speaker and organizes the TDWI Themenzirkel "Data Strategy & Data Governance".

Panel: Data Strategy & Data Governance
Panel: Data Strategy & Data Governance

Dr. Carsten Dittmar ist Partner und Area Director West bei der Alexander Thamm GmbH. Er beschäftigt sich seit über 20 Jahren intensiv mit den Themenfeldern Business Analytics, Data Science und Artificial Intelligence mit dem Fokus auf strategische und organisatorische Beratung von datengetriebenen Vorhaben. Carsten Dittmar ist europäischer TDWI Fellow und Autor diverser Fachpublikationen und Referent bei zahlreichen Fachveranstaltungen.

Dr. Christian Fürber is founder and CEO of the Information Quality Institute GmbH (iqinstitute.de), a specialized consultancy for Data Excellence and Data Management solutions. Prior to founding IQI in 2012, he held several data management positions at the German Armed Forces where he designed and executed the Forces’ Data Management Strategy. Since his leave from the Forces, Christian and his team have successfully established data management framworks for many companies in Europe helping them to accellerate innovation and digitization through data. Christian is also author, lecturer and speaker and organizes the TDWI Themenzirkel "Data Strategy & Data Governance".

Michael Kolb ist seit 14 Jahren im Business Intelligence-Umfeld tätig - davon seit über 8 Jahren als BI-Projektleiter und BI-Architekt im BICC der HUK-COBURG. Seit zwei Jahren begleitet er die Themen Data Cataloging und Data Governance im Kontext des erweiterten Daten-Ökosystems der HUK-COBURG.

Asha Joseph Pattani, Marcus Gilg, Christian Fürber
Carsten Dittmar, Christian Fürber, Michael Kolb
Asha Joseph Pattani, Marcus Gilg, Christian Fürber

Vortrag Teilen

Carsten Dittmar, Christian Fürber, Michael Kolb
flag VORTRAG MERKEN

Vortrag Teilen

16:30 - 18:00
Di 3.4
Transition towards a collaborative Data Mesh cloud platform
Transition towards a collaborative Data Mesh cloud platform

SWICA historically runs a data warehouse built by a centralized team and in parallel, multiple isolated solutions for domain specific analyses, which afford high maintenance and an extensive effort to stay compliant.

Modernizing our analytical environment, we are building a collaborative platform on MS Azure, utilizing the Data Mesh paradigms of data domain and data product.

We aim to deliver a managed data marketplace for all data domains to provide their data products on a modern platform with low maintenance and built-in security & compliance.

Target Audience: Data Analysts, Data Engineers, Project Leaders, Decision Makers
Prerequisites: Basic understanding of the data mesh concept, data warehouse architectures and the challenges of diverse analytical use cases from multiple lines of business
Level: Advanced
 

15 years of BI industry experience as a project manager, analyst, team lead and solution architect. Closely following new concepts and technologies, aiming for practical application in the enterprise world.

Building planning and reporting solutions for small and medium-sized enterprises for more than 15 years, the opportunity to build a modern cloud based data platform for SWICA the leading health insurance company in Switzerland, is a challenge to develop my personality and skills. A special candy comes with the usage of the latest cloud technologies and a high flexibility for building the solution.

Tobias Rist, Philipp Frenzel
Tobias Rist, Philipp Frenzel
Vortrag: Di 3.4
flag VORTRAG MERKEN

Vortrag Teilen

16:30 - 18:00
Di 4.4
Governed Self-Service BI im Onmi-Channel-Handel
Governed Self-Service BI im Onmi-Channel-Handel

Flexible Architektur der analytischen Datenplattform für Governed Self Service BI Erfahrungsbericht / Best Practice / Lessons learned bei Tennis-Point - DWH-Architektur für flexibles Reporting mit multiplen Quellsystemen - Nutzung von In-Memory und Datenvirtualisierung mit Self-Service BI - dynamische Datenbewirtschaftung und Datenqualitätsmanagement - Herausforderungen bei der Umsetzung der Fachanforderungen und Rollout Ein Erfahrungsbericht über die erfolgreiche Einführung und den Ausbau der unternehmensweiten Informationsversorgung.

Zielpublikum: IT-Leitung, BICC, Controlling, Fachanwender
Voraussetzungen: Keine
Schwierigkeitsgrad: Einsteiger

Head of Business Intelligence, Projektleiter und eCommerce Experte bei Tennis-Point Seit über 12 Jahren bei dem Omni-Channel Sporthändler Tennis-Point GmbH tätig. Gestartet als dualer Student mit kaufmännischer Ausbildung und Studium der Betriebswirtschaftslehre in Münster und als Einkäufer bei Tennis-Point. Nach dem Studium Aufbau des Controllings sowie des Projektmanagements. Als Projektmanager Umbau und Automatisierung der Intralogistik und im Anschluss Leitung der Logistik. Seit 2018 als Projektleiter und Spezialist für Business Intelligence und Data Warehouse Aufbau und Leitung des Bereichs Data and Analytics bei der Tennis-Point GmbH.

Pricipal Consultant, Technologie-Experte und Projektleiter bei DATA MART Consulting. Steuerfachangestellter, Betriebsleiter, Teamleitung Controlling und Buchhaltung, BI-und DWH-Entwickler, Head of Business Intelligence im Online-Handel, seit 2014 in der Beratung und Implementierung von integrierten Datenplattformen und Analytics bei DATA MART Consulting

Panel: Self-Service & Analytics
Panel: Self-Service & Analytics

Carsten Blöcker ist Gründer und Geschäftsführer der cloudimpulse GmbH und kann dort sein Herzensthema Business Intelligence in allen Facetten ausleben. Mit über 20 Jahren Berufserfahrung im Banking mit Schwerpunkt auf Datenmanagement und Reportingsysteme liegt ihm die Verbindung zwischen effizientem und qualitativ hochwertigem Reporting und einem funktionierenden Backend sehr am Herzen. Mit cloudimpulse macht er es sich zur Aufgabe, die Schnittstelle zwischen Fachbereich und IT im Rahmen von BI-Projekten effizient zu strukturieren und Klarheit über die Schnittstellen zu schaffen. Hilfe zur Selbsthilfe und Standardisierung von Prozessen stehen dabei im Vordergrund seiner Beratungsleistungen.

Artur König ist Informatiker mit aktuellem Tätigkeitsschwerpunkt in den Bereichen BI-Beratung, Daten-Architektur und Datenanalyse. Er ist seit 2016 bei der Scopevisio AG tätig, einem mittelständischen Hersteller von Cloud Unternehmenssoftware mit Sitz in Bonn. 

Zurzeit verantwortet er das Customizing und die Umsetzung individueller Lösungen in Kundenprojekten, wobei ein wesentlicher Schwerpunkt Erweiterungen im Bereich des Reporting sind. Die Aufgaben umfassen die Entwicklung von Reporting-Standards und Konzeption sowie Umsetzung von kundenindividuellen Datenstrukturen und  Auswertungen.

Zuvor war er acht Jahre bei der DATEV eG im Consulting mit dem Fokus auf IT-Compliance und IT-Sicherheit tätig. Er besitzt mehrere Zertifizierungen im Bereich der IT-Sicherheit und des Datenschutzes und hat umfassende Erfahrung als Referent für Sicherheits- und Compliance-Themen sowie bei der Umsetzung rechtlicher Anforderungen in der betrieblichen Praxis.

Neben den beruflichen Tätigkeiten ist er als Dozent bei der FOM, als Organisator der Berliner Power BI Usergroup sowie in mehreren Themenzirkeln des TDWI aktiv.

Philipp von Loringhoven ist Designer, Entwickler, Marketeer und Daten-Nerd. Als Freelancer ist er gefangen zwischen Marketing, Produktentwicklung, Business Intelligence und Analytics - er hilft Unternehmen ihre Kunden besser zu verstehen, um mit ihnen zielführender zu kommunizieren. Gleichzeitig ist Host des DataEngage Podcasts und der daily-data.news Plattform.

Nico Mack, Oliver Stock
Carsten Blöcker, Artur König, Philipp von Loringhoven
Nico Mack, Oliver Stock
Vortrag: Di 4.4-1

Vortrag Teilen

Carsten Blöcker, Artur König, Philipp von Loringhoven
Vortrag: Di 4.4-2
flag VORTRAG MERKEN

Vortrag Teilen

16:30 - 18:00
Di 6.4
So hilft Machine Learning im Bereich Predictive Maintenance
So hilft Machine Learning im Bereich Predictive Maintenance

Kostensenkung durch weniger Wartungsarbeiten, ein effizienterer Support und zufriedenere Kunden: Das verspricht Predictive Maintenance. Der Vortrag führt in das Thema ein und beschreibt anhand von Kundenprojekten, wie mittels Machine Learning-Verfahren die Wartung optimiert werden kann. Die Referenten stellen dabei verschiedene Methoden vor (Rainflow-Analyse sowie Anomaly Detection) und geben Tipps für die Praxisanwendung von ML-Ansätzen im Bereich Predictive und Condition-Based Maintenance.

Zielpublikum: Entscheider, Data Scientists, Interessierte
Voraussetzungen: Interesse, Grundkenntnisse Statistik und Data Science
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
In vielen Unternehmen wird eine Vielzahl unterschiedlicher Daten gesammelt, ohne dass es dafür schon konkrete Anwendungsfälle gibt. Auf der Suche nach passenden Use-Cases, mit denen Kosten gesenkt, Einnahmen erhöht oder die Qualität verbessert werden soll, fällt häufig das Schlagwort Predictive Maintenance. Durch datengestützte Predictive Maintenance sollen Wartungsleistungen seltener anfallen, zielgerichteter sein und somit die Kundenzufriedenheit verbessert werden.

Im Vortrag werden zwei Projekte aus dem Maschinenbau vorgestellt, bei denen Predictive Maintenance in Kombination mit Machine Learning-Verfahren zum Einsatz kommt. Das erste Projekt beschreibt die Optimierung der Wartungsbetreuung, die auf dem tatsächlichen Zustand der Komponenten basiert (Condition-Based Maintenance). 

Das zweite Projekt, das der Vortrag vorstellt, nimmt sich der Herausforderung von Datenanomalien im Machine Learning an. Dabei werden diese Ausreißer nicht als Störung interpretiert, sondern als Indikator für bisher unbekannte Muster. Wie eine Anomaly Detection in konkreten Predictive Maintenance-Projekten aussehen kann und welche Algorithmen dabei eingesetzt werden können, beschreiben die Referenten in ihrem Vortrag.

Für den Vortrag ist in erster Linie Interesse am Thema gefordert. Die Referenten führen in die jeweiligen Fragestellungen ein und entwickeln daraus praxisrelevante Lösungsansätze. 

Nach seiner Promotion in theoretischer Physik ist Aman Steinberg als Consultant tätig und beschäftigt sich mit Data Science sowie Machine Learning im Business-Umfeld. Er betreut Kundenprojekte für Predictive Maintenance in der Maschinenbauindustrie.

Nach dem Masterstudium der Volkswirtschaftslehre an den Universitäten Mannheim und Bonn ist Benedikt Kauf als Consultant aktiv. Mit umfassenden Erfahrungen mit Datenvisualisierung, -transformation und -aufbereitung hat er sich auf Machine Learning im Business-Umfeld und Big Data-Engineering spezialisiert. Er ist in einem Kundenprojekt zu Predictive Maintenance in der Halbleiterindustrie tätig.

Aman Steinberg, Benedikt Kauf
Aman Steinberg, Benedikt Kauf
flag VORTRAG MERKEN

Vortrag Teilen

16:30 - 18:00
Di 7.4
Limitiert Text Mining vs. Data Mining
Text Mining vs. Data Mining

Diese Session vermittelt die Unterschiede zwischen Data Mining und Text Mining, so dass auch hier die Teilnehmer in der Lage sind, diese zu erkennen und in eigenen Projekten zu berücksichtigen. Während der Session zeigen wir ein kleines Code-Beispiel, so dass der Eindruck für den Aufwand vermittelt wird.

Maximale Teilnehmerzahl: 20

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Diese Session vermittelt die Unterschiede zwischen Data Mining und Text Mining, so dass auch hier die Teilnehmer in der Lage sind, diese zu erkennen und in eigenen Projekten zu berücksichtigen. Während der Session zeigen wir ein kleines Code-Beispiel, so dass der Eindruck für den Aufwand vermittelt wird.

Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:

Rapidminer rapidminer.com (falls Sie kein Rapidminer Account anlegen möchten, suchen Sie bitte im Web nach der Version 5 und installieren Sie diese nach Download auf Ihrem Rechner. Bedenken Sie dann aber bitte, dass in der Software teilweise alternative Abläufe zu beachten sind.)

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
flag VORTRAG MERKEN

Vortrag Teilen

16:30 - 17:15
SDdi2.8
Die neuen Einsatzszenarien der SAP Data Warehouse Cloud
Die neuen Einsatzszenarien der SAP Data Warehouse Cloud

SAP Data Warehouse Cloud ist die zentrale Kompoenten der SAP Data Warehouse Strategie. Das was machen unsere Kunden genaus damit? Der Vortrag geht auf Use Cases von Kunden direkt ein und schaut wie DWC in eine komplexe SAP Ladschaft eingebunden werden kann.

Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Herr Stemmler das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.

Matthias Stemmler
Matthias Stemmler
Vortrag: SDdi2.8
flag VORTRAG MERKEN

Vortrag Teilen

17:15 - 18:00
SDdi2.9
Entdecken Sie die nächste Generation der Unternehmensführung mit Celonis
Entdecken Sie die nächste Generation der Unternehmensführung mit Celonis

Sie sind ein gut geführtes Unternehmen. Aber was wäre, wenn wir Ihnen sagen würden, dass versteckte Ineffizienzen Ihre Leistung beeinträchtigen, ohne dass Sie es merken? Was wäre, wenn wir Ihnen sagen würden, dass Ihre Leistung radikal und schnell gesteigert werden kann, unabhängig von Ihrer Ausgangssituation? Lernen Sie, wie Sie verborgene Ineffizienzen in Ihrem Unternehmen aufdecken und beheben können um Leistung zu erzielen, die Sie nie für möglich gehalten hätten. Entdecken Sie, wie Sie mit Process Mining und unserem Execution Management System einen massiven, messbaren Mehrwert erzielen können.

Steffen Schwenk, Tobias Rother
Steffen Schwenk, Tobias Rother
Vortrag: SDdi2.9
flag VORTRAG MERKEN

Vortrag Teilen

, (Mittwoch, 22.Juni 2022)
08:00 - 09:00
Pause
Kaffee / Coffee & Registrierung / Registration
Kaffee / Coffee & Registrierung / Registration

09:00 - 10:30
Mi 1.1
DNA research meets business
DNA research meets business

Das Verfahren der Sequenzanalyse ist in der Molekularbiologie State of the Art bei der Entschlüsselung der menschlichen DNA. Wir entwickeln ein Verfahren für den effizienten Einsatz der Sequenzanalyse für verschiedene Bedürfnisse unserer Kunden. Durch das Verfahren lässt sich nahezu jede Form von Verhaltens- und Ereignismustern klassifizieren, interpretieren und optimieren. Die Bandbreite der Einsatzmöglichkeiten reicht vom 'klassischen' Kundenverhalten im Online-Shop über das Churn & Fraud bis zur Analyse von personalisierten Kaufentscheidungen. 

Zielpublikum: Data Scientist, Data Engineer, Project Leader, Decision Makers, Project Owner, Stakeholder, Project Manager, Big Data Analysten, eCommerce, Business-Analysten 
Voraussetzungen: Erfahrung im Bereich Data Science, Big Data Analytics, AI, Geschäftsprozessoptimierung, Business Consulting, Untersuchungsdesign. 
Schwierigkeitsgrad: Fortgeschritten

Der Diplom-Soziologe und Mathematiker Alexander Gorbach verfügt über 18 Jahre praktischer Erfahrung im Bereich Data Science. Im Rahmen von über 30 branchenübergreifenden Kundenprojekten befasst er sich mit wissenschaftlich geprägten statistischen Verfahren, um Businessprozesse und die damit verbundenen KPI seinen Kunden zu optimieren.

Alexander Gorbach
Alexander Gorbach
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:30
Mi 2.1
Transforming Retail with Cloud Analytics - Petrol Case Study
Transforming Retail with Cloud Analytics - Petrol Case Study

Petrol is Slovenian company that operates in 8 countries in SEE with 5BEUR annual revenue. As traditional publicly-owned company, Petrol has faced necessity for transformation to stay ahead in highly competitive market. Use of BIA was mainly reactive, but in recent years it has transformed into competitive advantage by using cloud technologies and industry specific analytical models and focusing on the content and creating business value. This value is now being leveraged as competitive advantage through proactive use of data and analytics. 

Target Audience: Decision Makers, Data Architects, Project Managers 
Prerequisites: None 
Level: Basic 

Extended Abstract: 
Petrol is Slovenian company that operates in 8 countries in SEE with 5BEUR annual revenue. Main business activity is trading in oil derivatives, gas and other energy products in which Petrol generates more than 80 percent of all sales revenue and it also has a leading market share in the Slovenian market. Petrol also trades with consumer goods and services, with which it generates just under 20 percent of the revenue. Use of BIA was mainly reactive, but in recent years it has transformed into competitive advantage by using cloud technologies and industry specific analytical models and focusing on the content and creating business value. This value is now being leveraged as competitive advantage through proactive use of data and analytics. Presentation will cover main business challenges, explain technology architecture and approach and discuss results after three years of system development and use. 

Andreja Stirn is Business Intelligence Director with more than 20 years of experience working in the Oil & Energy and Telco industry. Skilled in Data Warehousing, Business Intelligence, Corporate Performance Management, Market Research and People Management.

Dražen Orešcanin is Solution Architect in variety of DWH, BI and Big Data Analytics applications, with more than 25 years of experience in projects in largest companies in Europe, US and Middle East. Main architect of PI industry standard DWH models. Advised Companies include operators from DTAG, A1 Group, Telenor Group, Ooredoo Group, Liberty Global, United Group, Elisa Finland, STC and many companies in other industries such as FMCG and utilities.

Andreja Stirn, Dražen Oreščanin
Andreja Stirn, Dražen Oreščanin
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 12:30
Mi 3.1
Limitiert Ein interaktiver Stadtrundgang durch Agile BI City
Ein interaktiver Stadtrundgang durch Agile BI City

Agile ist doch gleichbedeutend mit Chaos und Planlosigkeit - wie soll mir das bitte bei meinem Business Intelligence-Vorhaben weiterhelfen?' Es ist ein gängiger Irrglaube, dass Agile gleichbedeutend ist mit schlechter oder keiner Planung. Wir laden dich deshalb ein zu einem interaktiven Stadtrundgang durch „Agile BI City”: Du erfährst, was du für dein agil durchgeführtes BI-Projekt beachten musst. Du lernst mittels praktischer Aufgaben, wie du frühzeitig und kontinuierlich Mehrwerte für deine Auftraggeber lieferst. Abwechslung ist garantiert! 

Maximale Teilnehmerzahl: 45

Zielpublikum: Projektleiter, Product Owner, Scrum Master, BICC-Leiter 
Voraussetzungen: Grundverständnis der Begriffe BI und DWH 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Du stehst vor deinem ersten Business Intelligence (BI)- oder Data Warehousing (DWH)-Projekt, welches du agil abwickeln möchtest? Oder aber du steckst bereits mitten drin und irgendwie will das mit der Agilität im BI-Kontext nicht so richtig klappen? Dann ist diese Stadtführung durch Agile BI City genau richtig für dich.  

Agilität kann man nicht „machen”. Gesteigerte Agilität - z.B. im Kontext von BI und DWH-Systementwicklung - ist viel mehr das abstrakte Fernziel einer Reise, sowohl für dich als auch deine Organisation. Als Reiseleiter nehmen wir dich in diesem interaktiven Workshop mit und führen dich einmal quer durch „Agile BI City”. Dabei spielt unser GPS für Agile BI, kurz GABI, eine zentrale Rolle: In Form von mehr als 30 Stationen, aufgeteilt in acht Stadtteile, bekommst du eine praktische Orientierungshilfe an die Hand, damit du dich - wieder zurück in deiner eigenen Organisation - auf deiner eigenen Agile-BI-Reise orientieren kannst. 

Wir starten unseren Rundgang in Inception-Beach. Hier schauen wir uns an, welches konkrete Ziel erreicht werden soll. In einer praktischen Übung wählst du dir deine Favoriten unter den agilen Prinzipien aus. Das agile „Mindset” mag ein guter Leitstern sein, bleibt in der Regel aber zu wenig konkret. Deswegen machen wir einen kurzen Abstecher in die Vision-Hills, wo wir uns über die Rolle einer BI-Strategie unterhalten. Anschließend geht's weiter nach Westside-Requirements, wo das Erheben von Anforderungen im agilen Kontext und zeitgemäße Planungsaktivitäten aufeinandertreffen. In Kleingruppen erarbeitet ihr dabei einen Scopebreakdown für ein fiktives BI-Projekt und schreibt erste User-Storys. 

Nach einer kurzen Verschnaufpause fahren wir mit unserem Stadtrundgang weiter in Central-Technology. Dabei stehen die technologischen Grundlagen für Agile BI wie z.B. DWH- und Testautomation im Mittelpunkt. Gemeinsam besuchen wir ausgewählte Anbieter in der Messehalle. 

Es folgt ein kurzer Abstecher nach South-Contracting, wo wir die Frage erörtern, wie sich ein agiles Vorgehen und Verträge sinnvoll zusammenbringen lassen. In Downtown-Patterns erfahren wir mehr über die Wichtigkeit von Design Patterns und Standards als Grundlage für ein agiles Vorgehen. Weiter geht's in Uptown-Process, wo wir verschiedene agile Prozesse wie z.B. Scrum besichtigen und uns in Gruppen überlegen, wie sich diese im Kontext von Agile BI bewähren.

Als Abschluss unserer dreistündigen Entdeckungstour hast du die Möglichkeit, dir Gedanken zu deiner eigenen Reise in Richtung Agile BI zu machen. Wenn du den Agile BI City-Stadtplan auf deine eigene Organisation anwendest: Wo steht ihr gerade? Welche Stadtteile kennt ihr schon gut, welche sind noch erkundungswürdig? Wo hast du konkrete Fragen? Deine Reiseleiter stehen dir dabei für Rückfragen und Auskünfte gerne zur Verfügung. 

Am Ende des Workshops hast du nicht nur eine Landkarte in der Hand, welche dir einen Überblick der möglichen Wegpunkte auf deiner Reise zu mehr Agilität in BI und DWH-Projekten gibt. Du hast auch bereits erste praktische Erfahrungen gesammelt und dir konkrete Schritte für deine weitere Reise überlegt. 

Raphael ist Co-Autor des Buchs „How to succeed with Agile Business Intelligence”, welches 2022 erscheint. Er arbeitet als Principal Consultant Data & Analytics bei der IT-Logix AG. Er hilft Organisationen, ihre Anforderungen rund um Daten und 'Analytics' zu erheben und umzusetzen. Er ist zugleich Stratege, Architekt, Requirements Engineer, Agile Coach, aber auch Entwickler. Dadurch bringt er eine ganzheitliche Sicht in seine Projekte ein.

Severin ist Co-Autor des Buchs „How to succeed with Agile Business Intelligence”, welches 2022 erscheint. Er arbeitet als Principal Consultant Data & Analytics bei der IT-Logix. Als langjähriger Entwickler und IT-Projektleiter bringt Severin viel Erfahrung in der Umsetzung von BI-Projekten mit. Er unterstützt Organisationen dabei auch bei der Erhebung und Analyse von BI-spezifischen Anforderungen.

Stephan arbeitet als Senior Consultant Data & Analytics bei der IT-Logix. Als ausgewiesener Data-/ und BI-Fachmann in Consulting- wie auch Managementrollen unterstützt er Firmen der Erarbeitung von Daten-Strategien, beim Aufbau von Data Teams, sowie der Etablierung von datengetriebenen Prozessen, Strukturen und Architekturen. Daneben ist er auch als Projektleiter und Data Science Evangelist tätig. 

Raphael Branger, Severin Leuenberger, Stephan Meier
Raphael Branger, Severin Leuenberger, Stephan Meier
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:30
Mi 4.1
Deepfakes am Limit - Fake-Videocalls mit KI
Deepfakes am Limit - Fake-Videocalls mit KI

Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare 'Doppelgänger' einer Person zu erzeugen. TNG forscht seit 2019 intensiv an der KI rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. In dem Vortrag zeigen wir die verschiedenen Evolutionsschritte der Deepfake-Technologie inkl. Live-Demos, beginnend mit dem 'Ur'-Deepfake und endend mit Echtzeit-Deepfakes des gesamten Kopfes. 

Zielpublikum: Software-Entwickler, Entscheider, Manager, IT-Fachkräfte, Arbeitende im HomeOffice 
Voraussetzungen: Keine 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Seit ihrer Entstehung im Jahr 2017 haben sich Deepfakes von einer KI-Spielerei zu einem mächtigen Werkzeug weiterentwickelt. Auch Medienformate wie Leschs Kosmos, Galileo und anderen Sendungen arbeiten inzwischen mit TNG-Deepfakes. 

Wir gehen in dem Vortrag auch auf die Cybersecurity-Aspekte ein, da Mitarbeitende durch Deepfakes in Zeiten von Corona schnell hinter das Licht geführt werden könnten, da sie z.B. einem vermeintlichen Deepfake in einer Videokonferenz vertrauliche Informationen weitergeben. 

Martin Förtsch ist ein IT-Berater der TNG Technology Consulting GmbH mit Sitz in Unterföhring bei München und studierte Informatik. Seine Arbeitsschwerpunkte sind Agile Development (hauptsächlich) in Java, Suchmaschinentechnologien, Information Retrieval und Datenbanken. Als Intel Software Innovator und Intel Black Belt Software Developer ist er darüber hinaus intensiv in der Entwicklung von Open-Source-Software im Bereich der 3D-Kameratechnologien und dem Internet of Things involviert. Darüber hinaus hält er zahlreiche Vorträge auf nationalen und internationalen Konferenzen zu den Themen Künstliche Intelligenz, Internet der Dinge, Augmented Reality und Test-Driven Development. Er wurde u.a. mit dem Oracle JavaOne Rockstar ausgezeichnet.

Thomas Endres ist studierter Informatiker (TU München) und leidenschaftlicher Softwareentwickler. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award.

Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Deepfakes, Mixed Reality KI-Kunstwerken und autonom fliegenden Minidrohnen.

Martin Förtsch, Thomas Endres, Jonas Mayer
Martin Förtsch, Thomas Endres, Jonas Mayer
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:30
Mi 5.1
Data Literacy als Enabler der Data-Driven Company
Data Literacy als Enabler der Data-Driven Company

Durch die steigende Datenmenge und zunehmende technologische Möglichkeiten sind Begriffe wie Data Literacy (Datenkompetenz) in aller Munde. Unternehmen erhoffen sich, aus Daten einen Mehrwert zu generieren, schneller bessere Entscheidungen zu treffen, Prozesse zu optimieren und den Markt besser zu verstehen. Schnell stellt man fest, dass Technologie allein nicht ausreicht. Der richtige Nutzen und das richtige Verständnis der Daten sind heute entscheiden für jede Initiative im Bereich Data & Analytics.

Zielpublikum: Product Owner, Entscheider, CIO, CDO, Human Resource
Voraussetzungen: Grundlegendes Verständnis vom Nutzen von Business Intelligence und analytischem Datenmanagement
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Data Literacy kann als die Fähigkeit des Einzelnen verstanden werden, Daten im richtigen Kontext zu interpretieren und für sich nutzbar zu machen. Als Teil einer gelebten Datenkultur erzeugt Data Literacy nicht nur einen Mehrwert der Daten im Unternehmen sondern wird zunehmend zum Erfolgsfaktor für Dateninitiativen und Projekte im Bereich Business Intelligence und Analytics. Der Vortrag vermittelt ein Verständnis über wichtige Punkte, Rollenbilder und eine ganzheitliche Vorgehensweise zur Etablierung von Data Literacy-Initiativen im Unternehmen. Den Teilnehmern werden konkrete Bausteine und Vorgehensweisen an die Hand gegeben, wie Data Literacy im Unternehmen etabliert werden kann um das Wertversprechen von Dateninitiativen zu optimieren.

Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einsteig bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.

Laura Weber beschäftigt sich seit 3 Jahren mit der ganzheitlichen Betrachtung strategischer Data & Analytics-Themen. Ihre Erfahrung sammelte sie in Projekten unterschiedlicher Branchen unter Anwendung diverser Technologien und Methoden. Im Rahmen einer Thesis setzte sie sich intensiv mit Data Literacy auseinander und entwickelte ein Prozess-Framework zur Messung und Steigerung der Datenkompetenz.

Peter Baumann, Laura Weber
Peter Baumann, Laura Weber
Vortrag: Mi 5.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:30
Mi 6.1
Data Fabric Bootcamp
Data Fabric Bootcamp

Mit einer neuen Daten-Plattform erhöhen Sie die Effizienz bei der Orchestrierung verfügbarer Daten. Damit gelingt die Transformation zu einem datengetriebenen Unternehmen qualitativ besser & schneller. Moderne Daten-Plattformen folgen einem neuen architektonischen Konzept, auch Data Fabric genannt. 

Das Data Fabric Bootcamp führt durch 3 Lernblöcke, in denen Sie anhand eines kompletten AI-Prozesses von der Problemstellung über die virtuelle Datenintegration bis zur AI-Modellerstellung die Vorteile eines Data-Fabric-Ansatzes erleben werden. 

Zielpublikum: Data Engineers, Data Scientists, IT-Manager, Business Power User, BICC Lead 
Voraussetzungen: Basis-Know-how BI, BA, Data Science 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Mit einer modernen Daten-Plattform erhöhen Sie Ihre Effizienz bei der Orchestrierung aller verfügbaren Daten. Zudem reduzieren Sie den Aufwand und die Komplexität für Datenanalyse und -aufbereitung. Dadurch gelingt Ihre Transformation zu einem datengetriebenen Unternehmen qualitativ besser und schneller. Moderne Daten-Plattformen folgen einem neuen architektonischen Konzept, welches als Data Fabric bezeichnet wird. 

Im Data Fabric Bootcamp lernen Sie zunächst das Konzept des 'Data Fabric' kennen. Danach führen wir Sie in einer kurzen Live-Demo in das Produkt 'IBM CloudPak for Data' ein. Diese Data Fabric-Lösung verwenden wir dann als Daten-Plattform für unseren praktischen Anwendungsfall. 

Es folgen als wesentlicher Teil 3 Lernblöcke, in denen Sie anhand eines kompletten AI / Data Science-Prozesses von der Problemstellung über die virtuelle Datenintegration und -verwaltung bis zur AI-Modellerstellung die Vorteile eines Data Fabric-Ansatzes erleben und verstehen werden. Der letzte Block besteht aus einer praktischen Übungseinheit zu AutoAI, in der Sie selbst die neuen automatisierten AI-Möglichkeiten anhand der vorher erarbeiteten Daten-Assets anwenden und erleben können. Als Abschluss bewerten wir unsere Ergebnisse und diskutieren weitere Anwendungsmöglichkeiten. 

Martin Otto ist Senior Solution Expert bei der avantum consult GmbH. Er berät seit über 25 Jahren im Bereich Business Analytics. Er ist mehrfacher 'IBM Champion Data & Analytics' und seit vielen Jahren im Vorstand der Cognos User Group D/A/CH. Zusammen mit neun weiteren IBM Champions gründete er 2021 die 'AIDAUG - Artificial Intelligence, Data & Analytics Usergroup' in USA, die weltweit operiert.

Dominik Schott ist Assistant Consultant bei der avantum consult GmbH. Nach dem Studium der Informatik berät er Kunden in diversen Business-Analytics-Projekten. Dominik ist Experte für die Lösung IBM Cloud Pak for Data. Sein Fokus liegt neben der Architektur von Cloud Pak for Data vor allem auf den AI-Komponenten und der Überwachung fertiger Modelle.

Thomas Olak ist Consultant bei der avantum consult GmbH. Seit 2020 berät er Kunden in diversen Predictive-Analytics- sowie Data-Science-Projekten. Sein Fokus liegt neben der Datenmodellierung vor allem auf der Prognose von Finanzkennzahlen und Predictive Maintenance.

Martin Otto, Dominik Schott, Thomas Olak
Martin Otto, Dominik Schott, Thomas Olak
Track: #HandsOn
Vortrag: Mi 6.1
Themen: Hands-On
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:30
Mi 7.1
Einsatz von No-Code-Artificial Intelligence für die Realisierung von Prozessverbesserungen im mittelständischen Onlinehandel
Einsatz von No-Code-Artificial Intelligence für die Realisierung von Prozessverbesserungen im mittelständischen Onlinehandel

Der E-Commerce Markt zeichnet sich durch eine hohe Dynamik und Volatilität aus. Eine Chance, diesen Entwicklungen entgegenzuwirken, ist der gezielte Einsatz von künstlicher Intelligenz zur Prozessverbesserung und Prozessautomatisierung. Auch der Onlineversandhandel ist in Deutschland geprägt von mittelständischen Anbietern, die sich dem Vorurteil nach besonders schwertun mit dem KI-Einsatz. Anbieter von No-Code KI-Werkzeugen möchten Hürden einreißen und KI-Projekte für alle ermöglichen. In einer Einzelfallstudie wurde die Umsetzung von vier Anwendungsfällen für den Einsatz von künstlicher Intelligenz mit Hilfe einer No-Code Lösung untersucht. Die Ergebnisse legen nahe, dass auch Fachmitarbeiter mit geringen Vorkenntnissen zum Thema KI relevante Potenziale zur Prozessverbesserung realisieren können.

Daniel Kömpf ist Master of Science in technisch orientierter BWL. Im Rahmen seiner Abschlussarbeit hat er sich mit dem Thema No-Code-AI im Mittelstand auseinandergesetzt. Seit November 2021 ist er als IT-Projektmanager bei der Kömpf Onlineshops GmbH tätig. Er ist verantwortlich für den Einsatz von No-Code-AI zur Prozessoptimierung. 

Die Rolle von Low-Code Development Platforms bei BIA – Von den Herausforderungen aus der Praxis zur erfolgreichen Implementierung einer LCDP-Governance
Die Rolle von Low-Code Development Platforms bei BIA – Von den Herausforderungen aus der Praxis zur erfolgreichen Implementierung einer LCDP-Governance

Microsoft Power BI wurde wiederholt von Gartner als führender Anbieter für Analytics und Business Intelligence Platforms ausgezeichnet. Diese Anwendung gehört zur Microsoft Power Platform; eine sogenannte Low-Code Development Platform (LCDP). Heutzutage gibt es eine Vielzahl von LCDPs, die Business und IT dabei unterstützen, Applikationen und Workflows mit wenig bis gar keinem Programmiercode zu entwickeln. Dabei spielt die Analyse von Daten eine große Rolle. Die neueste Publikation dieses Forschungsprojekts identifiziert die Herausforderungen bei der Implementierung und Anwendung von LCDPs in Wissenschaft und Praxis. Die Ergebnisse zeigen, dass insbesondere Praktiker die Einführung einer umfassenden LCDP-Governance (inkl. u.a. Entscheidungsprozessen, Daten und Access-Control Governance mit entsprechenden Rollen und Verantwortlichkeiten, und organisationsübergreifenden relationalen Mechanismen) als wesentliche Herausforderung ansehen. Die aktuellen Forschungsergebnisse und das weitere Forschungsvorhaben (hinsichtlich der Entwicklung einer LCDP-Governance) bilden zusammen den Inhalt des Vortrags. 

Niculin Prinz ist IT Strategy Consultant bei der BITCO³ GmbH und promoviert nebenbei in Kooperation mit der HTWG Konstanz und der TU Bergakademie Freiberg über die Governance von Low-Code Development Plattformen. Als studierter Ingenieur und heutiger IT-Unternehmensberater entwickelt und vermittelt er dabei Methoden und Management-Ansätze für eine gemeinsame Sprache zwischen Business und IT. Die Forschungsergebnisse publiziert er regelmäßig in internationalen wissenschaftlichen Konferenzen.

Visuelle Skalierbarkeit für BIA Applikationen
Visuelle Skalierbarkeit für BIA Applikationen

Die visuelle Exploration von Daten durch BIA Applikationen stehen limitierenden Faktoren aus der Skalierbarkeit von visuellen Techniken, gestiegenen Anforderungen der menschlichen Wahrnehmung, breiten Verständnis für Datenmodellierung und einen hohem Technologie- und Ressourcenbedarf gegenüber. Einerseits greifen Data Analysten, Data Scientists, Information Designer und Data Journalisten auf ein stetig steigendes Datenaufkommen im Zuge von BI und Data Lake Architekturen zu und andererseits ist eine neue Herangehensweise an die Erkenntnisgewinnung durch Visual Analytics Tools erforderlich, um den Herausforderungen der Skalierung gerecht zu werden. Diese Herausforderungen im Erkenntnisprozess werden anhand von Fallbeispielen mit den entscheidenden Facetten in der visuellen Mustererkennung aufgezeigt.

Oliver Zimmert ist als Experte für Visual Analytics und Big Data Applikationen tätig. Hierbei fungiert er als Vice President für Data Analytics bei der Deutschen Bank und begleitete in den letzten 10 Jahren verschiedenste Big Data Projekte in seiner Beratungsfunktion bei T-Systems und Deloitte. Der Industrieschwerpunkt bildete die Finanz- und Automobilindustrie in der Projekte zu Telematik, Autonomes Fahren und Predictive Maintenance realisiert wurden. Dies wird auf internationalen Konferenzen als Speaker und mit Veröffentlichungen als Doktorand an der TU Bergakademie Freiberg kontinuierlich publiziert.

Daniel Kömpf
Niculin Prinz
Oliver Zimmert
Daniel Kömpf

Vortrag Teilen

Niculin Prinz

Vortrag Teilen

Oliver Zimmert
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:30
SDmi1.1
How to make a Datenlandkarte?
How to make a Datenlandkarte?

Um Daten im Unternehmen nutzbar zu machen und unter Governance zu bringen, müssen diese beschrieben und katalogisiert sein - und das aus fachlicher Sicht, die übergreifend über die gesamte Systemlandschaft gültig ist. Doch wie fängt man an? ... mit einer Datenlandkarte!

 

In diesem Workshop modellieren wir live gemeinsam eine Datenlandkarte anhand eines Use Cases, den gerne eine:r der Teilnehmer:innen einbringen darf.

 

Outline:

Was ist eine Datenlandkarte?

Nutzen einer fachlichen Unternehmens-Datenlandkarte

Live-Use Case - Modellierung Datenlandkarte

Überführung der Datenlandkarte in die fachliche Datenarchitektur

Katharina Menz ist Business Consultant bei dataspot. und Expertin für Data Governance und Fachliche Datenmodellierung. Insbesondere hat sie Erfahrung im Bereich High-Level Datenmodellierung, Referenzdatenmanagement und Kennzahlenmodellierung. Besonderen Wert legt sie auf die Unterstützung ihrer Kund:innen beim Schneiden von Datendomänen und Datenverantwortung für das Erstellen einer Datenlandkarte, um einen Überblick und ein Verständnis über zentrale Unternehmensdaten zu gewinnen.

Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.

Katharina Menz, Barbara Kainz
Katharina Menz, Barbara Kainz
Vortrag: SDmi1.1
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 11:00
Pause
Kaffee & Ausstellung / Coffee & Exhibition
Kaffee & Ausstellung / Coffee & Exhibition

11:00 - 12:30
Mi 1.2
Automatisierter Liquiditätforecast
Automatisierter Liquiditätforecast

USE CASE: DKV Mobility 

Das Tagesgeschäft der DKV Treasury-Abteilung ist von sehr hohen Ein- und Auszahlungen geprägt. Damit das Unternehmen weiterhin erfolgreich agieren und zahlungsfähig bleiben kann, ist eine gute operative Planung essenziell. In Zusammenarbeit mit avantum wurde diese Planung auf das nächste Level gehoben. Mithilfe von intelligenten Machine-Learning-Methoden wird täglich eine Prognose der Liquidität für die kommenden Wochen auf Tagesbasis erstellt. Wir stellen Ihnen die Ausgangslage, die Herausforderungen und die Lösungen vor. 

Zielpublikum: Data Scientist, Controller, Planner, Finance, DWH Architects, Project Manager, CFO 
Voraussetzungen: Basiswissen 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Fortführung des obigen Abstracts: [...] Die Planungslösung wurde mit einer Software auf Basis von IBM Planning Analytics with Watson und dem IBM SPSS Modeler implementiert. Zur Erhöhung der Prognosegüte wurden externe Variablen eingefügt und Muster in den Zahlungen der einzelnen Cashflow-Kategorien untersucht. In diesem Vortrag stellen wir Ihnen die Ausgangslage, die Herausforderungen und die Lösungen vor. 

Thomas Olak ist Consultant bei der avantum consult GmbH. Seit 2020 berät er Kunden in diversen Predictive-Analytics- sowie Data-Science-Projekten. Sein Fokus liegt neben der Datenmodellierung vor allem auf der Prognose von Finanzkennzahlen und Predictive Maintenance.

Daniel Sabel ist Treasurer beim DKV EURO SERVICE GmbH + Co. KG mit dem Fokus auf das zentrale Liquiditäts- und Währungsmanagement, M&A Integration, verschiedene Projektarbeiten sowie der Weiterentwicklung der Treasury-Abteilung. Zuvor war Daniel bei KPMG im Finanz- und Treasury-Management für verschiedene nationale und internationale Projekte zuständig.

Die Automobilindustrie auf dem Weg zu einer KI-basierten Vertriebssteuerung
Die Automobilindustrie auf dem Weg zu einer KI-basierten Vertriebssteuerung

Die KI hält Einzug in vielen Bereichen der Autoindustrie, insbesondere autonomes Fahren oder intelligente Fertigungssysteme stehen im Fokus. Aber auch abseits dieser Hot Topics schreitet die datenbasierte Revolution voran. In diesem Vortrag legen wir den Fokus auf die Vertriebssteuerung. 
Die Möglichkeiten eines datenbasierten Vertriebs aber auch die Herausforderungen auf dem Weg dorthin werden anhand einer konkreten Initiative bei unserem Mutterkonzern beleuchtet.

Hierbei beleuchten wir vor allem die Etablierung einer konzernweiten digitalen Plattform, die sowohl die Zentrale als auch die Märkte bei Reporting und Steuerung ihres Vertriebsgeschäfts unterstützt. Dabei ermöglicht die Plattform auf sämtliche vertriebsrelevante Daten (Sales, Finance, Wettbewerb) in einem Tool zuzugreifen und diese verknüpft auswerten zu können. Die Lösung wird zudem Schritt-für-Schritt interaktiver und intelligenter gestaltet, um KI-basierte Prognosen und Empfehlungen zu ermöglichen. 

Als Fazit wollen wir aufzeigen, wie ein lernendes und flexibles Ökosystem aussehen könnte und welcher Weg für die Industrie ein sinnvoller sein könnte, um eine flexible, KI-basierte und maßgeschneiderte Vertriebssteuerung zu etablieren.

Zielpublikum: alle Interessierte
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Dr. Maximilian Hausmann ist Principal und Leiter des Data Science & Strategy Teams bei rpc - The Retail Performance Company, einem Joint Venture der BMW Group und der h&z Unternehmensberatung. Er arbeitet an der Schnittstelle zwischen Business und IT und entwickelt gemeinsam mit seinem Team kundenzentrierte Datenstrategien und generiert mit den richtigen Use Cases echten Mehrwert. Seit mehr als 12 Jahren berät er Unternehmen aus den unterschiedlichsten Branchen und unterstützt sie auf dem Weg zum datengetriebenen Unternehmen.
Als Berater, Trainer und Coach unterstützt Dr. Maximilian Hausmann seine Kunden bei der Konzeption und Umsetzung von unternehmensweiten Datenstrategien und befähigt Mitarbeiter, die Chancen einer datengetriebenen Arbeitsweise zu nutzen.

Bruce Jeong ist Principal und verantwortet den Bereich Digital Products & Solutions bei rpc - The Retail Performance Company, einem Joint Venture der BMW Group und der h&z Unternehmensberatung. 
Er bringt langjährige Erfahrung mit, um Unternehmen bei der Hebung von Data Assets zur Optimierung von Geschäftsprozessen zu unterstützen und robust für die Zukunft auszurichten. Hierbei sind die Themen rund um die digitale Transformation ein treibender Faktor. Gerade in Zeiten, wo Wissen schnell an Wert verliert und volatile und disruptive Anforderungen die Positionierung und Erfolg eines Unternehmens stark beeinflussen, ist es notwendig eine fluide und lernende Organisation im digitalen Wandel intelligent auszurichten und die notwendige Transformation dazu umzusetzen.

Thomas Olak, Daniel Sabel
Maximilian Hausmann, Bruce Jeong
Thomas Olak, Daniel Sabel

Vortrag Teilen

Maximilian Hausmann, Bruce Jeong
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:30
Mi 2.2
Cloud move of BIA solutions in a global corporation
Cloud move of BIA solutions in a global corporation

In globally operating organisations, M&A business often leads to disruptive changes in the system landscape. This was also the case at Galderma, where BIA solutions had to be completely restructured and transferred from legacy systems to the cloud within a very short period of time. The presentation shows the challenges and the organisation of such projects with geographically very distributed resources. 

Target Audience: Data Engineer, Project leader, decision makers, ... 
Prerequisites: Basic knowledge and experience in Data Warehousing and Cloud Services 
Level: Basic 

Marc Gschwind studierte Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz. Nach sechs Jahren als Applikationsentwickler und Projektleiter, war er seit 2013 im Data Warehouse Umfeld in verschiedenen Rollen tätig. Als Data Automation Engineer bei der biGENIUS AG entwickelt er die Software vor allem im Bereich der Cloud-Zielsysteme weiter und unterstützt Kunden sowie Partner bei der erfolgreichen Umsetzung von biGENIUS-Projekten.

Gregor Zeiler ist seit dreißig Jahren in verschiedenen Funktionen in der Business Intelligence-Beratung tätig. Im Zuge seiner beruflichen Tätigkeit konnte er umfangreiche Projekterfahrung in vielen Branchen und auf Basis eines breiten Technologiespektrums sammeln. Zahlreiche Publikationen und Vorträge begleiten seine berufliche Tätigkeit. Als CEO bei biGENIUS AG kommt er seiner Passion die Prozesse in der Entwicklung von Data Analytics Lösungen zu optimieren nach.

Marc Gschwind, Gregor Zeiler
Marc Gschwind, Gregor Zeiler
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:30
Mi 4.2
World Café
World Café

flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:30
Mi 5.2
Data Mesh - Datenmanagement auf den Kopf gestellt?
Data Mesh - Datenmanagement auf den Kopf gestellt?

Data Mesh ist heute DER Trend im Datenmanagement. Es wendet Microservice-Architekturansätze auf jede Art von Datenverarbeitung an und betrifft so auch Data Warehouses oder Data Lakes. 

Publikationen erschöpfen sich heute oft noch in der Betrachtung der - sicherlich wichtigen - kulturellen und organisatorischen Auswirkungen. 

Wir zeigen zudem auch live anhand eines konkreten Beispiels, wie Data Engineering, Data Governance, Data Warehousing etc. davon beeinflusst wird, wie eine konkrete Lösung aussehen kann und welche Hürden dabei zu nehmen sind. 

Zielpublikum: Digitalization Specialists, Enterprise and Solution Architects, Data Engineers, Data Scientists, Project Leaders, Decision Makers 
Voraussetzungen: Basic knowledge  in: Data Management, Data Warehousing, Lösungsarchitekturen 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Data Mesh ist ein relativ neues Konzept, das sich seit 2020 zu einem der am schnellsten wachsenden Trends entwickelt hat. Es erweitert den Paradigmenwechsel, der durch die Microservices-Architekturen eingeleitet wurde, und wendet ihn auf Datenarchitekturen an, die agile und skalierbare Analysen und maschinelles Lernen oder Künstliche Intelligenz ermöglichen - und beeinflusst somit auch das DWH.  

Data Mesh ist keine Technologie, sondern eine Praxis ... eine recht komplexe Praxis. Es ist eine neue Art, Daten, Data Engineering und alle damit verbundenen Prozesse zu betrachten, d. h. Data Governance, Datenqualität, Auditing, Data Warehousing und maschinelles Lernen. Es verändert die Perspektive, wie wir Daten in einem Unternehmen betrachten, völlig: Wir sind es gewohnt, sie von einem technischen Standpunkt aus zu betrachten, also wie man sie verwaltet, speichert, verarbeitet, welches ETL-Tool eingesetzt wird usw. Data Mesh dreht das auf die Geschäftsperspektive und hält dazu an, mit ihnen umzugehen, als wären sie echte Vermögenswerte, oder schlicht: als wären sie ein Produkt.  

Spannend, aber was bedeutet das? Wie genau setze ich einen Data Mesh um und wie unterscheidet es sich von bekannten Ansätzen wie DWH, Data Mart, Data Lake und Data Hub in der Praxis? Ist Data Mesh etwas für mich und mein Unternehmen und wenn ja, warum sollte ich es tun? Wie steht Data Mesh zu operativen Systemen? Lassen sich moderne, streaming- bzw. event-basierte Architekturen mit Data Mesh kombinieren? Wie gehe ich vor, wenn ich Data Mesh im Unternehmen einführen will?   

In unserem Vortrag gehen wir auf diese und weitere Fragen ein.  

Vor allem aber zeigen wir in einer Live-Demo ein End-2-End-Beispiel, welches die konkrete Umsetzung eines Data Mesh in der Praxis zeigt. Die Technologien und Services, auf welchen die Dataprodukte basieren, sind dabei ebenfalls ein Thema. 

Guido Schmutz ist seit über 30 Jahren als Software-Entwickler, Berater, Architekt, Trainer und Coach tätig. Heute arbeitet er als Platform Architect für das IT-Dienstleistungsunternehmen Trivadis - Part of Accenture. Sein Interesse liegt in der Architektur, dem Design und der Umsetzung von modernen Software-Lösungen. Seit einigen Jahren beschäftigt er sich hauptsächlich mit Big Data & Fast Data und der Frage, wie sich diese neuen Technologien optimal in eine moderne Datenplattform integrieren lassen. Er ist regelmäßiger Sprecher auf internationalen Konferenzen und ist bekannt als Autor von Fachartikeln und diversen Fachbüchern.

Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.

Guido Schmutz, Peter Welker
Guido Schmutz, Peter Welker
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:30
Mi 6.2
Ten Practical Guidelines for Designing Data Architectures
Ten Practical Guidelines for Designing Data Architectures

Often, existing data architectures can no longer keep up with the current 'speed of business change'. As a result, many organizations have decided that it is time for a new, future-proof data architecture. However, this is easier said than done. In this session, ten essential guidelines for designing modern data architectures are discussed. These guidelines are based on hands-on experiences with designing and implementing many new data architectures. 

Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists 
Prerequisites: General knowledge of databases, data warehousing and BI 
Level: Advanced 

Extended Abstract: 
Many IT systems are more than twenty years old and have undergone numerous changes over time. Unfortunately, they can no longer cope with the ever-increasing growth in data usage in terms of scalability and speed. In addition, they have become inflexible, which means that implementing new reports and performing analyses has become very time-consuming. In short, the data architecture can no longer keep up with the current 'speed of business change'. As a result, many organizations have decided that it is time for a new, future-proof data architecture. However, this is easier said than done. After all, you don't design a new data architecture every day. In this session, ten essential guidelines for designing modern data architectures are discussed. These guidelines are based on hands-on experiences with designing and implementing many new data architectures. 

  • Which new technologies are currently available that can simplify data architectures? 

  • What is the influence on the architecture of e.g. Hadoop, NoSQL, big data, data warehouse automation, and data streaming? 

  • Which new architecture principles should be applied nowadays? 

  • How do we deal with the increasingly paralyzing rules for data storage and analysis? 

  • What is the influence of cloud platforms? 

Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.

Rick van der Lans
Rick van der Lans
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:30
Mi 7.2
Der Einfluss von Computer Vision Systemen auf das Wertangebot von Unternehmen
Der Einfluss von Computer Vision Systemen auf das Wertangebot von Unternehmen

Der Einsatz hochauflösender Bildsensoren sowie deren konstante Vernetzung über das Internet der Dinge bildet die Grundlage für viele neue Anwendungsszenarien im Spannungsfeld von Computer Vision Systemen. Beispiele lassen sich unter anderem in der Landwirtschaft, der Fertigung, dem Bereich des autonomen Fahrens oder im Gesundheitswesen finden. Doch wie wirkt sich der Einsatz solcher Systeme auf das Wertangebot von Unternehmen aus? Wann ist die aufwendige und teils kostspielige Implementierung in die Unternehmensprozesse ökonomisch sinnvoll? Diese Fragestellung wurde mittels eines Qualitativen Forschungsansatzes betrachtet und analysiert. Dabei stellte sich die Erhöhung der Qualität, die Reduzierung der Kosten sowie die Effizienzsteigerung, als die meist priorisierten Ziele der befragten Experten heraus.

Sebastian Trinks ist wissenschaftlicher Mitarbeiter und Doktorand am Institut für Wirtschaftsinformatik an der TU Bergakademie Freiberg. Seine Forschungsinteressen sowie der Schwerpunkt seiner Dissertation liegen im Spannungsfeld der Industrie 4.0 sowie der Smart Factory. Herr Trinks forscht in diesem Kontext zu Themen aus den Bereichen Image Processing, Computer Vision, Real Time Analytics sowie Edge Computing.

Auf dem Weg von Business Intelligence zur Business und Location Intelligence – Neue Anwendungsfälle, Chancen und Herausforderungen
Auf dem Weg von Business Intelligence zur Business und Location Intelligence – Neue Anwendungsfälle, Chancen und Herausforderungen

Die zunehmende Verfügbarkeit orts- und raumbezogener Daten durch mobile und stationäre telemetrische Sensorik, durch Fernerkundung, IoT, Citizen Science u.a.m. führt zum Übergang von Big Data zu Spatial Big Data. Damit einhergehende Nachfrage nach immer echtzeitnäheren und endanwendertauglicheren Auswertungen in Verwaltung und Privatwirtschaft transzendiert die Business Intelligence zur Business & Location Intelligence. Entsprechende Werkzeuge verbinden klassische BI-Funktionalitäten mit Funktionen aus GIS/GDI, Geostatistik, Augmented Analytics und Spatial Data Mining. Dies führt zu neuen Herausforderungen und zu erschwerten Varianten bekannter Fragestellungen für BI-Tools in den Bereichen Nutzerführung und Gebrauchstauglichkeit, Datenmanagement & Data Engineering wie auch Anwendungsfälle zur räumlichen Entscheidungsunterstützung. Im vorgeschlagenen Vortrag möchten wir die Entwicklungsgeschichte der Datenanalyseplattform Disy Cadenza in Richtung eine vollwertigen BI- und LI-Plattform skizzieren und aktuelle wie auch mögliche zukünftige Ideen und Fragestellungen für Weiterentwicklungen und Forschungsvorhaben in den o.g. Themenfeldern diskutieren.

Sebastian Trinks
Andreas Abecker
Sebastian Trinks
Vortrag: Mi 7.2-1

Vortrag Teilen

Andreas Abecker
Vortrag: Mi 7.2-2
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:30
SDmi1.2
Wie geht Fachdatenmodell? Und was ist das überhaupt?
Wie geht Fachdatenmodell? Und was ist das überhaupt?

Wieso kann man nicht einfach die physischen Datenmodelle als Unternehmensdatenmodell verwenden? Wie unterscheidet sich ein Fachdatenmodell von einem Datenbankmodell? Welches Vorgehen ist notwendig, um für ein unternehmensweites Gesamtverständnis aller Unternehmensdaten zu sorgen? Und wieso kann nur das Fachdatenmodell die Grundlage für Data Governance sein?

 

Diese und weitere Fragen werden in diesem Workshop beantwortet und anhand eines spontanen Teilnehmer:innen-Use Cases live gemeinsam modelliert.

 

Outline:

Was ist ein Fachdatenmodell?

Anwendungsfälle und Nutzen des Fachdatenmodells

Live-Use Case - Modellierung Fachdatenmodell

Defintion der Data Governance Aspekte auf Basis des Fachdatenmodells

Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.

Katharina Menz ist Business Consultant bei dataspot. und Expertin für Data Governance und Fachliche Datenmodellierung. Insbesondere hat sie Erfahrung im Bereich High-Level Datenmodellierung, Referenzdatenmanagement und Kennzahlenmodellierung. Besonderen Wert legt sie auf die Unterstützung ihrer Kund:innen beim Schneiden von Datendomänen und Datenverantwortung für das Erstellen einer Datenlandkarte, um einen Überblick und ein Verständnis über zentrale Unternehmensdaten zu gewinnen.

Wanja Eiche ist Senior Consultant bei dataspot. Er setzt sich im Projektgeschäft mit Fragestellungen an der Schnittstelle zwischen Fachbereich und Technik auseinander und erarbeitet kundenindividuelle Lösungen. Seine Erfahrungen kommen dabei im gesamten Lebenszyklus von Metadaten und Data Governance zur Geltung, wobei er besonderen Wert auf Datenmodellierung, das Metadatenmanagement und Schulungsthemen legt.

Barbara Kainz, Katharina Menz, Wanja Eiche
Barbara Kainz, Katharina Menz, Wanja Eiche
Vortrag: SDmi1.2
flag VORTRAG MERKEN

Vortrag Teilen

12:30 - 14:00
Pause
Mittagessen & Ausstellung / Lunch & Exhibition
Mittagessen & Ausstellung / Lunch & Exhibition

13:15 - 13:45
CSmi1
Zentralisierung einer diversifizierten Applikations- & ERP-Landschaft mit Hilfe von Modern Middleware
Zentralisierung einer diversifizierten Applikations- & ERP-Landschaft mit Hilfe von Modern Middleware

Vortrag: CSmi1
flag VORTRAG MERKEN

Vortrag Teilen

13:15 - 13:45
CSmi2
Self-service insights on demand for all at Frontify
Self-service insights on demand for all at Frontify

To improve business outcomes, SaaS software provider Frontify aimed to empower all its 200 employees with fast, self-service insights from one version of data truth. To this end, Frontify’s data team migrated from its legacy infrastructure to a low-latency, modern data stack comprising Snowflake, Fivetran, and ThoughtSpot, and is on a mission to drive adoption and business impact. - “Data for all” is now well within reach.

Sibel is an experienced data leader with a demonstrated history of working in technology companies in various industries, including Frontify, Ava Women, eBay and PayPal. She has a deep understanding of the data technology space and analytics methodologies. She is passionate about building powerful data capabilities, has a deep focus on data quality, and is a strong advocate for data literacy.

In case you don't know Cindi, she is a fantastic data analytics thought leader and expert with a flair for bridging business needs with technology.   As Chief Data Strategy Officer at ThoughtSpot, she advises top clients and partners on data strategy and best practices to become data-driven. Cindi is also host of the Data Chief Podcast, a top 10 podcast in the data and analytics category. Cindi was previously a Gartner research Vice President, as the lead author for the data and analytics maturity model and analytics and BI Magic Quadrant, and a popular keynote speaker.  She introduced new research in data and AI for good, NLP/BI Search, and augmented analytics and brought both the BI bake-offs and innovation panels to Gartner globally. She’s rated a top 12 influencer in big data and analytics by Onalytca, Solutions Review, Humans of Data.  Prior to joining Gartner, she was the founder of BI Scorecard, a resource for in-depth product reviews based on exclusive hands-on testing, a contributor to Information Week, and the author of several books including Successful Business Intelligence: Unlock the Value of BI & Big Data and SAP BusinessObjects BI 4.0: The Complete Reference.  She served as The Data Warehousing Institute (TDWI) faculty member for more than a decade.  Prior to founding BI Scorecard, Howson was a manager at Deloitte & Touche and a BI standards leader for Dow Chemical in Switzerland.

Sibel Atasoy Wuersch, Cindi Howson
Sibel Atasoy Wuersch, Cindi Howson
Vortrag: CSmi2
flag VORTRAG MERKEN

Vortrag Teilen

13:15 - 13:45
CSmi3
Mastering Data and AI with Dataiku
Mastering Data and AI with Dataiku

Shamim works as a Senior Data Engineer at Data Reply. He specializes in building Data Pipelines, Data Lakes and  Kubernetes architecture and development. He has also worked on building end to end Machine Learning pipelines for production-grade machine learning applications.
 

Shamim Ahmed
Shamim Ahmed
Vortrag: CSmi3
flag VORTRAG MERKEN

Vortrag Teilen

13:15 - 13:45
CSmi4
Supercharge Your Data Knowledge with Agile Data Intelligence
Supercharge Your Data Knowledge with Agile Data Intelligence

In this joint session presented by Ramesh Shurma, CEO, Orion Governance and Timm Grosser, Senior Analyst Data & Analytics at BARC, we will share the newest 2022 BARC findings. 

For highly distributed data landscape with growing data volumes, extensive data movement is not a viable concept. Data warehouse, data lakes, data lakehouses approaches are reviewed and experts discuss modern concepts such as data fabric. These have the objective of reducing the complexity and scope of data processes while increasing flexibility and agility. It also aims to simplify data access and use, especially for business users.

Our survey (BARC Data Black Holes, 2021) concludes that it is mainly a lack of available documentation and explicit knowledge  that stands in the way of achieving these goals. Such explicit knowledge is available extensively in the organization, namely in the form of metadata, but collecting metadata is a difficult and time-consuming process. Without a smart and automated approach, it is doomed to fail. This is where Agile Data Intelligence comes in. Similar to how Data Fabric helps stitch together the organization's business data landscape, agile data intelligence is the corresponding metadata fabric. In this presentation, we'll talk about Agile Data Intelligence's three core capabilities for building a Metadata Fabric. They lend a Data Intelligence Platform the necessary agility to be operated effectively and efficiently.

Timm Grosser is a Senior Analyst Data & Analytics at the Business Application Research Center (BARC) with a focus on Data & Analytics.

His core competencies are the definition of data & analytics strategies, data governance, organization, architecture and tool selection. He is a well-known speaker at conferences and seminars and author of numerous BARC market studies and professional articles.

Ramesh Shurma is the founder and CEO of Orion Governance Inc.  Prior to starting Orion, Ramesh developed his expertise by working in very data intensive environments as an enterprise architect, application architect, and senior consultant and programmer with a very strong business and technology focus.  His vertical market experience spans across Financial Services, Healthcare, Retail and Electronic Design Automation.  His Silicon Valley roots taught him the valuable lesson of innovation and customer service.  The motivation behind Orion was to solve a real-world need that most of the other companies had overlooked in favor of an unreliable manual approach.  The road less traveled, where people dared to tread, but was taken in the spirit of innovation, that is Orion Governance today.  Under his hard work, the team has grown to multiple millions in revenue in a short period of time.  He is fluent in multiple languages including French, Hindi and English.  His hobbies include aviation, traveling and having his three dogs take him on daily walks.

Timm Grosser, Ramesh Shurma
Timm Grosser, Ramesh Shurma
Vortrag: CSmi4
flag VORTRAG MERKEN

Vortrag Teilen

13:15 - 13:45
CSmi5
Our Data Science Journey at Sappi: From RCA to Auto Model Monitoring
Our Data Science Journey at Sappi: From RCA to Auto Model Monitoring

Data science lead with over 10 years’ experience helping global corporations extract business value by making decisions based on data.
Wide-ranging experience covering consumer analytics, digital marketing, personalized customer experiences, data management and machine learning.

In my current role leading a team of data scientists at Sappi, I am particularly interested in applying data science to optimize the papermaking process by reducing costs & waste, improving product quality, optimizing tasks and prolonging equipment lifespans.

Mark Bowe
Mark Bowe
Vortrag: CSmi5
flag VORTRAG MERKEN

Vortrag Teilen

13:15 - 13:45
CSmi6
Case Study SingleStore
Case Study SingleStore

Vortrag: CSmi6
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 1.3
Cloud-basierte Plattform für Datenintegration und Datenaustausch
Cloud-basierte Plattform für Datenintegration und Datenaustausch

Ein live Use-Case aus der Immobilienwirtschaft: 

Durch die gewachsenen, vielfältigen, teils proprietären Systemlandschaften bestehend aus diversen Applikationen und Lösungen, stehen Unternehmen branchenübergreifend vor den großen Herausforderungen einer effizienten Systemarchitektur, Schnittstellenkonfiguration, sowie eines qualitätsgesicherten, homogenen Datenaustauschs. Wir haben uns diesen Herausforderungen angenommen. 

Der Trend geht von einem monolithischen Aufbau der Systemlandschaft in Richtung Micro-Services für mehr Autonomie, Skalierbarkeit und einer gesteigerten Datenqualität durch Automatisierung.  

Gemeinsam mit unserem Kunden BMO Real Estate Partners Germany freuen wir uns Ihnen live einen intelligenten Lösungsansatz – eine Cloud-Basierte Plattform für Datenintegration und Datenaustausch – vorzustellen. Dank der agil entwickelten Anwendung namens IP:X konnten wir fehleranfällige, manuelle Prozesse zur Datenvalidierung von Mietvertragsdaten und Finanzinformationen der Immobilienportfolios durch vielfältige Automatisierungen ablösen. Neben der ausgezeichneten Datenqualität profitieren die Teams der Property-, Fonds- und Asset-Manager ebenso, wie das Datenmanagement nun von einer Reduktion der prozessualen Durchlaufzeiten und einer erheblichen Effizienzsteigerung. 

In unserem Anwendungsfall verwenden wir eine effizient verzahnte Kombination aus gegenwärtig modernsten und solidesten Technologien: MEAN Stack (IBM Cloudant, Express, Angular, Node.js) im IBM Cloud Umfeld (Continuous Integration / Continuous Delivery, git, IBM Cloud Functions, Cloudant (NoSQL), REST API, Auth0). 

Als ein Early-Adopter beleuchten wir das Zusammenspiel der jeweiligen Technologien, sowie die insgesamt erreichte Effizienzsteigerung und teilen hilfreiche Erfahrungswerte – auch zur agilen Entwicklungsmethode per CI/CD (Continuous Integration/Continuous Delivery). 

Zielpublikum: Project leader, decision makers, Cloud Experts
Voraussetzungen: Basic knowledge in Cloud, Continuous Integration / Continuous Delivery. Experience in integration and exchange platforms 
Schwierigkeitsgrad: Advanced 

Alexander Gusser ist als Lead Expert Innovation & Technology für Business Intelligence und Data Analytics Projekte bei GMC² verantwortlich. Leidenschaftlich kombiniert er innovative Technologien miteinander und findet auf kreative und experimentelle Art neue Ansätze, um fachliche und technologische Herausforderungen erfolgreich zu lösen. 
Besonders reizt ihn das Spannungsfeld zwischen der Entwicklung eines ganzheitlichen Lösungskonzepts und der hands-on Umsetzung, sowie dem tatsächlichen Go-live.  

Holger Gerhards ist Gründer und geschäftsführender Gesellschafter der Business Intelligence und Data Analytics Beratung GMC² GmbH. Seit über 30 Jahren ist er im BI Kontext beratend tätig und für seine Kunden von Mittelstand bis Konzern im Einsatz. Gemeinsam mit seinem erfahrenen, interdisziplinären Team entwickelt er optimale BI-Strategien und findet passgenaue Lösungen. 
Laut Gerhards sollten Entscheidungen intelligent und datengestützt sein. Gekonntes Information Design und eine aussagekräftige Datenvisualisierung liegen ihm dabei besonders am Herzen. Als Mitglied der IBCS® Association und als IBCS®-zertifizierter Consultant gibt er Impulse für zukunftsfähiges Reporting und Dashboarding. 
 

André Tischer verantwortet als Director Corporate Development und Schlüsselperson die digitale Transformation des Fonds- und Immobilienunternehmens BMO Real Estate Partners Germany. Zusammen mit seinem Team entwickelt er wegweisende Lösungen für eine zukunftsfähige, agile Unternehmenssteuerung. 
Einen besonderen Fokus legt er dabei auf das stetige Hinterfragen von Geschäftsprozessen, das Suchen nach innovativen Verbesserungsmöglichkeiten und deren zielgerichtetes Implementieren. Hierbei sollte stets der Mensch, sein Wesen und sein Handeln in den Fokus gerückt werden. Denn nur dadurch lassen sich aus Ideen - füreinander und miteinander - Lösungen zufriedenstellend gestalten. 

Alexander Gusser, Holger Gerhards, André Tischer
Alexander Gusser, Holger Gerhards, André Tischer
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 2.3
World Café - Data Management
World Café - Data Management

Vortrag: Mi 2.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 3.3
Merging User Research with Data Analytics – how adding a customer centric view into the analytics advances insights driven data culture
Merging User Research with Data Analytics – how adding a customer centric view into the analytics advances insights driven data culture

Data Analysts and Data Scientists invest an immense amount of time into optimizing models and interpreting data, all in the quest to promote better business decision making and more efficient product development. We oftentimes however fail to take a step back and answer the overarching question: Why does the user show the observed behavior pattern? Why does a certain variable improve the accuracy of our prediction model? Despite all the advances we have made in analytics, even predictive analytics and ML models cannot truly answer what the user was thinking and why they act in a certain way. 

Adding the customer perspective into the insights equation opens up a whole new perspective on this problem. As a consequence, XING merged the User Research and Analytics departments to create a more holistic approach to insights generation. This presentation walks through the problem statements, the differences in the professional fields (analytics and research) and how the individual segments of both disciplines are complementary and lead to a more user centric decision making organization.

Target Audience: anyone open to thinking outside of the regular patterns of analytics and AI/DS 
Prerequisites: none 
Level: Basic 
 

Marc Roulet is Director of Analytics, Research and SEO at XING, the leading business networking platform in Germany. In this role he supports the top management, business managers, product teams and marketing with insights to drive performance. This includes quantitative and qualitative user research, experimentation, forecasting, KPI definition, data visualization and analytical deep dives. A data evangelist at heart, Marc is dedicated to promoting a truly data driven mindset within the organization, breaking down complex data material into digestible and actionable insights for the business. Prior to his role at XING Marc worked in various leadership positions in the eBay Classifieds Group, at mobile.de and at ImmobilienScout24 in Business Development and as a Marketing and Sales Analyst. Marc started his career at eBay as a Business Analyst in the Trust and Safety Department, analyzing buyer and seller behavior and deriving seller standards.

Marc Roulet
Marc Roulet
Vortrag: Mi 3.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 4.3
Betrugserkennung in der gesetzlichen Krankenversicherung
Betrugserkennung in der gesetzlichen Krankenversicherung

Der Einsatz von Künstlicher Intelligenz zur Betrugserkennung bei Heilmittel- und Pflegeleistungen in der gesetzlichen Krankenversicherung. Von der Pseudonymisierung und Digitalisierung der Abrechnungsbögen bis zur Analyse, Auswertung und Darstellung der Anomalien - Ein Projektbericht! 

Zielpublikum: Management, Data Scientists, Data Engineers 
Voraussetzungen: Experience, Curiosity 
Schwierigkeitsgrad: Fortgeschritten

Team Lead and Business Development in several companies.

Team Lead, Data Mining and Neural Network Specialist

How We Covered Concept Drifts In Public Transport Lockdowns
How We Covered Concept Drifts In Public Transport Lockdowns

The Coronavirus lockdowns altered public transport occupation data. Ultimately, these changes in occupation data are perfect examples of sudden concept drifts that can be blockers in most machine learning deployments. We managed to overcome the obstacles by developing methods and engineering features that allowed us to adjust forecasts based on unforeseen changes in the occupation data. In this talk, we give insights into our journey from idea development to the ways how we overcame the challenges and share our learnings. 

Target Audience: Data Engineers, Software Architects, AI Architects, Data Scientists 
Prerequisites: Experience in Time Series. Basic understanding of machine learning 
Level: Expert 

Extended Abstract: 
Machine learning projects often view and predict a snapshot interval of reality. We machine learning engineers often forget that the real world is not static at all.  

After all, we got hit by the Coronavirus reality rendering countless machine learning models useless.  

The changes in public transport occupation out of Corona lockdowns is a perfect example of these so-called concept drifts. 

The instability of the machine learning models when concept drifts are appearing result in immense problems for the reliability and predictability of the AI.  

Therefore, we dig into this problem and show how we solved this challenge for the case of concept dirfts in public transport occupations. 

Dr. Tim Frey is co-founder of the company iunera GmbH and Co. KG. Among other things, he holds a PhD from the University of Magdeburg and loves to design data-driven scenarios and applications. His computer science background is in the area of Business Intelligence and platform architecture.

Maximilian Harms, Jürgen Hirsch
Tim Frey
Maximilian Harms, Jürgen Hirsch

Vortrag Teilen

Tim Frey
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 5.3
Über Low-Code zum Pro-Code: Der Weg zur App in Großprojekten
Über Low-Code zum Pro-Code: Der Weg zur App in Großprojekten

Wir beschreiben einen Weg der Digitalisierung und Automatisierung von manuellen Aufgaben in Fachabteilungen zu technisch ausgereiften Lösungen - mit Fokus auf die Zwischenstation Low-Code-Applikation und deren Vorteile für die Anwendungsentwicklung. Wie kann die Nutzung von Low-Code-Entwicklungsmöglichkeiten schnell die Datenqualität in Großprojekten erhöhen, ohne dabei gleichzeitig eine langfristige, stabile Lösung zu vernachlässigen, und welche Voraussetzungen braucht es dafür? 

Zielpublikum: Data Engineers, Projektmanager, Decision Makers, Data Specialists, Project Information Manager 
Voraussetzungen: Erfahrung in Datentransformation 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Typischerweise führen verschiedene Fachabteilungen in großen Unternehmen regelmäßig die gleichen, wiederkehrenden, datengetriebenen Aufgaben für verschiedene Projekte aus. Oft behelfen sich Nutzer hierbei mit Mehrzweck-Desktop-Applikationen wie z.B. Tabellenkalkulationen. 

In diesem Vortrag zeigen wir eine Möglichkeit, entsprechende Vorgänge zu digitalisieren und Teile zu automatisieren, ohne zu Beginn dieses Weges bereits alle einzelnen Facetten und Anforderungen in den verschiedenen Projekten eines Unternehmens zu kennen. Hierbei spielen Low-Code-Applikationen eine entscheidende Rolle - als Zwischenstationen auf dem Weg zu einer ausgereiften, aber auch aufwendigen Lösung. So können schnell Erfolge erzielt und die Datenqualität erhöht werden, während eine langfristige, stabile Lösung nicht aus den Augen verloren wird. 

Andreas Artinger arbeitet als Managing Consultant für das IT-Dienstleistungsunternehmen PRODATO Integration Technology GmbH. Seit 2017 berät er Kunden zu den Themen Datenintegration und Reporting sowie Low-Code-Applikationen und entwickelt Lösungen für datenzentrierte Fragestellungen in Großprojekten des Anlagenbaus.

Konstantin Leichte ist Master of Science in Systems Engineering und seit mehr als 10 Jahren für die Linde GmbH in Pullach tätig. Als Lead Data Manager beschäftigt er sich mit den Herausforderungen der Automatisierung, des Reportings und von Datentransfers für Großprojekte des Anlagenbaus.

Andreas Artinger, Konstantin Leichte
Andreas Artinger, Konstantin Leichte
Vortrag: Mi 5.3
Themen: Low Code
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 6.3
Die extra harten Kopfnüsse - mit SQL geknackt (V3.0)
Die extra harten Kopfnüsse - mit SQL geknackt (V3.0)

Torsten Ahlemeyer sammelt und löst unzählige Knobeleien rund um das Thema T-SQL. Immer geht es um Aufgaben, die extrem schnell zu erfassen, aber umso schwieriger zu lösen sind. Selbst erfahrene Developer scheitern oft bei der Ansatzsuche. Kennt man die Einfachheit der Lösung und blickt über den Tellerrand hinaus, sind plötzlich viele Herausforderungen des Entwickleralltags keine Hürde mehr. Diese Session ist eine unterhaltsame Lerneinheit in der kreativen Interpretation von Algorithmen - ohne dabei in die mathematische Theorie abzudriften. 

Zielpublikum: Entwickler, Analysten 
Voraussetzungen: Grundkenntnisse in SQL sind nicht zwingend notwendig, helfen aber beim Verständnis der zahleichen praktischen Anwendungen 
Schwierigkeitsgrad: Fortgeschritten 

Extended Abstract: 
Letztes Jahr haben wir hier Sudoku gespielt, sind Achterbahn gefahren, usw. Dieses Jahr wird es noch herausfordernder. Wir lösen u.a. den Zauberwürfel mit reinem T-SQL, bringen dem SQL-Server das Stottern bei und vieles mehr. Alle Aufgaben und Lösungen sind ohne Laptop zu verfolgen. Es geht um die kreative Anwendung von JOINs, Tipps & Tricks mit Rekursionen, die Wahl des 'richtigen' Datenmodells, außergewöhnliche Optimierungsansätze, den Wechsel des Blickwinkels ... 

Torsten Ahlemeyer realisiert seit über 18 Jahren Abrechnungs- und Stammdatenapplikationen in Großprojekten. Der Diplom-Wirtschaftsinformatiker hat als Entwickler angefangen und sich dann als Projektleiter in der Softwareentwicklung im Umfeld internationaler Projekte einen Namen gemacht. Die Microsoft-Technologie vom Betriebssystem über die Programmiersprachen war dabei in allen Projekten genauso gesetzt wie der MS-SQL-Server (SSAS, SSIS, SSRS, ...). Als IT-Consultant hilft Torsten Ahlemeyer Kunden der arelium GmbH hauptsächlich in der Rolle als Projektleiter, aber auch als Architekt, DB-Berater oder T-SQL-Spezialist bei der Umsetzung komplexerer Datenbankprojekte.

Torsten Ahlemeyer
Torsten Ahlemeyer
Track: #HandsOn
Vortrag: Mi 6.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 7.3
Ein Wegweiser durch den Dschungel analytischer Datenarchitekturen
Ein Wegweiser durch den Dschungel analytischer Datenarchitekturen

Data Warehouse, Data Lake, Date Lakehouse, Data Mesh, …, die Scene überwirft sich aktuell mit neuartigen Namen für analytisch Datenarchitekturen. Doch sind die diversen Ansätze wirklich so unterschiedlich? Muster und Mustersysteme haben sich insbesondere in der Softwareentwicklung als Mechanismus etabliert, komplexe Zusammenhänge in wiederverwendbare Bausteine zu zerlegen. Auch in der IT-Architektur gibt es bereits verbreitete Architekturmuster. Muster strukturieren die Darstellung verschiedener Ansätze üblicherweise in Kontext-, Problem- und Lösungsbeschreibungen. Mustersysteme arbeiten darüber hinaus Überlappungen und Abhängigkeiten heraus. In diesem Vortrag stellen wir ein Mustersystem für analytische Datenarchitekturen vor, methodisch basierend auf DAMA-DMBOK und ArchiMate. Die Struktur wird anhand von Praxisbeispielen illustriert.

Dr. Torsten Priebe ist Dozent für Big Data Analytics an der Fachhochschule St. Pölten und leitet dort die Forschungsgruppe Data Intelligence. Seine Forschungsinteressen liegen im Spannungsfeld von Datenmanagement, semantischen Technologien und Machine Learning. Zuvor verantwortete er den Bereich Business Intelligence bei Capgemini in Wien, arbeitete als Solution Architect bei Teradata und übernahm später die Position des CTO bei Simplity, einem auf Datenmanagement und Analytics spezialisierten Beratungshaus.

Panel
Panel

Dr. rer. pol. Henning Baars ist Akademischer Oberrat am Lehrstuhl für ABWL und Wirtschaftsinformatik 1 der Universität Stuttgart und Sprecher der Fachgruppe „Business Intelligence“ der Gesellschaft für Informatik. Seit 2003 ist er an der Universität Stuttgart beschäftigt. Aktuelle Forschungsthemen sind „Agile Business Intelligence“, „BI und Big Data“, „BI in the Cloud“ sowie „BI und Analytics im Internet of Things“.

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Dr. Ralf Finger arbeitet seit 1992 erfolgreich in Projekten zur Konzeption, Realisierung und Einführung individueller Business Intelligence, Analytics und Data Warehouse Lösungen für namhafte deutsche Großunternehmen. Aktuelle Beratungsschwerpunkte bilden strategische Technologieentscheidungen, Analytics Strategien sowie der Wertbeitrag von Datenstrategien. Dr. Finger studierte Betriebswirtschaft mit den Schwerpunkten Organisation und Unternehmensrechnung und promovierte in Wirtschaftsinformatik. Dr. Finger ist als CIIA und CEFA zertifizierter Finanzanalyst und Certified BI Professional (CBIP). Er ist Lehrbeauftragter für Business Intelligence an der Universität Stuttgart, Fachbeirat des TDWI (The Data Warehousing Institute e.V.) und TDWI Europe Fellow. Ferner ist er stellvertretender Sprecher der Arbeitsgruppe Smart Analytics in der Deutschen SAP Anwendergruppe e.V. (DSAG) und Mitglied des Leitungsgremiums der Fachgruppe Business Intelligence in der Gesellschaft für Informatik e.V. (GI). Dr. Finger ist Co-Author diverser Strategieleitfäden, so z.B. für SAP HANA Strategie sowie SAP Advanced Analytics der DSAG e.V. oder den TDWI Leitfäden zu Big Data und Cloud BI. 
Torsten Priebe
Henning Baars, Carsten Felden, Ralf Finger
Torsten Priebe

Vortrag Teilen

Henning Baars, Carsten Felden, Ralf Finger
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
KeyMi
KEYNOTE: VUCA-World on speed – keeping the promise of digitalization roadmaps in turbulent times
KEYNOTE: VUCA-World on speed – keeping the promise of digitalization roadmaps in turbulent times

For many years, technology gurus, transformation evangelists and many more have pictured a world that will dramatically change with incredible pace. Consequently, it was predicted that impacts on society, economy, environment, and political landscapes will leave no stone unturned. As a matter of fact, the current times feel as if these predictions have eventually become reality. The VUCA world is not only part of our daily life, but also even a nucleus in itself that demands resilience from individuals as well as societies and organizations. 
While climate change and pandemics seem to be part of the “new normal”, global conflicts get closer to the western world resulting in even more severe instabilities of supply chains, natural resource availabilities and much more - clearly stretching the long-held promise of a flourishing globalization. 
To avoid the “Uber yourself before you get Kodaked” pitfall, companies no matter what size are finding themselves coping with an environment that is certainly fiercer these days but at the same time allowing for new opportunities that need to be discovered and unlocked. But what’s the right strategy to capitalize on these opportunities if strategies itself are not even worth the paper written on? How to keep the pace with rapidly shortening technology lifecycles or tech innovations that don’t seem to deliver against their promise? Is it even worth to define comprehensive roadmaps on digital strategies and transformations? 
In his keynote, Thomas Kleine reflects on the value of defining digital roadmaps from a company perspective. He will incorporate not only his personal experiences but also refer to his employer’s journey over the last two years specifically propelled to the frontline of fighting the COVID-19 disease. What are the key learnings and what about the half-value time of these learnings if tomorrow comes with a completely different set of challenges? 

Since January 2017, Thomas Kleine has been CIO and Head of Digital at Pfizer Germany. He is a Master of Business Administration (MBA) and studied at the Universities of Osnabrück, Augsburg and Pittsburgh, PA. After graduating in 2001, he initially spent 5 years at KPMG Consulting/BearingPoint as a senior consultant before moving to Coca-Cola Germany in 2006. There he had various management positions within IT.

Thomas Kleine
Thomas Kleine
Track: #Keynote
Vortrag: KeyMi
flag VORTRAG MERKEN

Vortrag Teilen

Zurück