PROGRAMM

Die im Konferenzprogramm der TDWI München digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.

Nach Tracks filtern
Alle ausklappen
  • Montag
    21.06.
  • Dienstag
    22.06.
  • Mittwoch
    23.06.
09:00 - 10:00
KeyMo
KEYNOTE und Eröffnung
KEYNOTE und Eröffnung

Further information will follow shortly.

Track: Keynote
Vortrag: KeyMo
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:10
Short Break
Short Break
Short Break

10:10 - 10:50
Mo 1.1
Datenstrategie als Wegweiser in die Zukunft
Datenstrategie als Wegweiser in die Zukunft

Die Wertschöpfung durch Daten ist heute ein zentrales Thema. CDOs werden installiert, BICCs als zentrale Einheiten für die Schöpfung von Potenzialen aus Daten geschaffen. In der Operationalisierung stellt sich dann schnell heraus, dass es eine umfassende Datenstrategie benötigt wird.

Fragen nach: wie können wir Daten nutzen, um daraus direkt oder indirekt einen Mehrwert zu generieren häufen sich. Eine umfassende Datenstrategie gibt eine Antwort auf diese zukunftsweisende Frage.

Zielpublikum: CIO / CDO, Verantwortliche für datengetriebene Initiativen und Programme
Voraussetzungen: Ambitionen im Kontext datengetriebener Initiativen
Schwierigkeitsgrad: Fortgeschritten

Frau Dr. Kappler ist seit November 2020 als Data Governance Expertin im Team Data Strategy der DB Systel tätig. Sie verfügt über langjährige Erfahrung im Business und Digitalisierungsconsulting Bereich in diversen Konzernen. Ihre Beratungsschwerpunkte liegen im Bereich Datenstrategie und Data Governance sowie Aufbau und Implementierung datengetriebener Governance und Compliance Management Systeme.
Christoph Oberhokamp ist seit März 2017 als Datenstrategie Experte im Team Data Strategy bei der DB Systel tätig. Er verfügt über langjährige Erfahrung in der Erarbeitung von umfassenden Datenstrategien in diversen Geschäftsbereichen und Konzernen. Seine Beratungsschwerpunkte liegen neben der Erstellung neuer Strategie in der Begleitung der Strategieumsetzung, sowie dem Review bestehender Datenstrategien.
Daniela Kappler, Christoph Oberhokamp
Daniela Kappler, Christoph Oberhokamp
Vortrag: Mo 1.1
flag VORTRAG MERKEN

Vortrag Teilen

10:10 - 10:50
Mo 2.1
Daily regression in an enterprise data warehouse
Daily regression in an enterprise data warehouse

Over the last few decades, ETL and specially Datawarehouse testing has been gaining quite a bit of traction. The reason for that traction? The modern enterprise's dependency on data. This dependency calls for the right testing strategy to ensure the quality and correctness of the provided data. Further on the drive to lower 'time to data' and overall costs is putting high pressure on Test specialists to increase efficiency in this area. In this presentation I want to show you our journey to daily regression in our enterprise data warehouse.

Target Audience: Testers, Test Managers, Project Leaders, Decision Makers, Data Engineers, Managers
Prerequisites: none
Level: Basic

Extended Abstract:

Over the last few decades, ETL and specially data warehouse testing has been gaining quite a bit of traction. Especially given the emergence of Agile and DevOps as top trends in the software development industry. The reason for that traction? The modern enterprise's dependency on data.

This dependency calls for the right testing strategy and execution to ensure the quality and correctness of the provided data. 

Further on the drive to lower 'time to data' and overall costs is putting high pressure on Test specialists to increase efficiency in this area.

In this presentation I want to show you our journey to daily regression in our data warehouse. 

We improved our processes and changed our testing approach. We started with a quarterly regression test which took a whole testing team of 10 people 2 months to finish. 

Now we do the same on a daily basis within our agile team.

Chapter Lead Test EDWH; Test Automation Expert; Innovation Expert
Bernhard Frauneder
Bernhard Frauneder
Vortrag: Mo 2.1
flag VORTRAG MERKEN

Vortrag Teilen

10:10 - 10:50
Mo 3.1
The need for a unified big data architecture
The need for a unified big data architecture

Big data is not the biggest change in the IT industry but data usage. To become more data driven and to succeed with their digital transformation, organizations are using their data more extensively to improve their business and decision processes. Unfortunately, it is hard for current data delivery systems to support new styles of data usage, such as data science, real-time data streaming analytics, and managing heavy data ingestion loads. This session discusses a real big-data-ready data architecture.

Target Audience:
Data architects, data warehouse designers, IT architects, analysts, enterprise architects, solutions architects
Prerequisites: Some understanding of data architectures
Level: Advanced

Extended Abstract:

It is not big data that is the biggest change in the IT industry, it is data usage that has changed most drastically the last ten years. To become more data driven and to succeed with their digital transformation, organizations are using their data more extensively to improve their business and decision processes. This may mean that more data needs to be collected resulting in big data systems, but the goal remains to do more with data. Unfortunately, current data delivery systems don't have the right characteristics for supporting the requirements of big data systems, such as supporting data science, handling massive data streaming workloads, managing heavy data ingestion loads, and so on. Additionally, many organizations that are developing big data systems, are developing isolated data delivery systems, such as an isolated data lake, an isolated data streaming system, an isolated data services system, and so on. This avalanche of data delivery systems is not beneficial to the organization. The wheel is invented over and over again. It's time to design real big-data-ready data architectures. This session discusses such an architecture, including the supporting technologies, pros and cons.

Rick van der Lans is a highly respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. Rick has written hundreds of articles, blogs, books, and educational white papers. Recently he published his new book 'Data Virtualization: Selected Writings.'
Rick van der Lans
Rick van der Lans
Vortrag: Mo 3.1
flag VORTRAG MERKEN

Vortrag Teilen

10:10 - 10:50
Mo 4.1
Aktuelle Einsatzmöglichkeiten von KI in Versicherungen
Aktuelle Einsatzmöglichkeiten von KI in Versicherungen

Der Vortrag präsentiert aktuelle Entwicklungen in der Anwendung von KI im Versicherungsbereich. Konkrete Einsatzszenarien und Erfahrungen aus der Praxis zeigen, wie durch Analyse von Daten aus heterogenen Quellen neue Produkte und Services entwickelt, sowie Prozesse und Planungen optimiert werden können und zeigen die Potenziale für den Einsatz von KI in Versicherungen. Aktuelle Chancen und Herausforderungen des Einsatzes von KI in Unternehmen werden diskutiert, insbesondere die zunehmenden Erwartungen an eine transparente und faire KI.

Zielpublikum: Softwareentwickler, Architekten, Projektleiter in der Finanzbranche
Voraussetzungen: Grundsätzliche Kenntnisse über die Methoden der Künstlichen Intelligenz
Schwierigkeitsgrad: Anfänger

Extended Abstract:

1) Smart Data Analytics im Versicherungsbereich: aktuelle Entwicklungen in der datenbasierten Digitalisierung
2) Konkreten Einsatzszenarien für Data Science und Methoden der Künstlichen Intelligenz in datengetriebenen Geschäftsprozessen
3) Neue Produkte und Services mittels unternehmensübergreifender Analyse von Daten aus heterogenen Quellen
4) Optimierung von Prozessen und Planungen
5) Relevante technische Ansätze und Erfahrungen aus der Praxis.

Director Research Projects (Fraunhofer ISST); Professor & Direktor, Institut Softwaretechnik (Uni Koblenz); Program Management Board, Fraunhofer-Initiative 'International Data Spaces'. Vorher: Professor für Software Engineering (TU Dortmund), Senior Member/Research Fellow (Robinson College, Uni Cambridge), Royal Society Industrial Fellow (Microsoft Research Cambridge), Postdoc (TU München), PhD Informatik (Uni Oxford), Dipl.Math. (Uni Bremen).
In seiner Rolle als Referatsleiter im Geschäftsprozessmanagement koordinierte Dr. Norman Riegel u.a. die strategische Weiterentwicklung von Prozessmanagement innerhalb der Debeka. In seiner jetzigen Position als Leiter der Abteilung Business Analytics ist er verantwortlich für die Entwicklung des konzernweiten Data Warehouse sowie die Themen Advanced Analytics und Robotic Process Automation.
Jan Jürjens, Norman Riegel
Jan Jürjens, Norman Riegel
Vortrag: Mo 4.1
flag VORTRAG MERKEN

Vortrag Teilen

10:10 - 12:30
Mo 5.1
Machine Learning: Bildverarbeitung mithilfe von YOLO/Python
Machine Learning: Bildverarbeitung mithilfe von YOLO/Python

Ein Tischfußball wurde mittels Kamera, Sensoren und Computer digitalisiert und liefert nun Spielanalysen in Echtzeit. Der interaktive Workshop, aufgeteilt in einen theoretischen und einen praktischen Teil, erläutert und erklärt anschaulich, wie hier eine 'lernende Bildverarbeitung' mittels Algorithmus YOLO (You Only Look Once) und Skriptsprache Python programmiert wurde. Darüber hinaus gibt der Workshop einen Ausblick auf die Anwendung von Bilderkennung in einem Business Kontext.

Zielpublikum: alle, die an Machine Learning, Bildverarbeitung und Objekterkennung interessiert sind, Entwickler
Voraussetzungen: Scripting-Grundlagen in Python und statistisches Grundwissen sind von Vorteil und natürlich Interesse
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

Vorbemerkung: 

Zur anschaulichen Erklärung von Themen wie KI, Machine Learning oder Datastreaming hat PROCON IT einen Kickertisch mit Highspeedkamera und Sensoren versehen und ihn so digitalisiert. Dieser digitalisierte Kicker ist nun in der Lage, das Spiel live zu verfolgen und verschiedene Dinge ebenfalls live auszuwerten, bspw. wird eine Headmap gezeigt, der Spielstand wiedergegeben, die Schussgeschwindigkeit bestimmt.

Wie kann ein System über Bilder einer Highspeedkamera, die es von einem Tischfußballspiel macht, in Echtzeit Daten wie Ballgeschwindigkeit oder eine Headmap der aktuellen Partie generieren? Das System muss gelernt haben, was auf dem Bild der Ball ist, was die Spieler sind und zu welchem Team die Spieler gehören. Der interaktive Workshop führt nach einer kurzen theoretischen Einführung die Teilnehmer mitten in die Praxis der Bildverarbeitung. Gemeinsam werden u.a. Bilder klassifiziert, ein Modell trainiert und die Ergebnisdaten ausgewertet. Die Teilnehmer lernen dabei, wie dies mithilfe der Skriptsprache Python und dem Algorithmus YOLO in der Praxis umgesetzt werden kann. Gemeinsam wird anschließend die Möglichkeiten von Bilderkennung in einem Business Kontext erörtert.

Robea Araujo von Borries absolvierte ihren Master in Wirtschaftsinformatik an der Humboldt-Universität zu Berlin. Als Consultant mit den Spezialgebieten Big Data Engineering und Machine Learning berät sie kompetent Kunden insbesondere bei der Datenaufbereitung, der Verarbeitung massiver Datenmengen sowie bei unterschiedlichen Anwendungsfällen im Machine Learning-Kontext.
Elias Jebabli ist seit Abschluss seines Masterstudiums der Mathematik an der Universität Augsburg und an der TU München als Consultant aktiv. Er hat sich auf die Bereiche Big Data-Engineering und Machine Learning im Business-Umfeld spezialisiert. In Kundenprojekten insbesondere in der Automobilindustrie sammelte er zudem umfassende Erfahrungen in den Bereichen Datenvisualisierung, Datentransformation und -aufbereitung sowie bei der Modellierung von Machine Learning-Projekten.
Robea Aurojo von Borries, Elias Jebabli
Robea Aurojo von Borries, Elias Jebabli
Track: Workshop
Vortrag: Mo 5.1
flag VORTRAG MERKEN

Vortrag Teilen

10:50 - 11:20
Break
Break
Break

11:20 - 12:30
Mo 1.2
Governing big data and analytics
Governing big data and analytics

Data volumes are exploding, and companies are striving to use advanced analytics for more data-driven insights and self-learning systems. Enabling scalable data onboarding and analytics delivery processes with little human intervention but strong governance is key to extract value from Big Data and Analytics successfully. The CC CDQ has developed a framework for governing Big Data and Analytics in close collaboration with industry partners. The framework supports practitioners to setup processes, roles and tools to scale analytics use cases.

Target Audience: Analytics Manager, Data Manager, Project Leader
Prerequisites: Basic knowledge and some experience in analytics or data management
Level: Basic

Martin Fadler is researcher in the Competence Center Corporate Data Quality (CC CDQ) and doctoral candidate at University of Lausanne. Before joining CC CDQ, he worked for several years as a Data Scientist in a venture of Deutsche Telekom. His research interests relate to data management in the context of big data and analytics, and on how artificial intelligence, in particular machine learning, can improve data management.
Christine Legner ist Professorin an der Universität Lausanne und leitet das Competence Center Corporate Data Quality (CC CDQ), in dem sie und ihr Team gemeinsam mit 20 europäischen Unternehmen innovative Konzepte und Lösungen für das Datenmanagement erarbeiten. Sie verfügt über langjährige praktische und akademische Erfahrung und ist Autorin aktueller Studien zu Datenstrategien und Datenkatalogen.
Martin Fadler, Christine Legner
Martin Fadler, Christine Legner
Vortrag: Mo 1.2
flag VORTRAG MERKEN

Vortrag Teilen

11:20 - 12:30
Mo 2.2
Distributed databases in a microservice environment
Distributed databases in a microservice environment

Using distributed databases across various microservices will be explained based on a research project example. The presentation elaborates of how to achieve data consistency across microservices, how to communicate using message brokers, how to scale the microservices and achieve high application availability. Container virtualization and orchestration are technology basis for the solution. The project example shows of how to build an Artificial Intelligence (AI) solution – as a service!

Target Audience: Data Engineer, Data Scientist, Project leader, Architects
Prerequisites: Common understanding of database technology and architecture
Level: Advanced

Extended Abstract:

Developing microservices have various advantages compared to traditional monolith approach. Loose coupled microservices enables smaller teams to develop independently and using CI/CD at a daily basis. Microservices can be scaled independently using different database technologies optimised for particular use cases. The microservices are fault isolated so particular failures will not result in an overall outage.

But how to ensure data consistency for all distributed databases across the microservices? How to react at particular failures? And how to interact and communicate between services?

A research project for intelligent energy analysis will be presented. The solution realizes an Artificial Intelligence (AI) solution analyzing streaming data near real time to ensure energy savings in a production environment. The presentation will explain the steps necessary to establish a microservice environment for Artificial Intelligence and Machine Learning. Central logging guarantees operations monitoring across all microservices. Dashboards presents the results to technical staff monitoring the Machine Learning libraries as well as to the process owner of the domain, e.g. the operations manager or insurance agent. The solution is based on Docker as container virtualisation technology and Kubernetes for container orchestration. In the research project, the solution is realized on premise, but can be easily deployed in the cloud.

The speaker Matthias Braun studied Mathematics and Physics. He works as consultant for Business Intelligence and Business Analytics for more than 10 years. Matthias Braun started in 2015 at Trevisto AG, a consultant company for digitalisation, Business Intelligence and AI. At Trevisto, he is responsible for the development of an AI framework including the full project life cycle starting from a proof-of-concept phase until operation and monitoring of the solution. He has worked in various data scientist projects.
Matthias Braun
Matthias Braun
Vortrag: Mo 2.2
flag VORTRAG MERKEN

Vortrag Teilen

11:20 - 12:30
Mo 3.2
Data virtualization in real life projects
Data virtualization in real life projects

Data virtualization is being adopted by more and more organization for different use cases, such as 360 degrees customer views, logical data warehouse, democratizing data, and self-service BI. The effect is that knowledge about this agile data integration technology is available on how to use it effectively and efficiently. In this session lessons learned, tips and tricks, do's and don'ts, and guidelines are discussed. And what are the biggest pitfalls? In short, the expertise gathered from numerous projects is discussed.

Target Audience: Data architects, data warehouse designers, IT architects, analysts, solutions architects
Prerequisites: Some understanding of database technology
Level: Advanced

Extended Abstract:
Data virtualization is being adopted by more and more organization for different use cases, such as 360 degrees customer views, logical data warehouse, and self-service BI. The effect is that knowledge about this agile data integration technology is available on how to use it properly. In this practical session the lessons learned are discussed. Tips and tricks, do's and don'ts, and guidelines are discussed. In addition, answers are given to questions, such as: How does data virtualization work and what are the latest developments? What are the reasons to choose data virtualization? How to make the right choices in architecture and technology? How does data virtualization in your application landscape? Where and how do you start with the implementation? And what are the biggest pitfalls in implementation? In short, the expertise gathered from numerous projects is discussed.

Rick van der Lans is a highly respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. Rick has written hundreds of articles, blogs, books, and educational white papers. Recently he published his new book 'Data Virtualization: Selected Writings.'
Rick van der Lans
Rick van der Lans
Vortrag: Mo 3.2
flag VORTRAG MERKEN

Vortrag Teilen

11:20 - 12:30
Mo 4.2
Data-driven risk monitoring
Data-driven risk monitoring

High profitability and low lapse rates are interdependent targets for the insurance industry, the challenge in those aged industries is to leverage knowledge built up over years and to bridge the gap between IT architecture and business usage. 

Together with MORESOPHY we applied demand-driven data analytics to connect content from various data sources and to perform data-driven risk assessment. Using an agile approach, we show how current smart data analytics can solve business problems and establish an effective flexible data strategy.

Target Audience: subject matter experts in Finance & Insurance, Data scientists, IT architects, engineers, IT Consultants
Prerequisites: base understanding of data management and analytical concepts
Level: Advanced

Mariana Hebborn earned her PhD in Computational Data Linguistics and Semantics as a fellow at the University of Gießen. Mariana is an expert on data-driven business strategy, on digital transformation and the intelligent use of data. In that capacity she worked for IBM and Fujitsu and advised customers from cross-industries on developing and applying smart data-driven business solutions for their business. 
At her current position in the group Viridium Group Mariana manages and drives the topics of data-driven optimization and efficiency.
Dr. Weinert is quant risk manager at Viridium and combines life insurance with data science and strategic focus. He holds a PhD in actuarial science at the intersection of mathematical modelling, data evaluation, and economics. He continued at this bridging path by linking strategic risk-management with IT, where he breaks open silos and combines various pieces to foster data-driven risk-management. 
Heiko Beier is Professor for International Media Communication and founder of MORESOPHY, pioneer for cognitive computing since 2001. As expert in digital business transformation, he accompanies leading enterprises in the design and implementation of digital business models and process automation based on smart data technologies. He developed his passion for AI-assisted big data analysis techniques at DESY, Hamburg and Columbia University already in the mid90s.
Mariana Hebborn, Jan-Hendrik Weinert, Heiko Beier
Mariana Hebborn, Jan-Hendrik Weinert, Heiko Beier
Vortrag: Mo 4.2
flag VORTRAG MERKEN

Vortrag Teilen

12:30 - 14:00
Lunch Break
Lunch Break
Lunch Break

14:00 - 14:40
Mo 1.3
Wer, wie, was – wieso, weshalb, warum – Darum bitemporal
Wer, wie, was – wieso, weshalb, warum – Darum bitemporal

Mit der Zeit verändern sich Informationen auf komplexe Art und Weise. Zum Beispiel ändern sich die Zuordnung von Produkten zu Produktgruppen oder auch die Zuordnung von Preisspannen der Produkte nach Zielgruppe, Vertriebskanal, Rabattsystem und vieles mehr im Zeitverlauf.

Zielpublikum: Data Modeler, Data Engineer, BICC Team Member, BI-Manager
Voraussetzungen: Grundlegendes Verständnis von ‚time in data warehousing‘
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Mit der Zeit verändern sich Informationen auf komplexe Art und Weise. Zum Beispiel ändern sich die Zuordnung von Produkten zu Produktgruppen oder auch die Zuordnung von Preisspannen der Produkte nach Zielgruppe, Vertriebskanal, Rabattsystem und vieles mehr im Zeitverlauf.

Fachbereiche planen bereits heute zukünftige Preise und Preisspannen, strukturieren Produktgruppen um, wie zum Beispiel für eigene Produktgruppen mit Rabatten speziell für den 'Black Friday'. Diese Informationen können und werden lange bevor sie in der Realität gültig sind, in den Systemen gespeichert.

In der heutigen Session gibt Dirk Lerner einen Einblick in Use Cases für bitemporale Daten und warum diese für heutige Geschäftsanforderungen wichtig und grundlegend sind. Anschließend visualisiert er die Vorgehensweise der bitemporalen Historisierung von Daten anhand eines einfachen Beispiels. Zum Abschluss stellt Dirk Lerner die aktuell existierenden Technologien vor, die eine (bitemporale) Historisierung von Daten bereits implementiert haben.

Dirk Lerner ist ein erfahrener unabhängiger Berater und Geschäftsführer von TEDAMOH. Er leitet seit 19 Jahren BI-Projekte und gilt weltweit als Experte für BI-Architekturen, Datenmodellierung und temporale Daten. Dirk plädiert für flexible, schlanke und leicht erweiterbare Data-Warehouse-Architekturen.
Über die TEDAMOH Academy schult Dirk BI-Spezialisten zu (bi-) temporalen Daten und Datenmodellierung im Allgemeinen und für Data Vault im Besonderen.
Als Pionier für Data Vault und FCO-IM in Deutschland hat er diverse Publikationen verfasst, ist ein international viel beachteter Redner auf Konferenzen und Autor des Blogs https://tedamoh.com/blog.
Dirk Lerner
Dirk Lerner
Vortrag: Mo 1.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Mo 2.3
Intelligente Planung – Assetoptimierung & höhere Liefertreue
Intelligente Planung – Assetoptimierung & höhere Liefertreue

USE CASE: Siemens AG

- Ausgangslage: Nicht ausreichend zuverlässiger Forecast für Liefer- und Bestandsoptimierung
- Vorgehen: Cross-Industry-Standard-Prozess für Data-Mining-Projekte:

(a) Erstellung von datengetriebenen Kurz- und Langfristprognosen mit Machine Learning
(b) Identifikation von Einflüssen externer Informationen
(c) Schneller Projekterfolg durch Predictive-Analytics-Plattform

- Ergebnis: Detailgenaue Planung auf Abruf

(a) Signifikante Verbesserung der Prognosen
(b) Optimierung von Liefertreue und Lagerkosten

Zielpublikum: Data Scientist, Controller, Planner, Finance, DWH Architects, Project Manager, CFO
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Anfänger

Extended Abstract:

Die Verkaufsprognose bei Siemens wies eine geringe Zuverlässigkeit mit negativen Auswirkungen auf den Lagerbestand und die Liefertreue auf. In einem dreistündigen Workshop evaluierten avantum und Siemens Möglichkeiten der Verbesserung, woraufhin sich Siemens für die Implementierung von ML-Algorithmen zur Prognose der Absatzmengen entschied. 


Gemeinsam mit den Logistikexperten der Anlage entwickelte avantum ein prädiktives Modell. Dieses wurde mit der Softwarelösung APOLLO erstellt, die auf IBM SPSS Modeler basiert. Als Ergebnis der Modellnutzung konnte Siemens die Zuverlässigkeit seiner Prognose um mehr als 50 % erhöhen und somit Working Capital reduzieren und Liefertreue deutlich steigern.

Robin Richter ist Solution Expert bei der avantum consult AG und Leiter des Competence Centers Artificial Intelligence. Er verfügt über mehr als acht Jahre Erfahrung mit Data-Mining-Projekten und sammelte umfangreiche Expertise in der Projektumsetzung und Beratung
Robin Richter
Robin Richter
Vortrag: Mo 2.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:30
Mo 3.3
DataOps: using data fabric and a data catalog for continuous development of data assets
DataOps: using data fabric and a data catalog for continuous development of data assets

As the data landscape becomes more complex with many new data sources, and data spread across data centres, cloud storage and multiple types of data store, the challenge of governing and integrating data gets progressively harder. The question is what can we do about it? This session looks at data fabric and data catalogs and how you can use them to build trusted re-usable data assets across a distributed data landscape.

Target Audience: CDO, Data Engineer, CIO, Data Scientist, Data Architect, Enterprise Architect
Prerequisites: Understanding of data integration software and development using a CI/CD DevOps approach
Level: Advanced

Extended Abstract:
As the data landscape becomes more complex with many new data sources, and data spread across data centres, cloud storage and multiple types of data store, the challenge of governing and integrating data gets progressively harder. The question is what can we do about it? This session looks at data fabric and data catalogs and how you can use them to build trusted re-usable data assets across a distributed data landscape.

  • The increasingly complex data landscape
  • Challenges in governing and integrating data in a distributed multi-cloud environment
  • What is data fabric, why it is important and what technologies are on the market?
  • What is a data catalog and what products are on the market?
  • Why organizations need these technologies?
  • How do data catalogs and data fabric work together?
  • A closer look at data fabric capabilities
  • Defining common data entities in a catalog business glossary
  • Using a catalog for automatic data discovery
  • A DataOps CI/CD Approach to building reusable trusted data assets in using data fabric
Mike Ferguson is Managing Director of Intelligent Business Strategies. He specialises in BI, analytics- and data management. With over 38 years of IT experience, he has consulted for many companies, spoken at events all over the world and written many articles. Formerly he was co-founder of Codd and Date – the inventors of the Relational Model, Chief Architect at Teradata and European CEO of DataBase Associates
Mike Ferguson
Mike Ferguson
Vortrag: Mo 3.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Mo 4.3
Sinnvoll Entscheidungen treffen
Sinnvoll Entscheidungen treffen

Der Vortrag behandelt das Thema 'Entscheidungsfindung'

Nach einer Einleitung, in der die Art der Entscheidungsfindung hergeleitet und motiviert wird, wird der Einsatz von KI in einem praktischen und echten Beispiel diskutiert

Zielpublikum: 'KI-Interessierte', Data Scientist, Project Leader, Decision Makers
Voraussetzungen: Grundkenntnisse, Erfahrung in KI und Prozessautomatisierung empfohlen
Schwierigkeitsgrad: Anfänger

Extended Abstract:

Der Vortrag behandelt das Thema der Entscheidungsfindung für (automatisierte) Prozesse im Schadenbereich der Provinzial Versicherung

Entscheidungen im Zusammenhang der Versicherung werden diskutiert und die Zukunft der Entscheidungsfindung (algorithmische Entscheidungsfindung durch KI) wird hergeleitet. Wie die 'Künstliche Intelligenz (KI)' konkret diese Entscheidung übernimmt wird dabei auf hoher Flughöhe erklärt.

Danach wird dieses Thema an dem praktischen Beispiel des Schadenanlageprozesses der Provinzial diskutiert.

Dr. Jan Wiltschut ist im Provinzial Konzern für das Thema 'Künstliche Intelligenz im Schadenbereich' zuständig. Hierbei beschäftigt er sich mit der Identifikation, Bewertung, Entwicklung und Umsetzung von KI-Use Cases, die die Schadenprozesse hinsichtlich des Ertrags, der Effizienz und/oder der Kundenzufriedenheit verbessern. Er hat über das Thema „computational neuroscience“ promoviert, konkret um die Entwicklung eines biologisch motivierten neuronalen Netzes für den (frühen) Sehprozess von Säugetieren. Vor seiner Zeit bei der Provinzial war er als Consultant bei der Firma Eucon GmbH auf dem Gebiet des 'Automotive Aftersales' beschäftigt.
Jan Wiltschut
Jan Wiltschut
Vortrag: Mo 4.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:30
Mo 5.3
Harte Kopfnüsse mit SQL geknackt ('unlösbare' Queries)
Harte Kopfnüsse mit SQL geknackt ('unlösbare' Queries)

Da formuliert man jeden Tag mit über 20 Jahren Programmiererfahrung die kompliziertes SQL-Statements, kennt vermeintlich jeden Kniff mit GROUP BY oder exotischen JOINs und dann ist da plötzlich so eine typische Kopfnuss: kinderleicht formuliert, die Aufgabenstellung sofort erfassbar... aber schon bei der Suche eines Ansatzes droht sich das eigene Gehirn zu verknoten...Wir schauen uns ein paar der extremsten Beispiele und deren Lösung an. Dabei liegt der Fokus nicht auf Theorie und Mathematik, sondern auf Kniffen und Ideen für die Praxis.

Zielpublikum: Datenbankentwickler, Entwickler, Analysten, Data Engineers, Data Scientist

Voraussetzungen: Basis SQL-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

Wir lernen anhand unterhaltsamer Beispiele, welche Hilfsmittel die Hersteller im Laufe der Jahre in die Abfragesprachen und Tools integriert haben, um auch derartige Herausforderungen spielen zu meistern. Dabei sind die Fragestellungen so gewählt, dass jeder problemlos folgen kann und keine abstrakten wissenschaftlichen Abhandlungen notwendig werden. Wenn man an der richtigen Stelle über den Tellerrand hinausguckt, mal die bisherige Standardsichtweise gegen eine unkonventionellere Variante eintauscht und sein Handwerkszeug sicher beherrscht, liegt die Lösung quasi auf der Hand. Und erstaunlicherweise kann man den Lösungsansatz plötzlich auch im Alltag immer öfter erfolgreich einsetzen, sobald man ihn denn kennt.

Torsten Ahlemeyer ist Diplom-Wirtschaftsinformatiker und realisiert seit über 17 Jahren internationale Datenbankgroßprojekte in der Rolle des DB-Spezialisten, Architekten oder Projektleiters. Als Microsoft-Experte rund um den SQL-Server hat er sich auf T-SQL spezialisiert und liebt komplexere Fragestellungen, außergewöhnliche Lösungsansätze und kniffelige Abfragen.
Torsten Ahlemeyer
Torsten Ahlemeyer
Track: Workshop
Vortrag: Mo 5.3
flag VORTRAG MERKEN

Vortrag Teilen

14:40 - 14:50
Short Break
Short Break
Short Break

14:50 - 15:30
Mo 1.4
Insights to action: ABB's journey to data driven decisions
Insights to action: ABB's journey to data driven decisions

How do you enable digital transformation and create value through analytics?

Building a global analytics function across a diverse application landscape incl. SAP and multiple data sources provides many challenges. See how ABB successfully managed this journey and now enjoys the benefits of operational analytics globally, a shift in mindsets and a more data driven way of working.

You will also discover the impact of key technologies used (Change-Data-Capture, Automation & AI) and see real examples of specific analytics deployed in the business.

Target Audience:
Business analysts, decision makers, C-Level
Prerequisites: Basic Knowledge
Level: Basic

Extended Abstract:

How do you enable digital transformation and create value through analytics?

This session tells the story of building a global analytics function in an environment with a diverse set of applications including a complex SAP system landscape and many data sources. The speaker will talk about some of the challenges in the journey but also the success in deploying operational analytics globally, shifting mindsets and help transition to a more digital/data driven way of working.

The audience will also discover the impact of key technologies used (e.g.: Change-Data-Capture, Visualization, Automation and AI) and how these helped to create value and drive revenue increase for ABB, using real examples of specific analytics deployed in the business.

Mircea Zamfir is a data analytics advocate at ABB, a pioneering technology leader in the field of energy & automation. He transforms traditional processes and drives value creation through digital enablement. Mircea has 14+ years of leading experience in technology, analytics and operations, combining business knowledge with technology to drive process improvements and cash recoveries.
Feridun Ozmen is an Internal Auditor - Business Analyst at ABB Asea Brown Boveri Ltd.
Mircea Zamfir, Feridun Ozmen
Mircea Zamfir, Feridun Ozmen
Vortrag: Mo 1.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Mo 2.4
Building a data culture with people and ideas that matter
Building a data culture with people and ideas that matter

A successful data culture brings together people from across the business to collaborate, share and learn from each other about data, analytics and the business value data can hold. In this session I share my suggestions for bringing together your most talented data people so your organization can gain more value from their skills and the data assets you invested in.

Come with an open mind and leave with tips, tricks and ideas to get started straight away.

Target Audience: Data practitioners, analysts, CoE leaders, Management
Prerequisites: basic understanding of how businesses use data
Level: Basic

Eva Murray, is a leader in data visualisation and runs the global social data project #MakeoverMonday. She is passionate about helping people understand and work with data, giving them a platform for learning about data analysis and visualisation. Eva is an international speaker has published two books on data visualization and data culture and empowers women in the technology sector.
Eva Murray
Eva Murray
Vortrag: Mo 2.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Mo 4.4
Storytelling im betrieblichen Rechnungswesen
Storytelling im betrieblichen Rechnungswesen

Based on an article we will present how die Mobiliar implemented a new reporting System with SAP Analytics. Coming from a pure Excel and pdf-based reporting the focus of our presentation lies on the key factors of the successful transformation towards a highly accepted BI-System.

Target Audience: CFO, Finance Experts, BI Project Leader and Controller
Prerequisites: none
Level: Basic

Esther Baacke, Robert Lippmann
Esther Baacke, Robert Lippmann
Vortrag: Mo 4.4
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:00
Break
Break
Break

16:00 - 17:10
Mo 1.5
KI & Anonymisierung: Was geht technisch, was muss rechtlich?
KI & Anonymisierung: Was geht technisch, was muss rechtlich?

Die Implementierung einer effizienten KI wird durch die Verfügbarkeit fortschrittlicher Computer und schneller und großer Massenspeicher ermöglicht. Häufig stellen sich hierbei Fragen im Zusammenhang mit dem Datenschutzrecht. Die DSGVO ist hingegen nicht anwendbar, wenn anonymisierte Daten genutzt werden. Doch wann liegt eine 'rechtssichere' Anonymisierung vor? Ist sie im Zeitalter von Big Data überhaupt möglich? Der Beitrag stellt dies aus Sicht des Bereichs 'Selbstfahrender Fahrzeuge' dar und beleuchtet essenzielle rechtliche Fallstricke.

Zielpublikum: Der Vortrag verknüpft technische und rechtliche Erkenntnisse beim Einsatz von KI und ML und erklärt daher Grundlagen und Besonderheiten aus beiden Bereichen, sodass er sich für ein breites Publikum eignet.
Voraussetzungen: Es genügt Vorwissen entweder aus dem technischen oder rechtlichen Bereich. Der Vortrag ist gelungen, wenn Techniker danach ein Grundverständnis der relevanten Rechtsfragen haben und Techniker und Juristen sich danach im Bereich autonomer, selbst lernender
Schwierigkeitsgrad: Anfänger


Extended Abstract:

Maschinelles Lernen (ML) und Deep Learning (DL) sind Werkzeuge, um KI-Anwendungen zu implementieren. Die Implementierung einer effizienten KI wird durch die Verfügbarkeit fortschrittlicher Computer und schneller und großer Massenspeicher ermöglicht. Häufig handelt es sich bei den genutzten Daten um personenbezogene Daten. Somit rücken Fragen im Zusammenhang mit dem Datenschutzrecht immer mehr ins Licht der Öffentlichkeit. Die Frage des 'Personenbezugs' von Daten wird im Datenschutzrecht seit jeher kritisch diskutiert. Die Rechtsprechung und auch Datenschutz-Aufsichtsbehörden gehen grundsätzlich von einem weiten Verständnis personenbezogener Daten aus. Einen neuen Höhepunkt erreicht diese Diskussion im Kontext von KI-Anwendungen. KI-Anwendungen müssen mit Datensätzen trainiert werden, die einen Personenbezug enthalten können, ohne dass dies auf Anhieb ersichtlich ist. In diesem Fall ist das strenge Regime der Datenschutzgrundverordnung (DSGVO) anwendbar. Dies ist jedoch nicht der Fall, wenn die Datensätze anonymisiert sind. Allerdings ist die Frage, ob Daten personenbezogen oder anonym sind, nicht nur eine technische, sondern vor dem Hintergrund der DSGVO auch eine rechtliche. Wann liegt eine 'rechtssichere' Anonymisierung vor? Ist sie im Zeitalter von KI und Big Data überhaupt noch möglich? Der Beitrag stellt dies aus Sicht von Anwendungen und Datensätzen im Bereich 'Selbstfahrender Fahrzeuge' dar und beleuchtet essenzielle rechtliche Fallstricke.

Dr. Florian Baumann arbeitet als CTO mit dem Schwerpunkt Automotive & Artificial Intelligence bei der Firma Dell Technologies. In seinem Schwerpunkt ist er ein branchenweit anerkannter Experte, der viele Konferenzen leitet und führende Automobilhersteller und Zulieferer berät. Derzeit betreut Baumann Unternehmen im Entwicklungsprozess von Fahrerassistenzsystemen und selbstfahrenden Fahrzeugen.
Fritz-Ulli Pieper berät als Fachanwalt für IT-Recht nationale und internationale Mandanten im IT-, Telekommunikations- und Datenschutzrecht. Er verfügt über besondere Erfahrung zu Rechtsfragen der Digitalisierung und Künstlicher Intelligenz. Seine Aufgabenschwerpunkte umfassen die Gestaltung von IT-Verträgen sowie AGB und die Begleitung von komplexen Datenschutzprojekten.
Florian Baumann, Fritz-Ulli Pieper
Florian Baumann, Fritz-Ulli Pieper
Vortrag: Mo 1.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Mo 2.5
Digitaler Humanismus
Digitaler Humanismus

Von Führungskräften wird erwartet, den digitalen Wandel anzustoßen, zu steuern und die Mitarbeiter zu Veränderungen zu motivieren. Die Balance zwischen Technology-Literate People und People-Literate Technology bleibt herausfordernd. Digitales Mindset entwickeln Führungspersönlichkeiten mit einem 'digital Mindset' sind mehr gefragt denn je. Für den Erfolg von digitalem Wandel sind wenig überraschend nicht primär Technologien, sondern menschliche Fähigkeiten ausschlaggebend.

Zielpublikum: Leaders, Project Members
Voraussetzungen: None
Schwierigkeitsgrad: Anfänger

Extended Abstract:

Der hier (in diesem Vortrag, Anm.) verfolgte Lösungsansatz rückt das 'digitale Mindset' als entscheidenden Faktor bei der Verankerung von Wandlungsfähigkeit im Unternehmen in den Fokus. 

Aber was ist ein digitales Mindset? Für 'Mindset' gibt es keine gute Übersetzung. Haltung und Einstellung treffen am ehesten zu. Das Wort Set beinhaltet auch den Prozess des 'Einstellens'. 

Anders: die innere Haltung lässt sich einstellen! Das Mindset ist wandlungsfähig. Ergänzt um das Wort 'digital' geht es um die Einstellung und Haltung, mit der Führungskräfte und Mitarbeitende mit den Anforderungen der Digitalisierung umgehen. Ein digitales Mindset ist an verschiedensten Merkmalen erkennbar, unter anderem: 

Offenheit für moderne Technologien 

- Neugier gegenüber Veränderungen 

- Bereitschaft, Risiken einzugehen 

- Bereitschaft zur Weiterbildung 

- Mut zur Improvisation 

- Denken und Handeln in Teams 

- Offene Fehlerkultur 

- Aufbrechen hierarchischer Strukturen 

- Fokusausrichtung auf den Kunden 

- ... und vieles mehr 

Die angeführten Merkmale zeigen, dass eine Trennung zwischen privatem und beruflichem Kontext kaum möglich ist. Der private Mensch zeigt in seiner beruflichen wie privaten Persönlichkeit dieselben Merkmale auf. 

Daher wirken Methoden der Persönlichkeitsentwicklung auch weit in das berufliche Wirken einer Person hinein. 

Auf Dauer ist jener Mensch glücklicher, der sich gezielt mit der eigenen Wandlungs- und Entwicklungsfähigkeit auseinandersetzt. Ausgehend vom spiraldynamischen Ansatz1 wirken Veränderungen vom Individuum auf Teams, auf die Organisation und von dieser auf Strukturen der Wirtschaft und Gesellschaft. 

Die Kenntnis innerer Kraftquellen und die Entwicklung von Mut und Gelassenheit gehören dabei zu den zentralen Führungselementen. Ziel ist die gesamthaft erfolgreiche Bewältigung großflächiger Transformationen.

Der Ansatz verfolgt die Prämisse 'von innen nach außen', vom Individuum auf die Gruppe und von der Gruppe in die Organisation. 

Der Lebensalltag ist bei den Menschen begleitet von den verschiedensten Belastungen, von Dysbalance, von Konflikten in der Familie, am Arbeitsplatz, vielleicht einer Angst vor der Zukunft, vor der Endlichkeit und persönlicher Stagnation. Die Summe all dessen, was wir wahrnehmen, was wir hören, lesen, tun und denken, ergibt unser Lebensgefühl.

Es ist insbesondere nach der Lehre Viktor Emil Frankls und anderer, auch zeitgenössischer Leadership Autoren so, dass wir per se, als wahrnehmende Menschen, entscheidenden(!) Einfluss darauf haben, was wir wahrnehmen und wie wir es interpretieren. (Literaturempfehlung 'Sinnzentrierte Unternehmensführung': Um die anspruchsvollen Aufgaben der Zukunft zu lösen, brauchen Führungskräfte Fachwissen, Intelligenz (IQ), emotionale Kompetenz (EQ), vor allem aber Sinnorientierung (SQ). 

Die Gestaltungsfreiheit unseres Lebens bewegt sich immer zwischen zwei Polen, Freiheit und Angst. Es gibt jedoch dazwischen eine Bandbreite an Möglichkeiten in großen und kleinen Entscheidungen. Das, was das Leben grundsätzlich 'anstrengend' machen kann, ist wenn man immer wieder abwägen muss, immer wieder überlegen muss, was jetzt 'das Richtige' zu tun wäre und in welchem Spielraum man sich gerade bewegt. Dem Dasein insgesamt liegt in allem eine Pendelbewegung zugrunde, spürbar in Tag und Nacht, in Ebbe und Flut und so weiter. Von allem Sein gibt es im Wesenskern auch dessen Gegenteil und wir als 'Entscheider' müssen Balance halten. Balance zu halten ist die Aufgabe unseres gesunden Menschenverstandes in Verbindung mit ausreichend Herz und Seele.

Zurück zu unserem Einfluss auf das, was wir wahrnehmen, wie wir es wahrnehmen und welchen Einfluss dies auf unseren Alltag hat. 

Wir Menschen sind ausgestattet mit psychischen Kräften und Funktionen, sprich wir können normalerweise sehen, hören, riechen, schmecken und fühlen. Ohne den Filter des Menschenbildes und der individuellen Haltung bzw. ohne 'entscheidende' Absicht sind diese Funktionen zunächst reine Werkzeuge, deren Anwendbarkeit einer geistigen Dimension bedürfen, um 'Sinn' zu ergeben und eine Geschichte daraus entstehen zu lassen.

Das Wahrnehmen an sich stellt nur die physisch anatomische Grundlage dar. Ohne diese wären in der Folge keine Kräfte mobilisierbar. Ohne Ziel ebenso wenig bzw. nicht sinnvoll vorstellbar. Nach den funktionierenden Wahrnehmungseinrichtungen bedarf es der mobilisierenden Einrichtungen und um einen Senor für die Zielrichtung. 

In der menschlichen Handlung kristallisiert sich die Selbstverwirklichung bzw. Lebensgestaltung, die im ethischen Sinn eine zentrale Rolle spielt. Habitus (Haltung, Weltbild) kommt u. a. durch Übung und Wiederholung zustande, (durch wiederholtes Handeln) und durch wiederholte Zustimmung zu einer gewissen 'inneren Ordnung', wenn man so möchte. Der Mensch braucht Ordnung und Orientierung und es mag ein wesentlicher Sicherheitsfaktor sein, die eigenen Handlungsweisen, den eigenen Habitus zu kennen und diesem vertrauen zu können. Auf Dauer würde es zu anstrengend und auch nicht sinnvoll, jede Handlung erneut zu überprüfen und ihre Stellung zwischen Möglichkeit und Wirklichkeit, zwischen Aktivität und Passivität oder auf ethische Tauglichkeit zu evaluieren.

So könnte man Habitus auch als Prinzip betrachten, welches das Hervorbringen adäquater Handlungen überhaupt ermöglicht. Nach Thomas von Aquin ist der Habitus der 'Ort, an dem die Möglichkeit zur Handlung ausgeführt wird'. So gesehen ist die Haltung etwas Statisches. Auch der Zeitgeist und das Menschenbild sind in diesem Sinne etwas Statisches. Dies zu 'wandeln' und zu einem 'höheren' Selbst zu kommen, ist das zentrale Anliegen von Digital Leadership und dessen Kern ein digitales Mindsets. Veränderungen finden statt und liegen in erster Linie in den äußeren Rahmenbedingungen, Wandlungsfähigkeit ist das, womit wir als Menschen antworten. 

Um dem heutigen Titel gerecht zu werden und die 'Verlagerung von Computer-Literate People hin zu People-Literate Technology ' entscheidend mitzugestalten, gibt es unserer Ansicht nach – und auch aus der Erfahrung aus unseren Projekten nach – zwei Ansatzmöglichkeiten. 

Beide nehmen den einzelnen Menschen, dessen Urteilsfähigkeit und dessen Bedürfnis, das 'Richtige' zu tun, ernst. Die zwei Ansatzpunkte betreffen nur die organisatorische Umsetzung. Einmal geschieht die Begleitung hin zu einer Wandlungsfähigkeit, einem digitalen Mindset, bei der Führungskraft und der zweite Ansatz – idealerweise zeitgleich – wird mit kleinen Gruppen in der Belegschaft durchgeführt. Wir sprechen hier nicht von Teambuilding oder Motivationstraining, nein, vielmehr geht es um die ganz zentralen Orientierungsparameter eines menschlichen Lebens, um die Werte. Aus denen entstehend Prinzipien und daraus wiederum Haltungen und daraus wiederum Kulturen – Organisationskulturen. 

Wenn wir den Erfolg digitaler Transformationsprojekte ohne den wichtigen Faktor Mensch voranbringen wollen, müssen wir mit Reibungsverlusten und Widerstand rechnen. 

In der praktischen Umsetzung kann das durch eine Vielzahl von Methoden gelingen. Wichtiger aber noch ist grundsätzlich ein Verständnis über Wandlungsfähigkeit und dass das Erreichen von Visionen und Zielen wichtig und möglich ist. 

Am Beispiel der Führungskraft kann man die primären Führungseigenschaften zugrunde legen (eventuell agile Prinzipien) und bei einem festgestellten Entwicklungspotential etwa folgende Fragen stellen: Was wäre, wenn ich mutiger (strukturierter/integrierender/kommunikativer...) wäre. Dies setzt auf an den klassischen Führungseigenschaften. Diese Eigenschaften zu evaluieren ist grundsätzlich gut und richtig. Tiefer und effizienter ist aber noch ein imaginativer Ansatz. 

Die großen Fragen in der wertorientierten Persönlichkeitsentwicklung 'praktisch' zu beantworten, bedarf eines humanistischen Kontextes, einer methodischen Vorgehensweise und einer großen Portion Zuversicht, dass das, was vorstellbar ist, auch möglich ist. 

Die großen Fragen, die man sich als Mensch im Allgemeinen stellt, sind seit Jahrtausenden dieselben. Was ist wesentlich? Worauf kommt es an? Wer hat recht? Was bewegt mich? Was ist der Sinn und Zweck meines Lebens? Habe ich Ahnung davon, wie sich 'gelingen' anfühlt? Und so weiter. 

Diese Fragen scheinen für einen Projektalltag – ja gar für einen datenbezogenen Projektalltag – unrelevant, sind jedoch der Kern einer stabilen und zielfähigen Persönlichkeit, die sich im Rahmen einer beruflichen Tätigkeit gut positionieren möchte, um das eigene Engagement und die berufliche Entwicklung nach den ureigensten Sinnmöglichkeiten entlang von Talenten und Werten aktiv zu gestalten. Welches Unternehmen sollte nicht an diesen Mitarbeiter-Attributen interessiert sein?

Google beispielsweise hat vor langer Zeit schon eingeführt, dass Mitarbeiter einen Teil der Arbeitszeit auf persönliche Projekte verwenden dürfen. Dies hat in weiterer Folge zur Entwicklung des inzwischen weltweit bekannten und in Lizenz weitergegebenen Mindfulness-Programmes namens 'Search Inside Yourself' geführt. Deren 'Erfinder', Jade Meng Tan, war einst Entwickler und hat wegen der großen Begeisterung seines Programmes inzwischen nichts anderes mehr zu tun als über ganz einfache Achtsamkeitsübungen weltweit Vorträge zu halten. Seine Position bei Google ist zwischenzeitlich 'Jolly Good Fellow'. 

Jedes Unternehmen sollte einen Jolly Good Fellow haben und wenn Sie so wollen, bin ich die Verkörperung dieser Rolle bei TCI Consult. Unser Anliegen ist es, den Gedanken der Achtsamkeit – und zwar ganz genau im Sinne der Achtsamkeit auch für die eigenen Werte – zu heben und gerade wegen der Tendenz in Richtung Technikorientierung gegenzuhalten und eine Menschenorientierung in den Vordergrund zu stellen.

Viele große Unternehmen haben diesen Trend erkannt und entwickeln Programme, die mehr oder weniger auf ethischen Grundlagen beruhen, merklich mit leichter Tendenz zum Andenken breitflächigeren Einsatzes verschiedener Methoden. 

Anmerkung: Dieser Vortrag wird als Dialog mit dem Publikum geführt, es werden praktische Übungen integriert. In sehr kurzen (1-2 minütigen) Videosequenzen werden erfolgreiche und verprobte Methoden gezeigt. Literaturempfehlungen und Quellen für Interessierte und Selbstentwickler werden bereitgestellt. Darunter befinden sich Klassiker wie Steven Covey, Peter Kramer, Deepak Chopra aber auch Visionäre wie Joe Diszpenza und populäre wie Jade Meng Tan, um eine zeitgemäße Übersetzung klassischer Führungsthemen zu anzubieten

10 Jahre Erfahrung in der Unternehmenskommunikation und im Recruiting, 4 Jahre Radiomoderation, Umsetzung von Kommunikationskampagnen, Stakeholder Management und PR, Führung und Coaching
Branchenfokus und Erfahrung
Unternehmenskommunikation bei TCI Consult, Recruiting, Redaktion und Moderation live Radio 'Logos on Air', Aufbau der Stiftung Aqa Pearls – For You and Planet Blue der BWT AG, Mondsee, Führung durch Wertearbeit und Imagination, Life-Coaching, Ausbildungstutorin und Seminarleiterin, Vorstand der Gesellschaft für nachhaltige Energieversorgung
Gabriele Sevignani
Gabriele Sevignani
Vortrag: Mo 2.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Mo 3.5
No more metadata, let's talk context and meaning
No more metadata, let's talk context and meaning

Metadata is a long-time favourite at conferences. However, most attempts to implement real metadata solutions have stumbled. Recent data quality and integrity issues, particularly in data lakes, have brought the topic to the fore again, often under the guise of data catalogues. But the focus remains largely technological. Only by reframing metadata as context-setting information and positioning it in a model of information, knowledge, and meaning for the business can we successfully implement the topic formally known as metadata.

Target Audience: Enterprise-, Systems-, Solutions and Data Architects

Systems-, Strategy and Business Intelligence Managers

Data Warehouse and Data Lake Systems Designers and Developers

Data and Database Administrators

Tech-Savvy Business Analysts
Prerequisites: Basic knowledge of data management principles

Experience of designing data warehouses or lakes would be useful

Level: Basic

Extended Abstract:

Metadata has – quite correctly – been at the heart of data warehouse thinking for three decades. It's the sort of cross-functional and overarching topic that excites data architects and data management professionals. Why then can so few businesses claim success in implementing it? The real question is: implementing what?

This session answers that question by first refining our understanding of metadata, which has been made overly technical over the years and more recently been misappropriated by surveillance-driven organisations. With this new understanding, we can reposition metadata not as a standalone topic but as a vital and contiguous subset of the business information that is central to digital transformation. With this positioning, 'metadata implementation' will become a successful – but largely invisible – component of information delivery projects.

Dr. Barry Devlin is a founder of data warehousing, defining its first architecture in 1985. He is respected worldwide as a visionary on BI and big data, publishing the seminal book 'Business unIntelligence' in 2013. With 30+ years' IT experience in IBM and 9sight, he offers thought-leadership and consulting to BI and big data buyers and vendors. He speaks and writes on all aspects of information.
Barry Devlin
Barry Devlin
Vortrag: Mo 3.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 18:10
Mo 5.5
Text Mining mit Python und PowerBI
Text Mining mit Python und PowerBI

Die systematische Nutzung von Freitexten bietet ein großes Potenzial für die Gewinnung neuer Erkenntnisse oder die Automatisierung von Prozessen, das Unternehmen verstärkt nutzen wollen. Der Workshop soll Datenanalysten den Einstieg in das Text Mining erleichtern. Anhang konkreter Anwendungsbeispiele werden die nötigen Schritte und aktuelle Analyse- und maschinelle Lernverfahren erläutert. Für Datenvorbereitung und das Mining wird dabei Python genutzt, die Auswertung und Visualisierung der Ergebnisse erfolgt mit PowerBI.

Zielpublikum: Data Engineers, Data Analysts, Project Leaders
Voraussetzungen: Grundlegendes Verständnis von Data Mining/Machine Learning sowie elementare Programmierkenntnisse (nicht notwendigerweise in Python) werden vorausgesetzt. Zum Mitmachen sollten Python (Anaconda + zusätzlich spaCy) sowie PowerBI auf dem Laptop installiert sein.
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Die analytische Erschließung von Texten ist für viele Unternehmen der erste Schritt in die Welt unstrukturierter Daten. Die Anwendungsgebiete sind vielfältig und reichen von der Auswertung von Kunden-Kommunikation für Marketing-Zwecke bis zum automatisierten Routing von Dokumenten oder der Priorisierung von Service-Requests.

Im Workshop wird anhand von Fallballspielen durchgespielt, wie ausgehend von einer Fragestellung ein Modell erstellt, evaluiert und visualisiert werden kann. Dabei wird gezeigt,

- wie Datenvorbereitung mit modernen NLP-Bibliotheken wie spaCy funktioniert

- wie sich schnell und elegant statistische Analysen auf den aufbereiteten Daten in Python und PowerBI umsetzen lassen

- wie aus Texten Feature-Vektoren erzeugt werden

- wie mit maschinellen Lernverfahren Texte klassifiziert und gruppiert werden können

- wie die Stärken und Schwächen der Modelle mit PowerBI transparent gemacht werden können

- wie Anwender selbst mit den Ergebnissen in PowerBI arbeiten können.

Am Ende werden Sie ein solides Grundverständnis davon haben, wie der Analyse-Prozess abläuft, welche Potenziale sich bieten und welche Fallstricke dabei lauern.

Prof. Dr. Roland Zimmermann lehrt als Professor an der TH Nürnberg Datenkompetenz, Business Intelligence und Information Design sowie angewandte Künstliche Intelligenz. Sein aktueller Forschungsschwerpunkt liegt im Bereich Wissensgraphen und Natural-Language-Processing für das Technologie- und Innovationsmanagement. Daneben berät er beim Aufbau wirksamer analytischer Lösungen als Architekt.
Prof. Dr. Jens Albrecht ist an der TH Nürnberg für die Themengebiete Datenbanken und Big Data verantwortlich. Kürzlich hat er zusammen mit zwei Co-Autoren aus der Industrie das Buch 'Blueprints for Text Analytics Using Python' veröffentlicht. Neben seiner Hochschultätigkeit ist als Trainer, Data Scientist und Daten-Architekt engagiert.
Roland Zimmermann, Jens Albrecht
Roland Zimmermann, Jens Albrecht
Track: Workshop
Vortrag: Mo 5.5
flag VORTRAG MERKEN

Vortrag Teilen

17:10 - 17:30
Short Break
Short Break
Short Break

17:30 - 18:10
Mo 3.6
Der Mörder ist immer der Gartner
Der Mörder ist immer der Gartner

Ein sehr ernster humorvoller Blick auf die Modewellen der IT, ihre Auswirkung auf die Informationsprodukte im Unternehmen und ein methodischer Umgang mit dem Hype Cycle.

Der Mörder ist immer der Gartner, weil er bestimmt, wann ein Hype zu Ende ist und damit die Methode tötet. Typische Aussage fachfremder Menschen mit und ohne Budgetverantwortung: 'Warum machen wir das noch? Gartner sagt, dass ist nicht mehr aktuell.' Ungeachtet der Tatsache, dass die dahinterliegende Methode aus den 70ern stammt...

Zielpublikum: Data Engineer, Data Scientist, Project Manager, Decision Maker, Data Architect

Voraussetzungen: Basic Knowledge in Company IT, Data Management

Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

Der Fokus liegt aktuell auf Tools statt auf Methoden. Tools stellen sicher, dass nur auf eine bestimmte Art und Weise gearbeitet wird. Zumindest ist das die Hoffnung. Informationsprodukte bestehen aus 3 Komponenten: Informationen, Prozesse und Menschen. Es wird Zeit, den Blick nicht nur auf Daten und Werkzeuge zu richten, sondern die Methoden dahinter zusätzlich in den Fokus zu nehmen und damit die beteiligten Menschen, in die Lage zu versetzen, das richtige zu tun. Dann kann aus Fehlern gelernt werden und die richtige Adaption für die eigene aktuelle Situation gefunden und gehalten werden.

Michael Müller beschäftigt sich seit 2001 mit Business Intelligence und Data Warehousing. Er engagiert sich als Vorstand der deutschsprachigen Data Vault User Group (DDVUG) für die Verbreitung von Data Vault. Sein Tätigkeitsbereich liegt vor allem an der Schnittstelle zum Fachbereich, bei der Architektur und Datenmodellierung sowie bei der Automatisierung und Beschleunigung der Entwicklung im Data Warehouse.
Er ist spezialisiert auf Daten-/Informationsmodellierung, Metadaten und modellgetriebene Automation sowie zeitliche Aspekte bei Informationssystemen. Er hat unter anderem Zertifizierungen als Data Vault 2.0 Practitioner und Anchor Modeler Version 2014. Er hält Vorträge und gibt Schulungen sowie Workshops zum Thema Data Vault und Data Warehouse Automation. Beide Themen werden die Data Warehouse Landschaft unter dem Oberbegriff 'Next Generation Data Warehousing' in Deutschland in den nächsten Jahren nachhaltig prägen. Ein Data Warehouse ist eine Reise und kein Ziel und nichts ist konstanter als der Wechsel bei diesem Unterfangen. Diese Reise erfolgreich zu gestalten, wird von immer größerer Wichtigkeit für viele Unternehmen werden. Als Data Warehouse Consultant und Trainer begleitet Oliver Cramer Unternehmen auf diesem Weg.
Michael Müller, Oliver Cramer
Michael Müller, Oliver Cramer
Vortrag: Mo 3.6
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:10
Mo 4.6
Data Literacy – Mit Daten über Daten sprechen
Data Literacy – Mit Daten über Daten sprechen

Wenn Daten das neue Öl sind, wie kommt das Benzin ins Blut? Agilität gelingt nur, wenn Daten bekannt, verstanden, verknüpft und verwendet werden. Die Finanzindustrie muss Spezialistenwissen der Domänen und Fachbereiche vergemeinschaften und den Partnern der Wertschöpfungskette benutzergerecht anbieten. Dies setzt eine gemeinsame Sprache voraus. Data Literacy ist mehr als Statistik und Datenpräsentation. Erst ein gemeinsames Grundvokabular und eine Grundgrammatik sowie ein Fokus auf Datendemokratisierung schaffen Mehrwert.

Zielpublikum: Data Governance, Human Resources, Führungskräfte, Business Analysten, Projektmanager mit Datenfokus
Voraussetzungen: Keine. Kenntnis der Grundproblematik von Datenkatalogen und Datenfriedhöfen hilfreich.
Schwierigkeitsgrad: Anfänger

Patrick Pähler ist ausgebildeter Bankkaufmann und Diplomierter Medienwirt. Er verfügt über langjährige Berufserfahrung in der Finanzdienstleistung sowie in der Beratung und hat zahlreiche Innovationen in unterschiedlichen Branchen realisiert. Zu den Unternehmen, für die er tätig war, zählen unter anderem Accenture, die Commerzbank AG, Cognizant und heute TCI Consult. 
Die aktuellen Schwerpunkte seiner Beratungstätigkeit liegen in den Bereichen Innovation und Transformation, Banksteuerung, und praktische Data Governance.
Jean-Claude Brunner studierte Betriebswirtschaft und internationales Management an der Wirtschaftsuniversität Wien. Er hat langjährige Erfahrung in der Finanzindustrie sowohl in Banken als auch in der Beratung mit den Schwerpunkten Controlling, Organisation und Business Intelligence.
Patrick Pähler, Jean-Claude Brunner
Patrick Pähler, Jean-Claude Brunner
Vortrag: Mo 4.6
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:45
KeyDi1
KEYNOTE: Die Entwicklung einer wertebasierten und chancenorientierten Datenpolitik
KEYNOTE: Die Entwicklung einer wertebasierten und chancenorientierten Datenpolitik

Mit der „Berliner Erklärung“ haben sich die EU Staaten zu einer wertebasierten digitalen Verwaltung verpflichtet. Die Bundesregierung nimmt sich mit ihrer Datenstrategie dieser Aufgabe an und will den Staat zum Vorreiter für Digitale Souveränität und Open Data machen. Das 2. Open Data Gesetz und das Dashboard Deutschland haben dazu bereits den Weg geebnet und weiten das Daten- und Informationsangebot des Bundes aus. In weiteren Schritten soll die Nutzung der Daten über Datencockpits und Visualisierungstools vereinfacht und verbessert werden. Damit werden auch in verschiedener Hinsicht positive Auswirkungen auf Unternehmen einhergehen.

Dr. Markus Richter wurde 1976 in Münster/Westfalen geboren. Er hat zwei Kinder. Nach einem Studium der Rechtswissenschaften an der Westfälischen Wilhelms- Universität Münster folgt 2003 die Promotion zum Dr. jur. sowie das Rechtsreferendariat beim Oberlandesgericht Hamm mit dem 2. juristischen Staatsexamen ein Jahr später. Ab 2005 hat Dr. Markus Richter mehrere Positionen im Bundesamt für Migration und Flüchtlinge inne. Dort beschäftigt er sich unter anderem im Personalwesen, in der Organisation, im Büro des Präsidenten sowie in den Grundsatzfragen der Integration und Migration. In 2014 übernimmt er die Gruppenleitung im Bereich IT im Bundesverwaltungsamt. Ab 2015 wirkt er wieder im Bundesamt für Migration und Flüchtlinge als Abteilungsleiter für Infrastruktur und IT und wird ab 2018 Vizepräsident der Behörde. Seit 1. Mai 2020 ist Dr. Markus Richter Staatssekretär im Bundesministerium des Innern, für Bau und Heimat und Beauftragter der Bundesregierung für Informationstechnik.
Markus Richter
Markus Richter
Track: Keynote
Vortrag: KeyDi1
flag VORTRAG MERKEN

Vortrag Teilen

09:45 - 10:00
Short Break
Short Break
Short Break

10:00 - 10:40
Di 1.1
TDWI StackTalk Live
TDWI StackTalk Live

TDWI StackTalk is a format to discuss analytical solutions. A practitioner from an organization will present an analytics solution that is used in production (only real systems). The session contains 'Introduction of speaker/company/business', 'Business problem behind the solution', 'Interactive discussion of the solution with a high level architecture sketch', 'What products and patters are used and why', 'What were your learnings/what worked and what not', 'what is the future plan/vision'. In the live format the audience can also ask questions.


Target Audience: Data Architects, Decision Makers,
Prerequisites: None
Level: Basic


Extended Abstract:
Take part at the first TDWI StackTalk Live Session. The TDWI StackTalk is a regular video cast where practitioner present and discuss their real world analytics landscapes. Learn more about what works and what not from solutions that are running in production.

Julian Ereth beschäftigt sich mit seiner Tätigkeit als Solution Architect bei dem Software-Unternehmen pragmatic_apps in Stuttgart mit innovativen Analytics-Anwendungsfälle und zukünftige Datenarchitekturen. Zudem ist er seit Jahren aktives Mitglied des TDWI-Vereins und Initiator des TDWI StackTalks.
Julian Ereth
Julian Ereth
Vortrag: Di 1.1
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:40
Di 2.1
Etablierung einer Performance-Kultur mit Advanced Analytics
Etablierung einer Performance-Kultur mit Advanced Analytics

Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu. Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.

Zielpublikum: Analytics Manager, Data Scientist, BI & Big Data Experten, Automotive Interessierte, Verantwortliche für Digitalisierung, etc.
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu.
Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.
Eingebettet in das konsequent implementierte Performance Management System stellt BMW Deutschland mit C1 Advanced Analytics in der Breite und Tiefe über alle Vertriebsstufen passgenaue Lösungen bereit, um den Entscheidern bis hin zum Point of Sales einerseits maximale Transparenz über die aktuelle und künftig zu erwartende Geschäftsentwicklung zu geben. Andererseits werden auf Basis von Daten systematisch Entscheidungen getroffen und Maßnahmen zur Performance-Steigerung implementiert und stringent nachverfolgt. Die Beherrschbarkeit und Kosteneffizienz im Betrieb werden über automatisierte Abläufe wie z.B. die Konsolidierung und Harmonisierung von Händler-Reports professionalisiert. Dies führt hat über neue Berufsbilder in Kombination mit einer zielgerichteten Befähigung der Mitarbeiter in der Organisation gesamthaft zu einem 'New Way of Working' sowie zu gesteigerten Nutzung von Marktpotenzialen geführt. Gleichermaßen konnten über die Konsolidierung von Data Assets sowie eine strikte Data Governance erhebliche Effizienzsteigerungen realisiert werden. Letzteres hat sich insbesondere auch in der Corona-Krise bewährt.

Die technische Lösung basiert auf einer Cloud Data Plattform, in der alle relevanten Daten (strukturiert und unstrukturiert) so zusammengeführt werden, dass mit Hilfe von modernen Frontendlösungen alle relevanten Informationen zeitgerecht bereitgestellt. Teilweise werden bereits KI-Funktionalitäten genutzt, um beispielsweise die Allokation von Vertriebsförderungsmaßnahmen zu optimieren. Dafür werden sehr große Datenmengen mit komplexen Machine-Learning-Methoden verarbeitet, die Ergebnisse jedoch für die Anwender in benutzerfreundlicher Form im Frontend aufbereitet.

Seit 2018 wurde die Transformation zu einer datenbasierten Vertriebs- und Ergebnissteuerung im Markt systematisch vorangetrieben und seitdem mit über 80 umgesetzten Use Cases stetig ausgebaut. Die Geschäftsbereiche Finanzen/ Strategie (Weiterentwicklung zur Rolle als 'Performance Manager'), Vertrieb, Customer Support sowie und Marketing werden datenbasiert über das Performance Management System eng miteinander verzahnt und in die Lage versetzt, noch zielgerichteter zu steuern, um identifizierte Marktopportunitäten für die Vertriebsregion BMW Deutschland konsequent zu heben.

Im Vortrag werden der erfolgreiche Weg hin zu einem datenbasierten Arbeiten skizziert sowie die technische Architektur und beispielhaft ein Advanced Analytics Use Case aufgezeigt.

Herr Sven Straub ist seit dem Jahr 2018 in der BMW AG Leiter Finanzen im Markt Deutschland. Besondere Schwerpunkte seiner Arbeit liegen u.a. im Bereich Business Transformation sowie Performance Management. Aktuell überblickt er im Markt Deutschland u.a. die Fachthemen Strategie, Strategiekommunikation, Controlling, Händlerbetriebswirtschaft sowie gesamtheitlich Data Analytics. In früheren Funktionen seiner langjährigen Zugehörigkeit zur BMW Group hat er u.a. weltweit das Vertriebscontrolling, die Volumen- und Ergebnissteuerung der BMW AG Niederlassungen und als CFO der BMW Group Japan fungiert und sich darüber einen breiten sowie tiefen Erfahrungsschatz angeeignet.
Herr Dr. Horst-Florian Jaeck ist bei der rpc - The Retail Performance Company, ein Joint Venture Unternehmung von BMW Group und h&z, als Partner für die Service Line Data Analytics und die interne IT verantwortlich. Im Laufe seiner langjährigen Beratungserfahrung hat er bereits zweimal erfolgreich neue Business Units mit Fokus auf die Bereiche Data Science & Strategy, Big Data Analytics und AI (Artificial Intelligence) aufgebaut. Als ausgewiesener Experte in Data Science und Customer Analytics ist berät er bis heute selbst namhafte Kunden verschiedener Branchen bei der Digitalisierung von Kernprozessen im Marketing, Sales und Service.
Sven Straub, Horst-Florian Jaeck
Sven Straub, Horst-Florian Jaeck
Vortrag: Di 2.1
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:40
Di 3.1
Das Dilemma heterogener KPIs am Beispiel von SDGs der UN
Das Dilemma heterogener KPIs am Beispiel von SDGs der UN

Mit der Agenda 2030 hat sich die Weltgemeinschaft die Sustainable Development Goals für eine nachhaltige sozial, wirtschaftlich und ökologisch Entwicklung gesetzt. Die Ziele dienen den Kommunen als Stoßrichtung für langfristige Politikplanung und dem kommunalen Monitoring.
Das Dilemma an den SDGs ist, dass sie mehrdimensional, universell gültig und heterogen in den Steuerungsgrößen sind.

Die Zusammenführung der Datengrundlage und Herstellung einer Vergleichbarkeit von Kennzahlen in einem gemeinsamen Zielsystem ist eine zentrale Herausforderung.

Zielpublikum: Entscheider, Leiter Controlling, Leiter Data & Analytics
Voraussetzungen: Grundkenntnisse Data & Analytics
Schwierigkeitsgrad: Anfänger

Christoph Schulz-Sacharow ist Manager im Public Sector mit dem Schwerpunkt Data & Analytics. In diesem Zusammenhang liegt sein Fokus im Bereich der Optimierung bzw. Digitalisierung von Entscheidungsprozessen mit SAP.
Torsten Raithel ist Senior Consultant im Public Sector mit dem Schwerpunkt BI & Analytics. In diesem Zusammenhang liegt sein Fokus auf der Entwicklung datengetriebener Entscheidungsprozesse der Produktion von Mehrwert durch Information auf Basis einer zielgerichteten Visualisierung von Daten.
Christoph Schulz-Sacharow, Torsten Raithel
Christoph Schulz-Sacharow, Torsten Raithel
Vortrag: Di 3.1
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:40
Di 4.1
Einfluss reg. Anforderungen auf moderne Architekturen
Einfluss reg. Anforderungen auf moderne Architekturen

Der fachliche Wettbewerbs- und Kostendrucks sowie steigende Anforderungen erhöhen den Bedarf an Industrie- und Standardlösungen. Allerdings werden Standardlösungen den Anforderungen, z.B. BCBS 239, oftmals nicht gerecht. Es entsteht eine Diskrepanz, dem nur mit einer modernen, dispositiven Infrastruktur begegnet werden kann. Neue Ansätze und Methoden in der Umsetzung sind daher gefragt: Eine moderne Referenzarchitektur, die bei der Lösung zukünftiger Herausforderungen unterstützt und Grundlage für eine moderne Analyseplattform liefert.

Zielpublikum: Entscheider, Data Engineer, Architekten, Controlling, Projektleiter
Voraussetzungen: Grundkenntnisse Data & Analytics
Schwierigkeitsgrad: Anfänger

Stefan Seyfert ist gemeinsam mit Herrn Lars Schlömer als Head of Data & Analytics Sopra Steria für die thematische Ausrichtung von Data & Analytics bei Sopra Steria verantwortlich. In diesem Zusammenhang liegt sein Fokus auf dem Aufbau Innovativer datenbasierter Geschäftsmodelle mit dem Schwerpunkt Datenmanagement.
Thomas Müller verantwortet bei Sopra Steria das Competence Team (Big) Data Engineering. Seit fast zehn Jahren bringt er seine Expertise in unterschiedlichen Kundensituationen ein und ist ein wichtiger Ansprechpartner für das Partner-Netzwerk.
Lisa Schiborr ist Data & Analytics Expertin im Bankenbereich.
In diesem Zusammenhang liegt ihr Fokus auf dem Thema Data Management. Darüber hinaus verantwortet sie für Data & Analytics die Öffentlichkeitsarbeit und Durchführung von Data & Analytics Studien (biMA). 
Stefan Seyfert, Thomas Müller, Lisa Schiborr
Stefan Seyfert, Thomas Müller, Lisa Schiborr
Vortrag: Di 4.1
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:40
Di 5.1
Kooperative Datenräume - Potentiale für Business Intelligence & Analytics
Kooperative Datenräume - Potentiale für Business Intelligence & Analytics

Weitere Informationen folgen in Kürze.

Prof. Dr. Hans-Georg Kemper ist Inhaber des Lehrstuhles für Wirtschaftsinformatik 1 an der Universität Stuttgart. Seine Lehr- und Forschungsschwerpunkte liegen im Bereich der Entwicklung und Implementierung von Informations- und Kommunikationssystemen für Führungskräfte. Im Sinne einer konsequenten gestaltungsorientierten Wirtschaftsinformatik ist von ihm in den letzten Jahren eine Vielzahl praxisrelevanter wissenschaftlicher Arbeiten zu technischen sowie organisatorischen Gestaltungsbereichen der integrierten Managementunterstützung – Business Intelligence – durchgeführt worden.
Prof. Dr. Heiner Lasi leitet seit April 2015 das Ferdinand Steinbeis Institut der Steinbeis Stiftung und ist Inhaber der Professur für Industrial Intelligence an der Steinbeis Hochschule Berlin. Darüber hinaus ist er Vorsitzender des Management Boards des STCII, welches das deutsche Länderteam des Industrial Internet Consortium (IIC) beheimatet. Das FSTI steht für transferorientierte Forschung im Bereich Digitalisierung und Vernetzung mit dem Schwerpunkt auf Geschäftsmodelle und Unternehmensstrategien sowie unternehmensspezifische Ansätze im Kontext des Industrial Internet und Industrie 4.0. Nach seinem Studium der technisch orientierten Betriebswirtschaftslehre promovierte und habilitierte er im Fachbereich Wirtschaftsinformatik an der Universität Stuttgart. Vor seiner Tätigkeit bei Steinbeis war Prof. Lasi Akademischer Rat an der Universität Stuttgart und hat dort mit einem interdisziplinären Forscherteam im Themenbereich Entscheidungsunterstützung in Industriebetrieben sowie Management von Hardware, Software und Netzinfrastrukturen geforscht und gelehrt.

Hans-Georg Kemper, Heiner Lasi
Hans-Georg Kemper, Heiner Lasi
Vortrag: Di 5.1
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:40
Di 6.1
Grundlagen der Datenanalyse
Grundlagen der Datenanalyse

Diese Session ordnet die Themenfelder und stellt den organisatorischen Rahmen dar, in den die Nutzung von Analytics in Unternehmen eingebettet sein sollte. Dazu werden zunächst statistische Grundlagen aufgefrischt. Darauf aufbauend werden Algorithmen und deren potenzielle Eignung für Anwendungen vorgestellt und diese anhand kleiner Beispiele durchgerechnet.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
Vortrag: Di 6.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:10
Break
Break
Break

11:10 - 12:20
Di 1.2
Machine-Learning-basierte Systeme: Einstieg für Architekten
Machine-Learning-basierte Systeme: Einstieg für Architekten

Machine Learning ist auf dem Vormarsch und hochgradig von Daten abhängig. Das Thema ist omnipräsent und wird aber meist entweder sehr abstrakt oder aber sehr algorithmisch, daten-zentriert, auch code-nah beleuchtet. Der Blick auf die Gesamtarchitektur von Systemen, die ML enthalten, fehlt dabei oft. Unser Vortrag unterstützt Softwarearchitekten und Data Scientists dabei, den Überblick zu behalten, die wesentlichen Fragen zu stellen, besser zusammenzuarbeiten und somit bessere Architekturen für Systeme basierend auf Machine Learning zu designen.


Zielpublikum: Software Architect, Project Leader, Data Scientist
Voraussetzungen: Grundlegendes Verständnis zu Softwarearchitektur
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

  • KI ist ein absolut populäres Thema. Durch die einfache Verfügbarkeit von on-demand Rechenkapazität in der Cloud und die große Verfügbarkeit von Daten kann mittlerweile KI/Machine Learning einfach eingesetzt werden. Das wird zunehmend für unterschiedliche Domänen und Anwendungsfälle relevant
  • Aktuelle Betrachtungen fokussieren häufig auf detaillierte technische Aspekte mit dem Fokus wie bestimmte Algorithmen für unterschiedliche Anwendungsfälle verwendet werden können
  • Technische Publikationen sind oft sehr algorithmisch und codenah und für Architekten nicht ausreichend
  • Als Architekten müssen wir uns daher künftig zunehmend damit auseinandersetzen, wie wir KI als Werkzeug und Funktionalität in 'normalen' Systemen einsetzen
  • Dadurch ergeben sich neue Herausforderungen und Fragestellungen. Insbesondere der Betrachtung von Daten und der strukturierten Unterscheidung von
  • Wie integriert sich die KI als Baustein im Gesamtsystem?
  • Was wird wann woraus gelernt und welche Daten werden dazu einbezogen
  • Zu welchen Zeitpunkten wird ein Modell gelernt und wann wird nachgelernt?
  • Wie werden Modelle verteilt und deployed?

 

 

Dominik Rost ist seit 2009 Softwarearchitekt am Fraunhofer IESE und leitet dort seit 2020 die Abteilung »Architecture-Centric Engineering (ACE)«. Er berät Kunden aller Branchen dabei, die Architektur ihrer Produkte zu entwickeln, zu evaluieren und zu dokumentieren, und die Skills im Bereich Softwarearchitektur zu verbessern. Über seine Erfahrungen spricht er regelmäßig bei Konferenzen. Darüber hinaus leitet er das Seminar »Softwarearchitektur« der Fraunhofer Academy.
Matthias Naab ist Softwarearchitekt am Fraunhofer IESE und leitet seit 2020 die Hauptabteilung Information Systems. Seit 2010 verantwortet er die Weiterentwicklung von Architekturmethoden und die Beratung von Kunden aus der Wirtschaft. Er hat in zahlreichen Projekten in unterschiedlichsten Branchen Architekturen bewertet, Systeme verbessert und innovative Systeme mitgestaltet. Matthias Naab hält regelmäßig Vorträge zu Softwarearchitektur und Digitalen Ökosystemen.
Dominik Rost, Matthias Naab
Dominik Rost, Matthias Naab
Vortrag: Di 1.2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 2.2
Data creativity for next-level mobility solutions
Data creativity for next-level mobility solutions

Working as a Data Scientist in a Start-Up can be challenging and exciting at the same time. The amount of available data, lack of data quality and fast-changing business needs are some of a Data-Scientist's biggest enemies. To overcome such obstacles you need to be creative to get as many insights as possible from the available data in order to establish scalable processes and take the right decisions at the right time. 

How we did that? We will elaborate in this talk.

Target Audience: Data Scientists, Project Leader, Project Manager, Analysts, Data Engineers, everyone who's juggling with Data
Prerequisites: Basic knowledge
Level: Basic

Extended Abstract:

As usual for a (grown up) Start-Up, there are many construction sites that need to be handled or optimized. And although Cluno is still very young, it already has a Data Team consisting of 9 employees, 3 of whom work in the Data Science team – because Cluno wants one thing above all others: to support decision making processes with data driven intelligence.

The Data-Science team is currently working on two major building blocks that are essential for Cluno: The purchase of the right vehicles in the right quantity and the matching of potential customers with the most convenient available vehicles. As for every data intensive project, using state of the art machine learning techniques is very tempting. Unfortunately, in theory this is often easier said than done. Even though we have the necessary data infrastructure and machine learning expertise, the amount of data collected over the two years of the existence of Cluno and its quality prevents us from leveraging the fanciest techniques. Under these conditions, the Data Science team had to get extra creative in order to distill as much intelligence as possible from the existing data to support our different departments – without losing ourselves in the depths of the most complex machine learning algorithms.

In this talk we want to give you some insights on how ideas for the optimization of existing processes were turned data-driven, what (data-) challenges we faced in a Start-Up environment and how both projects are not only leveraging simplicity and providing our business with the much needed insights, but also building the foundations of the next generation of machine learning based data products.

Alexander Diergarten is Data Scientist at Cluno and therefore responsible to connect data from different areas to create valuable data products using machine learning.
Before that, he was building data services for customers at Autoscout24. These services used machine learning to gain market knowledge about current and future market values to show personalized content to end users.
Marouen Hizaoui is Data Scientist at Cluno, working mainly on building recommendation engines supporting different parts of the business.
Before that, he worked for a few different companies on a variety of tasks ranging from demand forecasting to NLP.
Alexander Diergarten, Marouen Hizaoui
Alexander Diergarten, Marouen Hizaoui
Vortrag: Di 2.2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 3.2
Schwimmen mit dem Strom – Real-Time ETL ohne Batchprozesse
Schwimmen mit dem Strom – Real-Time ETL ohne Batchprozesse

ETL ist Batch: Effizienz, Datenkonsistenz, Nachvollziehbarkeit, Einfachheit, etablierte Methoden und ausgereifte Werkzeuge machen den Bau eines DWH zu einem Standard-Job.
Dabei ist Streamprocessing technisch kein Problem. Nur: Wie baut man komplexe fachliche Transformationen 'im Stream'? Wie sichert man Datenkonsistenz? Wohin mit der Datenhistorie? Wie geht das ressourceneffizient?

Der Vortrag zeigt an einem konkreten Projekt Verfahren, Werkzeuge, Vor- und Nachteile und die konkrete Umsetzung eines rein Event-getriebenen Data Warehouses.

Zielpublikum: Data Engineers, BI Project Manager
Voraussetzungen: Gutes DWH und ETL Knowhow
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

ETL ist heute (noch?) immer eine reine Batch-Veranstaltung – und das aus gutem Grund: Effizienz und geringer Overhead, hohe Datenkonsistenz, Nachvollziehbarkeit, niedrigere Komplexität, etablierte Methoden und ein Fundus ausgereifter Werkzeuge machen den Auf- und Weiterbau eines Data Warehouses oder eines Data Lakes (fast schon) zu einem Standard-Job. Selbst die meisten 'Near-Real-Time' Prozesse (stündlich, viertelstündlich oder 5-minütlich) werden heute durch – kürzere, kleinere und häufiger ausgeführte – Batch-Jobs erledigt, nicht selten exotische 'Außenseiter' in der Riege der täglichen DWH Workflows.
Dabei ist doch zumindest eine zeitnahe Datenextraktion im Stream technisch kein großes Problem: Ob 'Log-based CDC', Json-Streaming via http oder das Abgreifen von Events aus Kafka ist weit verbreitet. Und auch das permanente Runterschreiben dieser Datenströme in Datenbanken ist kein Hexenwerk.
Wie aber implementiert man darauf komplexe, technische und fachliche Transformationen 'im Stream'? Wie sichert man Datenkonsistenz, wenn die Ankunft der Daten nahezu unvorhersagbar ist? Wie speichert man diese Datenströme – mit Datenhistorie für spätere Auswertungen – und wie kann man solche Prozesse noch ressourceneffizient umsetzen?
In diesem Vortrag zeigen wir anhand konkreter Projekte, welche Verfahren und Werkzeuge sich eignen, wo deren Vor- und Nachteile gegenüber klassischen Batch-Prozessen liegen und wie eine konkrete Umsetzung eines rein Event-getriebenen Data Warehouses aussehen kann.

Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.
Peter Welker
Peter Welker
Vortrag: Di 3.2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 4.2
Drei Jahre Competence Center für Künstliche Intelligenz
Drei Jahre Competence Center für Künstliche Intelligenz

Das Competence Center für Künstliche Intelligenz für die Sparkassen-Finanzgruppe ('KIXpertS') wurde Anfang 2019 gegründet und befindet sich im dritten und letzten Jahr seines Bestehens. Andreas Totok wird über die Erfahrungen berichten, die in Aufbau und Betrieb des als Programm organisierten Competence Centers gemacht wurden. Weiterhin wird er ausgewählte Use Cases vorstellen, die anhand ihres Potentials für die fachliche Evaluierung und folgende technische Implementierung ausgewählt wurden.

Zielpublikum: Fachanwender, IT-Architekten mit
Voraussetzungen: Grundlegendes Verständnis der Methoden Künstlicher Intelligenz wie beispielsweise das maschinelle Lernen.
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Das Competence Center für Künstliche Intelligenz der FI-Gruppe unterstützt die Sparkassen-Finanzgruppe dabei, die Chancen der Künstliche Intelligenz frühzeitig zu nutzen. Die Initiative wurde 2019 von der Finanz Informatik ins Leben gerufen und bietet eine Plattform für den Wissensaustausch zum Thema. Übergreifende Ziele sind, es mit Hilfe von KI für den Kunden einfach zu machen sowie ungeliebte Prozesse innerhalb der S-Finanzgruppe besser zu unterstützen bzw. überflüssig zu machen.

Das KIXpertS-Team besteht aus einem übergreifenden Team von Experten für Künstliche Intelligenz und Softwareentwicklung mit bankfachlichem Knowhow sowie Kenntnissen und Erfahrungen der Integration in bankfachliche Prozesse.

Dr. Andreas Totok ist Geschäftsbereichsleiter Enterprise Information Management bei der Finanz Informatik Solutions Plus GmbH. In dieser Funktion berät er Bankinstitute und Versicherungen der Sparkassen-Finanzgruppe zu strategischen IT-Themen und verantwortet Projekte für die Anwendung Künstlicher Intelligenz und dem Management von Daten. Seine Schwerpunkte liegen in der Fachkonzeption sowie der Architektur- und Organisationsberatung.
Andreas Totok
Andreas Totok
Vortrag: Di 4.2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 5.2
Datengenossenschaften - Konzept, Implementierung und Erfahrungen eines Praxisprojektes
Datengenossenschaften - Konzept, Implementierung und Erfahrungen eines Praxisprojektes

Weitere Informationen folgen in Kürze.

Dr. rer. pol. Henning Baars ist Akademischer Oberrat am Lehrstuhl für ABWL und Wirtschaftsinformatik 1 der Universität Stuttgart und Sprecher der Fachgruppe „Business Intelligence“ der Gesellschaft für Informatik. Seit 2003 ist er an der Universität Stuttgart beschäftigt. Aktuelle Forschungsthemen sind „Agile Business Intelligence“, „BI und Big Data“, „BI in the Cloud“ sowie „BI und Analytics im Internet of Things“.
Henning Baars, Patrick Weber
Henning Baars, Patrick Weber
Vortrag: Di 5.2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 6.2
Einführung in ein grafisches Analysewerkzeug
Einführung in ein grafisches Analysewerkzeug

Diese Session erarbeitet Auswahlkriterien von Algorithmen und überträgt die Umsetzung in das Werkzeug RapidMiner. Natürlich ist dies nur ein Werkzeug unter vielen, jedoch soll es den Teilnehmern einen Eindruck vermitteln, wie in Projekten mit großen Datenbeständen und entsprechenden Analyseanforderungen werkzeugunterstützt gearbeitet wird.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
Vortrag: Di 5.2
flag VORTRAG MERKEN

Vortrag Teilen

12:20 - 12:30
Short Break
Short Break
Short Break

13:00 - 14:00
Lunch Break
Lunch Break
Lunch Break

14:00 - 14:40
Di 1.3
Data Lakehouse und Data Mesh: Das Ende von Data Lake & DWH?
Data Lakehouse und Data Mesh: Das Ende von Data Lake & DWH?

Mit Data Lakehouse und Data Mesh verbreiten sich im Moment neue Paradigmen und Architekturmuster für analytische Fragestellungen in Unternehmen unterschiedlichster Branchen. Die beiden Ansätze verfolgen hierbei sehr konträre Zielsetzungen und verheißen gleichzeitig die nächste Evolutionsstufe analytischer Architekturen zu sein.

Im Rahmen des Vortrags werden die beiden Architekturmuster und deren Intensionen gegenübergestellt und anhand praktischer Projekterfahrung eingeordnet.

Zielpublikum: Enterprise Architects, Data Architects, DACC / BICC Manager, Data Engineers, Data Scientists, Data Consumers

Voraussetzungen: Grundverständnis über heutige Architekturen im Data & Analytics-Umfeld und den daraus resultieren Herausforderungen für die involvierten Stakeholder.

Schwierigkeitsgrad: Fortgeschritten

Steffen Kandler studierte Wirtschaftsinformatik an der TH Mittelhessen. Nach seinem Einstieg bei INFOMOTION beschäftigte er sich als BI-Entwickler und Architekt mit Schwerpunkten im Datenmanagement, Datawarehousing sowie Datenvisualisierung. 
Aktuell befasst er sich mit dem Einfluss der Digitalen Transformation auf Data & Analytics und den Facetten von modernen, skalierbaren und flexiblen Analytics-Plattformen sowie den zugehörigen Architekturen, Technologien und Methoden.
Mathias Lipke studierte Wirtschaftsinformatik an der TH Ulm und arbeitet seit 2015 als Berater bei der INFOMOTION GmbH im Schwerpunkt von Big Data Technologien und Architekturen. Sein Fachwissen konzentriert sich insbesondere auf den Aufbau und die Operationalisierung analytischer Plattformen mit Basis von Hadoop (Cloudera) und Azure Cloud Komponenten.
Steffen Kandler, Mathias Lipke
Steffen Kandler, Mathias Lipke
Vortrag: Di 1.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 2.3
Produktmanagement der Zukunft – Machine Learning-optimiert
Produktmanagement der Zukunft – Machine Learning-optimiert

Wohin geht der Trend? Wie entwickelt sich der Markt? Welche neuen Möglichkeiten bieten sich? Produktmanager müssen von Natur aus zukunftsorientiert arbeiten und mitunter in die Glaskugel blicken. Je höher die Anzahl und je diversifizierter die Waren, umso komplexer die Portfolioplanung. Das Produktmanagement bei ratioform steht täglich vor genau dieser Herausforderung – und hat mit Hilfe innovativer Technik eine zukunftsorientierte Lösung gefunden!

Zielpublikum: product managers, data management experts, ML specialists, decision makers
Voraussetzungen: experience
Schwierigkeitsgrad: Fortgeschritten

Daniela Senkbeil ist Director Category Management, Solution und Pricing und seit gut 20 Jahren unter anderem im Produktmanagement sowohl in Konzernstrukturen als auch im Mittelstand tätig. Sie verfügt über B2B- und B2C-Erfahrung und ist sowohl im Stationär- als auch im Versandhandels-Business zu Hause mit den jeweiligen Herausforderungen. Ihr persönlicher Fokus liegt auf der Portfoliovermarktung und dem strategischen Brandmanagement.
Sie ist seit 2006 bei ratioform. Dort hat sie das Produktmanagement aufgebaut und zu einer tragenden Säule für die Wachstumsambitionen des Unternehmens geformt
Marcus Eichler ist Director Marketing, Digital & Technologie bei ratioform-Verpackungen und treibt dort u.a. die Digitalisierung und Nutzung von Daten voran. Zuvor war er bei der Telefonica Germany und hat dort mehrere hundert Prozess- und Datenexperten ausgebildet und die digitale Transformation in unterschiedlichen führenden Positionen vorangetrieben. Seit seinem Berufsstart als Energieelektroniker bei MAN und später als Wirtschafsingenieur und Lean Six Sigma Master Black Belt, faszinieren ihn datengetriebene Prozesse. Unter dem Motto 'Knowledge is nothing without action' realisiert er Ideen und Projekte und hat mit seinen Teams Netzwerke umgestellt, IT-Systeme definiert, Linien- zu Prozessorganisationen transferiert, Abteilungen auf- und umgebaut. Mit den realisierten Lösungen werden Kunden individuell, zum richtigen Zeitpunkt und dem richtigen Auslöser angesprochen und die Wertschöpfung während der Customer Journey signifikant beeinflusst.
Daniela Senkbeil, Marcus Eichler
Daniela Senkbeil, Marcus Eichler
Vortrag: Di 2.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 3.3
360° Kundensicht in einer heterogenen Konzernlandschaft? Master Data Management bei Bilfinger SE
360° Kundensicht in einer heterogenen Konzernlandschaft? Master Data Management bei Bilfinger SE

Ein 360° Blick auf die Geschäftskunden ist ein wichtiger Faktor in der unternehmerischen Entscheidungsfindung. Auf Konzernebene sind Kundendaten jedoch häufig auf verschiedene Systeme sowie weitere Applikationen verteilt, mit variierender Datenqualität, Aussagekraft und Möglichkeiten der Anbindung. Bei Bilfinger SE, einem internationalen Konzern mit Einheiten auf der ganzen Welt, suchte man daher nach einer Lösung, die alle Kundenstammdaten zusammenbringt und sie anschließend auf Konzernebene mit relevanten Finanzkennzahlen auswertbar macht.

Zielpublikum: Project Leader, Data Stuarts, Decision Makers, Data Architects, BI Specialists
Voraussetzungen: Basic Knowledge
Schwierigkeitsgrad: Anfänger

Extended Abstract:

Ein datenbasierter 360° Blick auf die Geschäftskunden ist ein wichtiger Faktor in der unternehmerischen Entscheidungsfindung. Auf Konzernebene sind Kundendaten jedoch häufig auf verschiedene ERP- und CRM Systeme sowie weitere Applikationen verteilt, mit variierender Datenqualität, Aussagekraft und Möglichkeiten der Anbindung.

Bei Bilfinger SE, einem internationalen Konzern mit Einheiten auf der ganzen Welt, suchte man daher nach einer Lösung, die alle Kundenstammdaten zusammenbringt und sie anschließend auf Konzernebene mit relevanten Finanzkennzahlen auswertbar macht.

Die Erstellung von Golden Records mit Hilfe von Algorithmen, das Analysieren von Dubletten, die Anreicherung von Kundendaten mit digitalen Wirtschaftsinformationen und ein Workflow-Tool, welches den Datenprozess automatisiert steuert, sind dabei die wichtigsten Bausteine für ein erfolgreiches Master Data Management.

Mirjam Cohrs (M.A. Politikwissenschaft) ist Leiterin des Management Business Intelligence Teams bei der Bilfinger SE.
Ihre Karriere begann als Analystin im CRM-Umfeld, heute bringt sie mehrjährige Erfahrung in der Umsetzung von Reporting- und DWH-Projekten in der Finanz- und Paymentindustrie mit.
Mirjam Cohrs
Mirjam Cohrs
Vortrag: Di 3.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 4.3
Mit KI die Prognose im Bankgeschäft verbessern
Mit KI die Prognose im Bankgeschäft verbessern

Die Absatzprognose ist in der klassischen Industrie das A&O der Ressourcen- und Wirtschaftsplanung. Ereignisse wie die Pandemie machen jedoch eine Planung mit klassischen Verfahren fast unmöglich. KI basierte Modelle können hier helfen. Können diese Methoden auch auf Banken bzw. die Finanzindustrie übertragen werden? In dem Vortrag werden anhand eines konkreten Beispiels die Möglichkeiten und Herausforderungen von KI basierter Prognose von Verkaufszahlen im Banking vorgestellt.

Zielpublikum: Vertriebsmanager, Controlling, Business Development
Voraussetzungen: Kenntnisse über Planungs- und Prognoseprozess in Banken / Finanzindustrie
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Für einen validen Prognoseprozess im Banking sind ausreichend historische und qualitativ hochwertige Daten notwendig. Welche Daten für den Prognoseprozess in der Praxis vorliegen und wie diese aufbereitet und veredelt werden, zeigen wir im ersten Teil des Vortrages. Im zweiten Teil gehen wir auf die KI-basierten Prognosemodelle ein und stellen anhand eines Praxisfalls die Ergebnisse und die daraus resultierenden Möglichkeiten und Herausforderungen vor. Hierbei wird auf die Komplexität der Prognose durch die Kombination von Produkten, Kanälen und Mitarbeitern besonders eingegangen.

Thomas Liebke, Jahrgang 1970, ist seit 30 Jahren in der Bankenbranche tätig. Thematisch beschäftigt sich Thomas Liebke vor allem mit der datenbasierten Entscheidungsfindung für das Bankmanagement und der Steigerung und Optimierung der betriebswirtschaftlichen Situation im Retailgeschäft von Banken.
Thomas Liebke, Christof Bitschnau
Thomas Liebke, Christof Bitschnau
Vortrag: Di 4.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 6.3
Einführung in die Programmiersprache R
Einführung in die Programmiersprache R

Diese Session beschäftigt sich mit dem Werkzeugunterstützungsgedanken mittels der Sprache R. Die in diesem Umfeld prominent genannte Sprache ist für statistische Berechnungen und Grafiken geschaffen worden. In der Session werden ausgewählte kleine Beispiele im Werkzeug umgesetzt.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
Vortrag: Di 5.3
flag VORTRAG MERKEN

Vortrag Teilen

14:40 - 14:50
Short Break
Short Break
Short Break

14:50 - 15:30
Di 1.4
Complex Event Processing with Kafka Streams
Complex Event Processing with Kafka Streams

Kafka and Kafka Streams have emerged as the de facto standard for scalable, high volume and low-latency real time data processing in the industry. Complex event processing is concerned with the detection of patterns in raw events and their transformation to higher level events that are more business relevant. This talk shows how to implement scalable, fault tolerant and declarative complex event processing based on Kafka Streams.

Target Audience:Data Engineer, Data Scientist, Data Architect
Prerequisites: Basic understanding of real time data processing and Apache Kafka.
Level: Advanced

Extended Abstract:

Kafka and Kafka Streams have emerged as the de facto open source standard for real time, low latency and high throughput data integration in a large variety of industries. Besides providing traditional operations such as grouping, aggregations and table-table joins, Kafka Streams treats streams of data as first class citizens and offers some unique features geared at real time data wrangling such as aggregation of data across different types of time windows, real time data enrichment, and joins between streams of data. While both types of operations have emerged from the ambit of relational databases, the complex event processing community has focused their attention on declarative, pattern based recognition of business relevant events from lower level, raw events. Examples for operations supported by complex event processing are sequences, negation, conjunction, disjunction and repetition. This talk shows how sequences, negation and regular expressions on event streams can be implemented in a scalable and fault tolerant manner based upon the Kafka Streams DSL and the Kafka Streams Processor API. The provided examples are relevant to use cases such as detection of shoplifting, security systems, operations of production lines, and online shopping.

Benedikt is a Senior Solutions Architect at Confluent and has always been passionate about data and algorithms. He holds a Diploma and PhD in Computer Science from the University of Munich, where he fell in love with rule based data integration, and has authored many papers and given talks at international conferences. At Confluent, Benedikt has turned his attention to distributed real time data processing with Apache Kafka, Kafka Streams. During the last years, he has advised a large number of high profile customers on their event streaming journey. During his spare time, Benedikt loves to spend time with his family and trying out any kind of new sport.
Benedikt Linse
Benedikt Linse
Vortrag: Di 1.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 2.4
From BI to AI & analytics industrialization
From BI to AI & analytics industrialization

I will show the journey that Tires took from its first attempts to extend their BI services for analytics to operate a mission critical industrialization environment which runs several AI projects. Beneath the problems and obstacles that were taken I will also explain the decisions that were taken and show the industrialization environment which was created. I also will explain why it was necessary to have such an environment instead of making use of classical BI tools.

Target Audience: Project leader, decision makers, CIO, Software engineers
Prerequisites: None
Level: Basic

Extended Abstract:

When Continental Tires started to establish Data Science as a function it decided to grow this out of BI but with an external employee. The journey was a long one but due to the given experience Continental was able to leave out some of the painful experiences that were made in other companies. So they decided to build up an infrastructure for industrialization of Use Cases from the first minute. The example of Tires is a good one to understand the roadmap from BI to Data Science industrialization. While in the beginning there was the hope that a simple extension of BI and BI tools would deliver an answer today the organization is a complete different one. Also Tires created an own landscape for industrialization of AI. Why this is done so and why this might be useful will be shown in the talk.

Studied Sociology with focus on statistical methods Dubravko Dolic made his first IT/programming experience already during his time at universities in Oldenburg and Northern Ireland. His professional career was shaped by a huge number of projects located between IT and business. Always striving to make data analyses easy available he was consultant for BI and Data analysis for more than 15 years. Since 2017 he is responsible for Data Science at the central IT for Continental Tires.
Dubravko Dolic
Dubravko Dolic
Vortrag: Di 2.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 3.4
Integration of SAP data into a common data model
Integration of SAP data into a common data model

In the past, data was often stored in a monolithic data warehouse. Recently, with the advent of big data, there has been a shift to work directly with files. The challenge therefore arises in data management and storing metadata information. In this presentation, I will show how SAP (ERP or BW) data can be extracted using SAP Data Intelligence (ODP framework) and stored along with their metadata information. These data are stored in a Common Data Model (CDM) format and can be easily integrated and consumed with various products.

Target Audience: Professionals who would like to integrate SAP data into a Data Platform (e.g. Datalake) and include metadata information.
Prerequisites: Basic understanding of the SAP integration framework ODP, and cloud infrastructure (e.g. Azure Datalake Storage)
Level: Advanced

Experienced Business Intelligence Consultant, with a focus on Microsoft Azure, SAP data integration and Data Warehousing.
Background in physics, with a PhD in Seismology.
Julius von Ketelhodt
Julius von Ketelhodt
Vortrag: Di 3.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 4.4
Transparenz als Erfolgsfaktor der Data Governance Initiative
Transparenz als Erfolgsfaktor der Data Governance Initiative

Durch die Digitalisierung und die zunehmende Regulierung sind Unternehmen einem steigenden Veränderungsdruck ausgesetzt. Um darauf reagieren zu können, ist eine hohe Transparenz über die operativen und dispositiven Datenbestände notwendig. Zusätzlich bringen die zunehmende Automatisierung der Datenverarbeitung und der Einsatz Künstlicher Intelligenz für die Entscheidungsfindung eine gesteigerte Anforderung an die Datenqualität mit sich. Synabi und der Raiffeisenverband Salzburg haben sich dieser Herausforderung erfolgreich gestellt – aber wie?

Zielpublikum: CIO, CDO, BI/DWH Entscheider, BI/DWH (Competence Center) Manager, BI/DWH Programm- und Projektleiter, BI/DWH Architekten, interessierte IT- und Fachbereichsverantwortliche und Anwender
Voraussetzungen:
Voraussetzung sind grundlegende Kenntnisse in den Bereichen Daten- und Informationsmanagement. Architektur, Modellierung, Betrieb, Organisation und Prozesse ist vorteilhaft
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Beim Raiffeisenverband Salzburg wurde 2016 eine Data Governance Initiative gestartet, um die bestehenden und zukünftigen Herausforderungen, die unter anderem durch die zunehmenden Regulierungen, wie zum Beispiel BCBS239, DSGVO etc., entstehen, zu meistern. Dabei wurden neben den Daten auch die Prozesse und die Unternehmensarchitektur mit eingebunden. 2019 wurde D-QUANTUM als Softwarelösung ausgewählt und im Unternehmen eingeführt, um die hierfür erforderlichen technischen und fachlichen Informationen zusammenzuführen und allen Mitarbeitern des Unternehmens zur Verfügung zu stellen

Philipp Maislinger ist seit Gründung der Einheit 'Datenmanagement' an Aufbau und Implementierung der Data Governance für den Raiffeisenverband Salzburg im Einsatz. Er entwickelte die strukturelle Grundlage der Metadatenmodelle, sowie deren Einbettung in die Unternehmensarchitektur. Aktuell hat er die Projektleitung für die Einführung eines softwaregestützten Metadatenmanagements inne.
Anika Sengstock entwickelt und begleitet das strategische Informationsmanagement für den Raiffeisenverband Salzburg und dessen 48 selbstständigen Raiffeisenbanken mit Schwerpunkt auf Daten(qualitäts)management. Im Change-Management etabliert sie aktuell eine softwaregestützte Dokumentationsplattform für mehr Transparenz und Datenverständnis im Sinne der BCBS 239 Anforderungen.
Philipp Maislinger, Anika Sengstock
Philipp Maislinger, Anika Sengstock
Vortrag: Di 4.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 6.4
Einführung in die Programmiersprache Python
Einführung in die Programmiersprache Python

Diese Session fokussiert die Programmiersprache Python anhand vorgefertigter Code-Beispiele, um den Teilnehmern eine Grundlage zu schaffen, die Einsatzpotenziale und Aufwände der Sprache im Bereich Advanced Analytics besser abschätzen zu können.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Carsten Felden, Claudia Koschtial
Carsten Felden, Claudia Koschtial
Vortrag: Di 5.4
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:00
Break
Break
Break

16:00 - 17:10
Di 1.5
Bauen Sie Ihr Modern Data Warehouse!
Bauen Sie Ihr Modern Data Warehouse!

Das Modern Data Warehouse (MDWH) gilt als DAS Zukunftskonzept für die digitale Transformation. Denn: Dank Cloud-Technologien kann das MDWH auf ganz unterschiedliche Anforderungen vom Reporting bis zur KI angepasst werden. Aber wie sieht eine Basisarchitektur aus? Welche Anpassungen sind bei verschiedenen Use Cases notwendig? Jens Kröhnert liefert die Antworten. Vor den Augen des Publikums baut er ein MDWH in der Cloud auf und spielt konkrete Einsatzszenarien durch. Die Teilnehmer werden als Lieferant für Streaming-Daten unmittelbar involviert.

Zielpublikum: Alle Personengruppen im Unternehmen, die mit Daten arbeiten
Voraussetzungen: Basiskenntnisse
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

GLIEDERUNG:

Einführung in das MDWH

  • BI und Big Data auf einer Plattform
  • Von Open Source zu PaaS und SaaS
  • Gründe für Cloud-Migration/Anwendungsszenarien
  • Basisarchitektur 'Modern Data Warehouse'


Kunden-Case 'Aluminium-Fertigung'

  • Ausgangssituation: Klassisches DWH OnPrem
  • Ziele: Echtzeit & Machine Learning in der Cloud


Step by Step: Aufbau eines MDWH

  • Nutzung von PaaS- und SaaS-Diensten
  • Entwicklung in kurzen Sprint-Lösungen
  • Umsetzung von Streaming
Dipl.-Ing. Jens Kröhnert verfügt über 25 Jahre Erfahrung in der Planung und Umsetzung großer BI- und Big-Data-Projekte. Als Big Data & IoT Evangelist der ORAYLIS GmbH verantwortet er die Bereiche 'Innovation – neue Technologien' und 'Technische Presales'. Als P-TSP ist er direkt in den Presales-Prozess von Microsoft eingebunden. Sein Fokus liegt auf Themen wie Hadoop/Databricks, IoT und Azure.
Jens Kröhnert
Jens Kröhnert
Vortrag: Di 1.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 2.5
Quantifying the impact of customer experience improvements on churn via causal modeling
Quantifying the impact of customer experience improvements on churn via causal modeling

Quantifying the impact of customer experience (CX) improvements on the financials is crucial for prioritizing and justifying investments. In telecommunication as well as other subscription-based industries, churn is one of or the most important financial aspects to take into account. The presented approach shows how the churn impact of CX improvements – measured via Net Promoter Score (NPS) – can be estimated based on structural causal models. It makes use of algorithms for causal discovery and counterfactual simulation.

Target Audience: Data Scientist, Decision Maker
Prerequisites: basic understanding of statistical modeling
Level: Advanced

Dr. Björn Höfer manages a team for Advanced Analytics & Data Science at Telefónica Germany. He studied International Business at the University of Paderborn and received his PhD from Friedrich-Alexander-University (FAU) of Nuremberg for enhancing simulated test market methodology. His team at Telefónica uses modern data science methods to improve decision making at Telefónica.
Björn Höfer
Björn Höfer
Vortrag: Di 2.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 3.5
End-to-End-Use Case: Metadata Management & DWH
End-to-End-Use Case: Metadata Management & DWH

Like many companies, the 3 banks face the challenge of implementing data governance. With an end-to-end approach for metadata – from the business definition to the DWH implementation – a basis was created for this. The use cases 'IT requirements', 'data quality' and 'data definitions' were the focus of the resource-saving project. The target groups for the metadata are primarily the LoB, especially risk management, but also IT.

Target Audience: Data Governance Manager, Risk Manager, Data Quality Manager, Data Warehouse Architects, Data Modeler
Prerequisites: Basic knowledge
Level: Basic

Clemens Bousquet is risk manager at Oberbank, which is part of the Austrian 3-Bank Group. Both in a risk management leadership role and in numerous projects, he has built up a high level of expertise in functional data modeling, the roll-out of data governance but also the implementation of BCBS 239 and IFRS 9. Previously, he graduated in Economics and International Business Studies.
Lisa Müller is Managing Consultant at dataspot. Her consulting focus is on business data modeling, data quality management and metadata management. Due to years of project experience – among others in banking – she was able to build up data governance relevant domain knowledge. In addition to two completed bachelor's degrees, she holds a master's degree in business administration.
Clemens Bousquet, Lisa Müller
Clemens Bousquet, Lisa Müller
Vortrag: Di 3.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 4.5
Datenqualitätsmanagement RUN & CHANGE THE BANK mit Metadaten
Datenqualitätsmanagement RUN & CHANGE THE BANK mit Metadaten

Wie jede Bank will auch die Volksbank Wien in allen Geschäfts- und Steuerungsprozessen maximale Informations-Integrität und Datenqualität auf allen Ebenen erreichen. Auf Basis fachlicher Metadaten werden die Datenqualitätsanforderungen definiert, der Life-Cycle und Anforderungsprozess umgesetzt sowie die Verantwortlichkeiten vergeben. Die Trennung in 'Datenqualität allgemein' und in 'Qualität der Datenproduktion' half bei der Strukturierung der Maßnahmen, die auf Governance-Aspekte, RUN the Bank und CHANGE the Bank abzielen.

Zielpublikum: Data Governance Manager, Datenqualitätsmanager, Riskmanager, Metadatenmanager
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Anfänger

Harald Seebacher leitet den Bereich Financial Data Steering in der Volksbank Wien AG und verantwortet damit Datenmanagement und Data Governance im gesamten österreichischen Volksbankensektor. Sein aktueller Arbeitsschwerpunkt ist die Zentralisierung sämtlicher Datenqualitätsagenden in Sektor sowie die Neueinrichtung der fachlichen Datenmodellierungsprozesse in der Volksbank. Als ausgebildeter Betriebswirt übernahm er schon sehr früh Führungsfunktionen im Organisations- und IT-Umfeld und ist mit diesem fachlichen Hintergrund prädestiniert für den Aufbau der CDO-Funktion im Volksbankensektor.
Barbara Kainz ist Geschäftsführerin der dataspot. GmbH. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Harald Seebacher, Barbara Kainz
Harald Seebacher, Barbara Kainz
Vortrag: Di 4.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 6.5
Text Mining vs. Data Mining
Text Mining vs. Data Mining

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
Vortrag: Di 5.5

Diese Session vermittelt die Unterschiede zwischen Data Mining und Text Mining, so dass auch hier die Teilnehmer in der Lage sind, diese zu erkennen und in eigenen Projekten zu berücksichtigen. Während der Session zeigen wir ein kleines Code-Beispiel, so dass der Eindruck für den Aufwand vermittelt wird.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger

flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:40
Mi 1.1
Integrating SAP data into a modern analytics warehouse on Google Cloud in an automated fashion
Integrating SAP data into a modern analytics warehouse on Google Cloud in an automated fashion

Transforming an organization to become more data driven usually presents a set of technological challenges. In this session you will learn how to integrate existing applications data in real time to achieve a useful critical mass of explorable data.

Target Audience: CTOs, CIOs, CDOs, data engineers, data modelers, data analysts, data scientists
Prerequisites: General understanding of data in the context of the enterprise
Level: Basic

Extended Abstract:
'Data is the new oil' these days many organizations are in the midst of a digital transformation. In order to enable data driven processes, it is imperative to leverage the treasure trove of data hidden away in already existing applications. Extracting data from those applications (the E in ETL) is commonly the biggest pain point of data engineering. Many systems were not built to be extracted, so therefore data engineering needs to carefully balance performance versus load. At the same time customers demand more: nightly batch processing is not good enough anymore, the need for real time information is growing.

How to align all of this? Enter Change Data Capture (CDC). Based on a real live use case, you will learn how to integrate data from an existing mission critical SAP application into a modern cloud-based analytics warehouse. We will tell the story of our journey from the initial use cases, constraints that we faced, discoveries along the way to the final design and our appetite for more.

Matthias is a globally experienced IT executive with core competencies in Big Data analytics, retail, e-commerce, loyalty & payment. More than 20 years of experience in developing scalable retail solutions. Currently building a data platform for BI, advanced analytics & data science at Breuninger.com
Matthias Krenzel
Matthias Krenzel
Vortrag: Mi 1.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:40
Mi 2.1
Semantische Textanalyse mit Prädikatenlogik
Semantische Textanalyse mit Prädikatenlogik

Künstliche Intelligenz analysiert natürlichsprachliche Texte, um präzise, robusteSyntaxbäume abzuleiten. Die syntaktische Struktur einer Aussage ist aber oft weniger wesentlich als ihre semantische Struktur. Sprich:Was besagt sie? Welcher Sinn steckt in ihr? Ein Fokus auf die Bedeutung führt dazu, dass eine kleine Anzahl an Referenzsätzen ausreicht, um eine große Anzahl semantisch entsprechender aber unterschiedlich strukturierter Ausdrücke entdecken zu können. Die Technik lässt sich in verschiedenen Bereichen anwenden: Conversational Interfaces, themenbasiertes Matching und die Dokumentenklassifizierung.

Zielpublikum: spezialisierte Analysten, Entwickler, Architekten
Voraussetzungen: Ein grundlegendes Verständnis der gesprochenen Sprache
Schwierigkeitsgrad: Anfänger

Richard Paul Hudson ist Principal IT Consultant bei msg. Er erforscht neue Trends und berät Kunden hauptsächlich in den Bereichen des maschinellen Lernens und der Anwendungsarchitektur. Er studierte ursprünglich Theoretische Linguistik an der University of Cambridge und freut sich sehr, in der Domäne der natürlichen Sprachverarbeitung seine IT- und linguistische Interessen miteinander verbinden zu können.
Mark Lubkowitz ist Software Engineer und Journalist. Thematisch fokussiert er sich auf Webtechnologien sowie neue Technologien. Er versucht stets, Maximen, Prinzipien und Gemeinsamkeiten zu finden, die den Alltag der Anwender, aber auch der Journalisten und Software-Ingenieure vereinfachen.
Richard Paul Hudson, Mark Lubkowitz
Richard Paul Hudson, Mark Lubkowitz
Vortrag: Mi 2.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:40
Mi 3.1
Smart City mit Open Source IoT Lösungen
Smart City mit Open Source IoT Lösungen

Die zunehmende Urbanisierung zwingt Städte zum Handeln. Technologie soll helfen die Infrastruktur einer Stadt effizienter und sicher nutzbar zu machen. Daten aus Sensoren in Kombination mit modernen Analysen sollen Städte smart machen. Smarte Städte wollen:

o            Besseren Umweltschutz

o            Höhere Sicherheit

o            Effizienterer Infrastrukturen

Im Vortrag wird eine Softwarearchitektur vorgestellt, die ihre Bewährungsprobe in der Praxis bestanden hat. Die Kombination dieser Tools gewährleistet eine maximal flexible und hoch skalierbare IoT Plattform.

Zielpublikum: Decision Makers, Data Engineers, Project Leaders
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Anfänger

Stefan Müller leitet den Bereich Big Data Analytics & IoT bei it-novum. Er hat eine tiefe Leidenschaft für die zahlreichen Möglichkeiten, die Open-Source-Lösungen für Data Analytics und Big Data bieten. Seit 2009 setzen er und sein Team erfolgreich Kundenprojekte in verschiedenen Branchen mit offenen Technologien wie der Pentaho-Plattform um.
Stefan Müller
Stefan Müller
Track: IoT
Vortrag: Mi 3.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:30
Mi 4.1
Is there life beyond hadoop – should data lakes be drained?
Is there life beyond hadoop – should data lakes be drained?

The past year or two has seen major changes in vendor support for the extended Hadoop ecosystem, with withdrawals, collapses, and mergers, as well as de-emphasis of Hadoop in marketing. Some analysts have even declared Hadoop dead. The reality is more subtle, as this session shows, through an exploration of Hadoop's strengths and weaknesses, history, current status and prospects. Discussion topics include plans for initiating new Hadoop projects and what to do if you have already invested, successfully or otherwise, in data lakes.

Target Audience:
Enterprise-, systems-, solutions- and data architects

Systems-, strategy- and business intelligence managers

Data warehouse and data lake systems designers and developers

Data and database administrators

Prerequisites:
Basic knowledge of data management principles

Experience of designing data warehouses or lakes would be useful

Level: Basic

Extended Abstract:
Hadoop and its extended menagerie of related projects have been responsible for a decade of reinvention in the data management world. On the positive side, projects that would have been impossible with traditional technology have become not only possible but commonplace in today's environment. Hadoop has been at the heart of the explosion of digital business.

However, Hadoop has also been beset by a long list of complaints and problems, particularly relating to data management and systems management. Some of Hadoop's early strengths have been eroded as relational database vendors have upped their game. Furthermore, the rapid growth of Cloud solutions to many massive data delivery and processing projects has impacted Hadoop's commercial viability.

All these factors have led to a questioning of the future of the extended Hadoop ecosystem. This session answers these questions, not just from a technological viewpoint, but in the broader context of existing investments in skills and infrastructure, the direction of digital transformation, and the changing socio-political environment in which business operates.

Dr. Barry Devlin is a founder of data warehousing, defining its first architecture in 1985. He is respected worldwide as a visionary on BI and big data, publishing the seminal book 'Business unIntelligence' in 2013. With 30+ years' IT experience in IBM and 9sight, he offers thought-leadership and consulting to BI and big data buyers and vendors. He speaks and writes on all aspects of information.
Barry Devlin
Barry Devlin
Vortrag: Mi 4.1
flag VORTRAG MERKEN

Vortrag Teilen

09:40 - 09:50
Short Break
Short Break
Short Break

09:50 - 10:30
Mi 1.2
Helfer kleiner Teams: Automatisierung, Self-Service & Cloud
Helfer kleiner Teams: Automatisierung, Self-Service & Cloud

Die Group IT verantwortet innerhalb der Porsche Holding Salzburg das Neuwagen-Reporting für interne Fachbereiche. Sie befindet sich auf dem Weg zu einer modernen, cloudbasierten, analytischen Plattform. Dabei wird auf die Zusammenarbeit mit den Fachanwendern gesetzt, um früh Ergebnisse zeigen und flexibel auf Änderungen reagieren zu können. Der Vortrag behandelt die bisherigen Erfahrungen und geht auf die eingesetzten Techniken und Methodiken rund um Data Vault, DWH Automatisierung, Scrum und der Nutzung moderner Cloud-Komponenten ein.

Zielpublikum: Projektleiter, Teamleiter, Entwickler, Product Owner
Voraussetzungen: Grundlagenwissen DWH und Agile BI
Schwierigkeitsgrad: Basic

Extended Abstract:
Die Porsche Holding Salzburg (PHS) ist das größte Automobilhandelsunternehmen in Europa, tätig in 22 europäischen Ländern, sowie Kolumbien, Chile, China, Malaysia, Singapur, Brunei und Japan. Innerhalb der PHS verantwortet die Abteilung Group IT (PGIT) das Neuwagen-Berichtswesen für angeschlossene Fachbereiche. Bis vor kurzem mit einem kleinen Team und ohne ein DWH als analytische Zwischenschicht, direkt auf den Quellsystemen. Wir begleiten die PGIT aktuell auf dem Weg zu einer modernen, Azure-basierten analytischen Plattform. Von Anfang an wird ein besonderes Augenmerk auf enge Zusammenarbeit mit den Fachanwendern, frühe Ergebnispräsentation und flexible Reaktion auf Änderungen gelegt. Wer hierbei Agile BI vermutet, liegt genau richtig. Ein wichtiges Ziel ist es auch das Analyseteam zukünftig zu entlasten. Hierfür wird angestrebt in den Fachbereichen datengetriebenes Arbeiten und Self-Service BI zu etablieren. Unser Vortrag behandelt die bisher gemachten Erfahrungen und geht auf die eingesetzten Techniken und Methodiken rund um Data Vault, DWH Automatisierung, agiler Vorgehensweise und der Nutzung moderner Azure Cloud-Komponenten ein.

Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen und arbeitet nun im Bereich Business & IT Innovation der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Daten-Themen.
Dr. Eva Haslauer arbeitet als Projektleiterin bei Porsche Konstruktionen GmbH & CO KG, Salzburg. Sie hat dort Projekte u.a. in den Bereichen Marktforschung, CMS und Web-Apps geleitet. Derzeit verantwortet sie die Einführung eines modernen, Cloud-basierten Data Warehouses, das Neuwagen-Daten aus internen Quellsystemen zur Analyse mit dem Frontend Tool Power BI im Self-Service zur Verfügung stellt.
Arthur Arendt arbeitet bei Opitz Consulting GmbH als Manager Solutions und verantwortet den regionalen DWH/BI & Analytics Bereich. Seit über 6 Jahren setzt er sich im Projektgeschäft mit wirtschaftlichen und technischen Fragestellungen auseinander und erarbeitet kundenindividuelle Lösungen. Seine Erfahrungen kommen im gesamten Lebenszyklus von Analytics-Plattformen zur Geltung, wobei er besonderen Wert auf die Anforderungsaufnahme und -bewertung legt. 
Jens Bleiholder, Eva Haslauer, Arthur Arendt
Jens Bleiholder, Eva Haslauer, Arthur Arendt
Vortrag: Mi 1.2
flag VORTRAG MERKEN

Vortrag Teilen

09:50 - 10:30
Mi 2.2
Quality whisperer – self-learning AI for production quality
Quality whisperer – self-learning AI for production quality

ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. An AI project was started to get reliable + fast results on root cause discovery. Speed is important because production runs 24 hours/7 days a week. The target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.

Target Audience: Production manager, quality manager, CDO, CIO
Prerequisites: none
Level: Basic

Extended Abstract:
The ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. Each transmission is 100% tested in every technical detail before shipment. The plant Saarbrücken is a forerunner and lead plant in innovative Industry 4.0 technologies. Therefore, activities were started to tackle one significant challenge, which is caused by the enormous variant diversity: Finding root-causes for unsuccessful end of line testing. The management of the complexity is a big challenge because transmission parts can be produced in a huge number of variant processes. Process experts from each domain, like quality and testing, assembly departments and manufacturing units, had to spend significant time in analyzing influencing factors for malfunctioning and deciding on best action to prevent end of line test failures.

Therefore, an AI project was started with the objective to get reliable and fast results on root cause discovery. Speed is important because production runs 24 hours / 7 days a week. The sooner the real reasons for malfunctions are discovered, the sooner activities can be implemented to avoid bad quality. This saves a lot of time and reduces significant waste. The Target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.

Complex root-cause findings can be reduced from several days to hours.

ZF's intention with the digitalization approach is to deliver fast information to the people who are responsible for decision processes to keep a plant in an optimal output with high quality products. A self-learning AI solution Predictive Intelligence from IS Predict was used to analyze complex data masses from production, assembly, and quality to find reliable data patterns, giving transparency on disturbing factors/factor combinations. For training algorithms, end to end tracing data was used, made available in a data lake.

Britta Hilt has focused on Artificial Intelligence for ca. 10 years, mainly from usage perspective in production industries. She is co-founder and managing director of AI company IS Predict which is automating Data Science for Industry 4.0 with its self-learning and explainable AI software Predictive Intelligence.
Britta Hilt
Britta Hilt
Vortrag: Mi 2.2
flag VORTRAG MERKEN

Vortrag Teilen

09:50 - 10:30
Mi 3.2
Condition Monitoring im Wasserkraftwerk von morgen
Condition Monitoring im Wasserkraftwerk von morgen

Das Wasserkraftwerk der Zukunft wird ein 'transparentes Kraftwerk' sein. Das bedeutet, dass umfassende, detaillierte Informationen über den aktuellen und zu erwartenden Zustand der Anlage kontinuierlich verfügbar sind, im Idealfall sekundengenau. Die VERBUND Hydro Power GmbH (VHP) eines der großen europäischen Wasserkraftunternehmen will dieses Ziel mit digitalen Zwillingen und virtuellen Sensoren erreichen. Der Einsatz von digitalen Zwillingen wird anhand der Turbine eines Wasserkraftwerks am Beispiel von Verbund Hydro Power gezeigt.

Zielpublikum: Project Manager Digital Transformation, Data Engineer, CDO, Data Scientist, IoT Manager, Industrie 4.0 Manager, Decision Makers
Voraussetzungen: Keine Voraussetzung notwendig
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Das Wasserkraftwerk der Zukunft wird ein 'transparentes Kraftwerk' sein.

Das bedeutet, dass umfassende, detaillierte Informationen über den aktuellen und zu erwartenden Zustand der Anlage kontinuierlich und idealerweise sekundengenau zur Verfügung stehen.

Die VERBUND Hydro Power GmbH (VHP) eines der großen europäischen Wasserkraftunternehmen will dieses Ziel mit Digitalen Zwillingen und virtuellen Sensoren erreichen. Der Einsatz von digitalen Zwillingen wird anhand der Turbine eines Wasserkraftwerks am Beispiel der Verbund Hydro Power gezeigt.

Der digitale Zwilling ist das virtuelle Abbild eines bestimmten Assets, das sein physisches Gegenstück über dessen gesamte Lebensdauer begleitet. Seine virtuellen Sensoren liefern Informationen insbesondere in Situationen in denen die reinen Sensordaten nicht ausreichend sind. Verschiedene Arten der Degradation wie Kavitation, Abrasion, Korrosion, Verschmutzung oder Ermüdung können erkannt und in die Zukunft projiziert werden.

Für den Betreiber dient der digitale Zwilling zur Sicherstellung der Verfügbarkeit, zur Durchführung von vorausschauender Wartung und optimiert den Betrieb in Bezug auf Leistung, Betriebszeit oder Betriebskosten.

Teresa Alberts ist CEO und Gründerin der ITficient AG. Mit ITficient fokussiert sie sich seit 2014 auf Big Data mit besonderem Fokus auf Digitale Zwillinge und blickt auf langjährige Erfahrung in der Optimierung von Geschäftsprozessen und IT-Infrastrukturen zurück.
Zudem ist sie Expertin für digitale und industrielle Transformation und hat über viele Jahre hinweg Unternehmen auf ihrem Weg zu neuen digitalen Geschäftsmodellen begleitet.
Teresa Alberts
Teresa Alberts
Track: IoT
Vortrag: Mi 3.2
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 11:00
Break
Break
Break

11:00 - 12:10
Mi 1.3
Der agile Antrieb von Scrum – Das Backlog Refinement
Der agile Antrieb von Scrum – Das Backlog Refinement

Der agile Antrieb von Scrum – Das Backlog Refinement

Flughäfen sind eine komplexe Echtzeit-Umgebung, für die es in vielen Fällen keine passende Standardsoftware gibt. Um in Zeiten von hoher Auslastung das Risiko von Verspätungen zu reduzieren, welche schnell den europäischen Luftraum durch Kettenreaktionen beeinflussen können, muss die Software auf die speziellen Herausforderungen der Infrastruktur des jeweiligen Flughafens angepasst werden. Doch, wie plant und koordiniert man nachhaltig Lösungen in solch einer hochkomplexen Umgebung?

Zielpublikum: Project leader, decision makers, Scrum Master, Devloper, Product Owner
Voraussetzungen: SCRUM Basics
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Für Jeff Sutherland, Mitbegründer von SCRUM, ist das Backlog Refinement das Rückgrat eines funktionierenden Scrum Teams. Doch wie kann dieses wichtige Event erfolgreich etabliert werden? Der Scrum Guide widmet dem Event lediglich einen kurzen und knappen Absatz.

Bei der Entwicklung einer disruptiven Lösung, einer automatisierten Dispositionssoftware für Bodenverkehrsdiensten an einem großen Flughafen, bestätigte sich Sutherlands Theorie zum Backlog Refinement. Das Event wurde eines der wesentlichen Erfolgsfaktoren für die Umsetzung des agilen Projekts. Und das, obwohl oder geradeweil die Voraussetzungen für das Projekt sehr herausfordernd waren:

o ein komplexes Produktportfolio mit vielen Abhängigkeiten zwischen den unterschiedlichen Lösungen
o einem Geschäftsführer als Product Owner, der dem Team nur Teilzeit zur Verfügung stand
o keine Möglichkeit Business Analysten einzubinden
o Expertenwissen, welches nur in den jeweiligen Silos vorhanden war
o einer knappen Vision und keine ausformulierten Anforderungen an das Produkt
o die Gefahr am Flughafen durch Kettenreaktionen bei Verspätungen den Transport von Passagieren am gleichen Tag zu gefährden oder wichtige Slotzeiten für den Luftraum zu verlieren
o eine große Anzahl von kritischen Stakeholdern

Nils Hyoma wird in seinen Vortrag zeigen, wie sein Team dank des Refinements mit den komplexen Aufgaben zurechtgekommen ist. Hierbei wurden etwa nach und nach kritische Stakeholder gezielt integriert, die Software-Entwickler in die Verantwortung für Anforderungsermittlung genommen sowie durch Kollaboration mit anderen Teams Abhängigkeiten aufgelöst und Releases koordiniert.

Das geplante und strukturierte Event wurde neben der Entwicklung der Software auch zum Antrieb des Change-Managements sowie der agilen und digitalen Transformation genutzt.

Der Vortrag basiert auf Erfahrungen, welche in einem agilen Projekt in einer sehr komplexen Umgebung gewonnen worden sind und lebt von diesen. Nils Hyoma wird einige Ansätze zeigen und dann erläutern, was der Nutzen dieser ist. Er wird eine von vielen Möglichkeiten aufzeigen das unterschätze Event zielführend zu nutzen.

Nils Hyoma ist Diplom-Wirtschaftsinformatiker, im Job Agiler Coach und privat leidenschaftlicher Wasserballspieler. Nils hat Japanologie, internationale BWL und Wirtschaftsinformatik in Hiroshima und Hamburg studiert. Zunächst als Entwickler aktiv eignete er sich die Grundlagen der agilen Softwareentwicklung an. Nach Stationen im Online Retail / eCommerce und in der IT-Beratung ist er seit 2020 für die WPS unterwegs. Nils betreut und coacht sowohl lokale als auch verteilte, internationale Teams und Projekte. Seit frühester Kindheit an ist Nils im Teamsport aktiv. Teamgeist spiegelt sich auch in seinem Berufsleben wider: Als Coach formt er aus Entwicklern und Analysten eingespielte Einheiten, die so selbstständig Produkte entwickeln können. Das Leitbild ist dabei immer der Fokus auf Kundenzufriedenheit.
Nils Hyoma
Nils Hyoma
Vortrag: Mi 1.3
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:10
Mi 2.3
Ein paar Millionen Worte später: Text Analytics in der Praxis
Ein paar Millionen Worte später: Text Analytics in der Praxis

KI ist in der Fachwelt gerade in aller Munde. Ab was ist Chance, was ist Hype? Wir setzen Natural Language Processing seit vielen Jahren in der Qualitätssicherung von Anforderungen und Tests ein. Beispiele sind die automatische Prüfung von Anforderungen und Testgenerierung aus User Stories. In diesem Vortrag zeigen wir an konkreten Beispielen auf, was möglich ist und wo die Grenzen sind. Damit wollen wir die großen Chancen der Textanalyse aufzeigen, ohne in Buzzwords zu verfallen.

Zielpublikum: Decision Makers, Business Analysts, Data Engineers
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract:
In Wissenschaft und Praxis herrscht Revolutionsstimmung. Sprachassistenten simulieren natürliche Gespräche, Wetter- und Sportberichte werden automatisch generiert ohne, dass ein Mensch beteiligt ist, Systemüberwachung funktioniert automatisch per Anomalie-Erkennung oder man schiebt gleich das ganze Word-Dokument in einen automatischen Übersetzer. Der Eindruck von unendlichen Möglichkeiten drängt sich auf auch in der Qualitätssicherung. Aber wie viel von diesen Ansätzen funktionieren in der Praxis wirklich oder ist die Revolutionsstimmung tatsächlich nur eine Goldgräberstimmung?

Wir setzen Natural Language Processing (NLP) Techniken seit vielen Jahren bei mittlerweile über 60 Projekten in Automotive und Versicherungsbereich täglich zur Qualitätssicherung von Software ein. Täglich werden Millionen von Worten Text durch unsere Analysen gejagt. Beispiele sind die automatische Prüfung von Anforderungen, Testgenerierung aus User Stories oder automatisierte Traceability Analysen. Weiterhin machen wir immer wieder Studien mit unterschiedlichsten Machine-Learning- bzw. Artificial-Intelligence Ansätzen (ML/AI) um herauszufinden, ob der Stand der Technik reicht, um in der Qualitätssicherung produktiv eingesetzt zu werden.

Dabei ergibt sich ein etwas differenzierteres Bild davon, was mit NLP, ML und AI möglich ist. In diesem Vortrag zeigen wir drei Dinge auf:

Erstens, was ist der Stand der Technik? Welche Fähigkeiten bieten moderne Ansätze und welche Rollen in der Qualitätssicherung können wie profitieren.

Zweitens, wo sind dabei die Herausforderungen? Bei der Anwendung der Methoden zeigen sich schnell technische Herausforderungen (z.B. Echtzeitfähigkeit), Herausforderungen mit Daten (z.B. Grammatikanalysen auf englische Texte von Nicht-Muttersprachlern) und Herausforderungen auf der menschlichen Ebene (z.B. Akzeptanz).

Drittens, wo sind die Grenzen? In einer wissenschaftlichen Studie haben wir ganz konkret an Unternehmensguidelines analysiert, welche Aspekte von Qualität automatisiert prüfbar sind und welche nicht. Aus dem, was nicht möglich ist, lässt sich eine einfach anwendbare Checkliste erstellen, die mir sagt, welche Themen ich sinnvoll angehen kann und wovon ich die Finger lassen muss.

Dieser Vortrag zeigt Entscheidern und Anwendern also die großen Chancen der Textanalyse auf, ohne in unrealistische Erwartungen oder gar Buzzwords zu verfallen.

Dr. Henning Femmer ist einer der Gründer von Qualicen. Hier hilft Henning unterschiedlichsten Firmen bei der Einführung von Text-Analytics-Ansätzen. Er hat an der TU München promoviert und ist häufig Speaker auf nationalen und internationalen Konferenzen, in den letzten beiden Jahren ist er auf den Software Quality Days zu den besten Vortragenden der Konferenz gewählt worden.
Henning Femmer
Henning Femmer
Vortrag: Mi 2.3
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:10
Mi 3.3
Intelligente Digital Twins in der automobilen Industry 4.0
Intelligente Digital Twins in der automobilen Industry 4.0

Der Vortrag präsentiert aktuelle Entwicklungen in der Anwendung von KI insbesondere im Kontext von Digital Twins im Automobilbereich. Konkrete Einsatzszenarien und Erfahrungen aus der Praxis zeigen, wie durch Analyse von Daten aus heterogenen Quellen neue Produkte und Services entwickelt, sowie Prozesse und Planungen optimiert werden können und zeigen die Potenziale für den Einsatz von KI im Automobilbereich. Aktuelle Chancen und Herausforderungen des Einsatzes von KI in Unternehmen werden diskutiert.

Zielpublikum: Softwareentwickler, Architekten, Projektleiter
Voraussetzungen: Grundsätzliche Kenntnisse über die Methoden der Künstlichen Intelligenz
Schwierigkeitsgrad: Anfänger

Extended Abstract:
1) Smart Data Analytics im Automobilbereich: aktuelle Entwicklungen in der datenbasierten Digitalisierung

2) Konkreten Einsatzszenarien für Data Science und Methoden der Künstlichen Intelligenz in datengetriebenen Geschäftsprozessen

3) Neue Produkte und Services mittels unternehmensübergreifender Analyse von Daten aus heterogenen Quellen

4) Optimierung von Prozessen und Planungen

5) Relevante technische Ansätze und Erfahrungen aus der Praxis.

Director Research Projects (Fraunhofer ISST); Professor & Direktor, Institut Softwaretechnik (Uni Koblenz); Program Management Board, Fraunhofer-Initiative 'International Data Spaces'. Vorher: Professor für Software Engineering (TU Dortmund), Senior Member/Research Fellow (Robinson College, Uni Cambridge), Royal Society Industrial Fellow (Microsoft Research Cambridge), Postdoc (TU München), PhD Informatik (Uni Oxford), Dipl.Math. (Uni Bremen).
Jan Jürjens, Alexander Sudhoff
Jan Jürjens, Alexander Sudhoff
Track: IoT
Vortrag: Mi 3.3
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:10
Mi 4.3
Data science workbenches and machine learning automation – new technologies for agile data science
Data science workbenches and machine learning automation – new technologies for agile data science

This session looks at how data science workbenches and machine learning automation tools can help business analysts to become data scientists and so meet the demand of business.

Target Audience: CDO, Head of Analytics, Data Scientist, Business Analysts, CIO
Prerequisites: Basic understanding of Data Science
Level: Advanced

Extended Abstract:
The demand for analytics is now almost everywhere in the business. Analytics are needed in sales, marketing and self-service, finance, risk, operations, supply chain and even HR. However, the current shortage of data scientists and the reliance on detailed skills such as programming, has led many corporate executives to question current approaches to development of high value analytical models and ask if they can be accelerated in any way to improve agility and reduce time to value. This session looks at this problem in detail and at how emerging data science workbenches and machine learning automation tools can help reduce the reliance on highly skilled data scientists and allow business analysts to become data scientists and so meet the demand of business.

 

o            The explosion in demand for analytics

o            Data science and the modern analytical ecosystem

o            Challenges with current approaches to analytics

o            Requirements to reduce time to value and accelerate development of analytical models

o            Improving productivity by integrating Information catalogs and data science workbenches, e.g. Amazon SageMaker, Cloudera CDP Machine Learning, IBM Watson Studio Microsoft, Azure ML Service,

o            Accelerating model development, monitoring and model refresh using ML automation tools, e.g. DataRobot, SAS, Dataiku Data Science Studio, Big Squid

o            Facilitating rapid analytics deployment via analytics as a service to maximise effectiveness and competitive edge

Mike Ferguson is Managing Director of Intelligent Business Strategies. He specialises in BI, analytics- and data management. With over 38 years of IT experience, he has consulted for many companies, spoken at events all over the world and written many articles. Formerly he was co-founder of Codd and Date – the inventors of the Relational Model, Chief Architect at Teradata and European CEO of DataBase Associates
Mike Ferguson
Mike Ferguson
Vortrag: Mi 4.3
flag VORTRAG MERKEN

Vortrag Teilen

12:10 - 12:25
Short Break
Short Break
Short Break

12:25 - 13:10
KeyMi
KEYNOTE: Corporate IT Is a Theater Piece - What Role Are You Playing?
KEYNOTE: Corporate IT Is a Theater Piece - What Role Are You Playing?

The engagement of IT staff in organizations has been done for decades via a single function or department. Whatever title it bears, the single counter IT takes care of everything under the digital sun. This model generates unhealthy behaviors in the IT ranks that are detrimental to the enterprises that need digital to operate, evolve, transform —or survive. 

Drawing a parallel with a more mature industry, the current distribution of roles is analyzed and compared. It shows that the standard structure is creating conflicts of roles that would be unacceptable —and in some cases illegal— in many other fields of work.  

The typical IT engagement model in organizations has a direct effect on what constitutes success and how it is measured. These measures -in their current state- create a ripple effect on quality and value of digital investments.  

You should come to the inevitable conclusion:  it is more than time to radically re-think how technology teams engage in organizations.

Over three decades, R.M. has held multiple roles in the IT departments of mid to large organizations: programmer, business analyst, tester, database administrator, solution architect, data architect, enterprise architect, systems integrator. He also held several IT management positions, leading teams of architects and designers in insurance, telecommunications, banking, and travel & transportation.  
As a result of that relentless quest for an answer to all sorts of questions, R.M. has published a business book and regularly writes on LinkedIn and his blog about IT strategic management challenges.  He is also a member of the core team of the Intersection Group, a multi-disciplinary focussed on sharing ways to design better enterprises. 
Mr Bastien holds a bachelor’s degree in Management Information Systems and a Research-Oriented Masters in Business Administration. He’s been a certified project management professional PMP© for more than 15 years. When not working professionally, he renovates old houses or skips sailboats across oceans.
R.M. Bastien
R.M. Bastien
Track: Keynote
Vortrag: KeyMi
flag VORTRAG MERKEN

Vortrag Teilen

13:10 - 14:30
Lunch Break
Lunch Break
Lunch Break

14:30 - 15:40
Mi 1.4
Qualitätsoffensive für agile DWH Entwicklung
Qualitätsoffensive für agile DWH Entwicklung

Um die wachsende Anzahl Nutzer und damit steigende Anforderungen an einem System bewältigen zu können, sowie die Effizienz und Qualität des Entwicklungsprozesses zu steigern, haben sich in der klassischen Softwareentwicklung Prinzipien, wie Continuous Integration (CI) und Test Driven Development (TDD) durchgesetzt. Dieses Seminar möchte beantworten, was hinter CI und TDD steckt und wie diese Prinzipien in den Lifecycle von DWH-Systemen eingebunden werden.

Zielpublikum: BI/DWH Entscheider, BI/DWH Programm- und Projektleiter, BI/DWH Architekten und Entwickler, interessierte IT- und Fachbereichsverantwortliche und Anwender Voraussetzungen: Voraussetzung sind grundlegende Kenntnisse in den Bereichen Daten- und Informationsmanagement. Fortgeschrittene Expertise in den Bereichen Data Warehouse Konzeption, Architektur, Entwicklung und Betrieb ist vorteilhaft. Schwierigkeitsgrad: Fortgeschritten

Dominik Schuster unterstützt Unternehmen seit nunmehr fünf Jahren bei der Konzeption, Weiterentwicklung und Optimierung von innovativen, sowie nachhaltigen Business-Intelligence- und Data-Warehouse-Lösungen. Bei b.telligent hat er im Competence Center 'Data Integration and Architecture' seinen Schwerpunkt in der DWH-Automatisierung und ganzheitlichen Optimierung.
Pascal Beyer ist Berater mit dem Schwerpunkt Daten Integration und Daten Architektur bei b.telligent und berät seit drei Jahre Kunden aus verschiedenen Branchen, wie z.B. Versicherungen zu den Themen Business Intelligence und Data Warehousing. Seine Projekterfahrung umfasst dabei den kompletten Wertschöpfungsprozess von der Analyse, Planung, Konzeption und Umsetzung von branchenübergreifenden Projektvorhaben mit Fokus auf Prozess- und Anforderungsanalyse sowie operatives Kampagnenmanagement und Marketing-Strategie.
Dominik Schuster, Pascal Beyer
Dominik Schuster, Pascal Beyer
Vortrag: Mi 1.4
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:40
Mi 2.4
Data Science in der Versicherungsbranche – Status und Trends
Data Science in der Versicherungsbranche – Status und Trends

Data Science hat sich mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert. Nun gilt es einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann. Anhand eines Use Case aus der Versicherungsbranche wird aufgezeigt, wie sich Data Science verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.

Zielpublikum: Data Scientist, Projektmanager, Entscheidungsträger, KI-Verantwortliche
Voraussetzungen: Grundlegende Kenntnisse der Data Science sind für den Talk von Vorteil, stellen aber keine Muss-Anforderung dar.
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Nachdem sich Data Science mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert hat, gilt es nun einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann.

Der Beitrag gibt einen Überblick zum Status quo der Data Science Nutzung in Unternehmen und stellt aktuelle Trends vor. Im Anschluss wird anhand eines Use Case aus der Versicherungsbranche konkret aufgezeigt, wie sich Data Science im Wertschöpfungsprozess verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.

Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe – Technik und Wirtschaft. Dort vertritt er u. a. die Bereiche Business Intelligence und Geschäftsprozessmanagement im Fachgebiet Informatik. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.
Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.
Uwe Haneke, Michael Zimmer
Uwe Haneke, Michael Zimmer
Vortrag: Mi 2.4
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:40
Mi 3.4
Trains run better on data: Betrieb und Wartung optimiert!
Trains run better on data: Betrieb und Wartung optimiert!

In einem pragmatischen Erfahrungsbericht erklärt Siemens Mobility wie sie mit der Railigent Plattform die Digitalisierung in einem sehr traditionellen Umfeld etablieren. Dabei ist immer der erzielte Nutzen im Fokus des Projektes. Betreiber von Zügen profitieren von einem daten-getriebenen Ansatz durch reduzierte Wartungskosten und optimierten Nutzungsgrad. Visuelle Analytik ist nur der Anfang, wenn Predictive Analytics Zusammenhänge aufzeigt und Echtzeit-Informationen Entscheidungen beim operationalen Betrieb der Züge verbessern.

Zielpublikum: Entscheider, CDO, CIO, Leiter CC, Architekten
Voraussetzungen: Basic understanding of buisiness value in analytics
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Business Challenge:

To prevent delays due to equipment failures, Siemens Mobility needed to provide fast, accurate insights to customers through its app. The company needed real-time analytics for both IoT and legacy data.

Solution:

With the Railigent platform, Siemens customers get insights via Railigent, the Siemens Mobility app. The app allows for automated corrective action and quick decision-making.

Predicting failures before they occur is possible with data analysis at the edge. Siemens collects every piece of data it can – most of which is collected via sensors at the edge – then cleans and prepares it for analysis. Some trains have nearly 2,000 components that must be monitored while they are traveling; for example, to detect vibration patterns of train bearings. Older trains pose difficult data challenges, but the company still needs to be able to monitor and measure their performance and make improvements.

Markus Hollfelder ist seit 1997 in verschiedenen Rollen bei Siemens Mobility tätig. Er hat tiefgreifende Erfahrung im Bereich Datenmanagement / Data Warehousing, leitete diverse Projekte im Umfeld BI und Analytics und ist derzeit der sog. Technical Project Owner für BI Themen, u.a. im Rahmen das vorgestellte Railigent Projektes
Dirk Schober ist ein Experte darin, Herausforderungen beim Kunden zu identifizieren und zu beschreiben. Er hat über 12 Jahre Erfahrung im Design von Lösungen rund um Analytics und das damit verbundene Datenmanagement. Er arbeitet als Presales Experte bei TIBCO und vormals bei IBM. Fokusbereiche sind durchgängige 'data-driven' Lösungen in der Fertigung, Industrie, Handel und im Bereich Pharma.
Markus Hollfelder, Dirk Schober
Markus Hollfelder, Dirk Schober
Track: IoT
Vortrag: Mi 3.4
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 18:10
Mi 4.4
Best practices in DataOps for analytics
Best practices in DataOps for analytics

Analytics team are struggling to create, publish, and maintain analytics to meet demand. Many analytics projects fail to meet expectations and deliver value. DataOps is the new approach combining tools and approaches to simplify the development of analytics and ensuring high quality data. DataOps shortens the life cycles, reduces technical debit and increases analytics success. This session covers the best practices for the analytics team to deliver DataOps.

Target Audience: Data scientists, project leaders, analyst, data engineers, project sponsors, business leaders
Prerequisites: None
Level: Professional

Extended Abstract:
DataOps is the next generation of analytics delivery that addresses the major issues of analytics technical debt, reuse of code, data quality, and incorporates the flexibility of agile. This session defines what DataOps is (it is not DevOps) and highlights the best practices to address some of the largest challenges preventing analytics teams from delivering analytics value. The session outlines how DataOps is used to inspire teamwork, improve data quality, incorporate agile delivery, and establish an environment for reuse and innovation.

With over 20 years of experience, Dr. Larson is an active practitioner and academic focusing on BI, data warehousing, analytics, and AI. Dr. Larson completed her doctorate in management in information technology leadership. She holds Project Management Professional (PMP) and Certified Business Intelligence Professional (CBIP) certifications. Dr. Larson attended AT&T Executive Training at Harvard Business School in 2001, focusing on IT leadership. She is a regular contributor to TDWI publications and presents several times a year at conferences. Dr. Larson is principal faculty at City University of Seattle in the United States.
Deanne Larson
Deanne Larson
Vortrag: Mi 4.4
flag VORTRAG MERKEN

Vortrag Teilen

15:40 - 16:10
Break
Break
Break

16:10 - 16:50
Mi 1.5
Echte Transformation durch die Arbeit an Sichtweisen (Bias)!
Echte Transformation durch die Arbeit an Sichtweisen (Bias)!

Für jede Transformation gilt: Sie ist der Übergang vom Bewährten zum Neuen! Es versteht sich, dass es dabei Befürworter und Skeptiker gibt. Beide Parteien wollen dabei nur das Beste für ihre Organisation und folgen einer in sich schlüssigen Logik. Mit der Zeit entstehen Gräben und es bilden sich Fronten. Dies mündet in einen Teufelskreis, der die Zusammenarbeit erschwert und in Kompromisse, die am Ende beiden Lagern recht geben. Der Referent zeigt anhand von Kundenbeispielen wie Führungsteams in vier Schritten gemeinsam die Zukunft gestalten.

Zielpublikum: Project leader, decision makers, Transformation Leads
Vorraussetzungen: Transformationserfahrung oder Erfahrung mit komplexen Projekten und Veränderungen
Schwierigkeitsgrad: Fortgeschritten

Hermann Ladner vereint naturwissenschaftliches Denken mit betriebswirtschaftlichem Verständnis. Seit 25 Jahren beschäftigt er sich an vorderster Front mit der Arbeit an Sichtweisen von Menschen und Bias. Im Life Institut ist er für das Thema den Fortschritt nutzen und Unternehmenstransformation verantwortlich. Unter seiner Führung entstand das «Gestalte die Zukunft!» Programm. Damit nutzen Organisationen den Fortschritt und gestalten die Zukunft.
Hermann Ladner
Hermann Ladner
Vortrag: Mi 1.5
flag VORTRAG MERKEN

Vortrag Teilen

16:10 - 16:50
Mi 2.5
Starterkit Data Governance für die Deutsche Bahn
Starterkit Data Governance für die Deutsche Bahn

Die Wertschöpfung durch Daten ist heute ein zentrales Thema. CDOs werden installiert, BICCs als zentrale Einheiten für die Schöpfung von Potenzialen der Daten geschaffen. In der Operationalisierung stellt sich dann schnell heraus, dass es eines Fundamentes bedarf. Data Governance gibt Antworten auf diese Fragen. Das Data Governance Starterkit DB ermöglicht einen strukturierten Einstieg ins Thema, gibt Orientierung, macht den Standort transparent und weist den Weg.

Zielpublikum: CDO, CIO, Data Office, Data Council, Verantwortliche für datengetriebene Initiativen und Programme
Voraussetzungen: Ambitionen im Kontext datengetriebener Initiativen
Schwierigkeitsgrad: Fortgeschritten

Frau Dr. Kappler ist seit November 2020 als Data Governance Expertin im Team Data Strategy der DB Systel tätig. Sie verfügt über langjährige Erfahrung im Business und Digitalisierungsconsulting Bereich in diversen Konzernen. Ihre Beratungsschwerpunkte liegen im Bereich Datenstrategie und Data Governance sowie Aufbau und Implementierung datengetriebener Governance und Compliance Management Systeme.
Christoph Oberhokamp ist seit März 2017 als Datenstrategie Experte im Team Data Strategy bei der DB Systel tätig. Er verfügt über langjährige Erfahrung in der Erarbeitung von umfassenden Datenstrategien in diversen Geschäftsbereichen und Konzernen. Seine Beratungsschwerpunkte liegen neben der Erstellung neuer Strategie in der Begleitung der Strategieumsetzung, sowie dem Review bestehender Datenstrategien.
Daniela Kappler, Christoph Oberhokamp
Daniela Kappler, Christoph Oberhokamp
Vortrag: Mi 2.5
flag VORTRAG MERKEN

Vortrag Teilen

16:10 - 16:50
Mi 3.5
Machine learning raises industry 4.0 to the next level
Machine learning raises industry 4.0 to the next level

How is machine learning used in the real world? How did our customer Liebherr mitigate the problem of unreliable suppliers, therefore making their manufacturing process more efficient? How can our customers work their way through thousands of documents, quickly identifying the relevant ones? In this talk, Data Scientist Björn Heinen will elaborate on his past and current projects in the manufacturing industry by explaining how tangible customer problems have been solved using classical machine learning algorithms, computer vision and more.

Target Audience: The session is intended to reach those interested who are working in the machine and system engineering industry or those in other sectors who would like to optimize their processes with the help of AI and use business data successfully in the long term.
Prerequisites: No prerequisites needed.
Level: Basic

Björn Heinen is a Senior Data Scientist at INFORM. He is involved in both, internal projects in which existing INFORM products are enhanced with machine learning functionalities, as well as external projects, which he follows from development to implementation.
Björn Heinen
Björn Heinen
Track: IoT
Vortrag: Mi 3.5
flag VORTRAG MERKEN

Vortrag Teilen

16:50 - 17:00
Short Break
Short Break
Short Break

17:00 - 18:10
Mi 1.6
AI factory and metadata driven data ingestion at ERGO
AI factory and metadata driven data ingestion at ERGO

In this session, the ERGO Group, one of Europe's leading insurance companies, presents their AI Factory for development and operationalization of AI models. The session gives an architectural overview of the AI Factory's components. Furthermore, it explains how cloud-native technologies like Openshift and AWS Cloud Services aided in moving towards a data driven organization. A deep dive into the AI Factory's data ingestion process shows how metadata-driven data ingestion supports Data Governance in an enterprise context.

Target Audience: AI Leader, Insurance, Decision Maker, Data Engineer
Prerequisites: Background knowledge AI, Big Data Technologies, BIA
Level: Advanced

Extended Abstract:
In times of Advanced Analytics and AI, enterprises are striving towards automated and operationalized analytics pipelines.

In this session, ERGO and saracus consulting present the ERGO Group AI Factory. In particular, the presentation retraces how ERGO in collaboration with saracus consulting evolved from an on-premises analytics environment to an automated AI-Ops environment running on modern technologies within the AWS Cloud.

To this end, strategic aspects of delivering AI as a service as well as important components for delivering automated AI Pipelines in enterprises are highlighted.

Furthermore, the speakers take a deep dive into the technical aspects of the AI Factory's metadata driven data ingestion pipeline, emphasizing how it supports the key functionalities for Data Governance within ERGO's Data Strategy.

Felix joined the ERGO Group in 2004, starting in the finance department. Following, he had been heading a team with (IT) responsibility for data management, reporting and self-service BI in the Property / Casualty segment. In his current position as Head of Data Engineering, he is responsible for ERGO's Advanced Analytics IT platforms as Business Owner and ensures with his team the AI data flow.
Senior Project and Program Manager for ITERGO, the IT service provider of the ERGO Group and responsible program manager for the AI IT program to rollout and implement various AI features within the ERGO Group 
After graduating in Information Systems from Münster University, Lukas joined saracus consulting in 2015 and started consulting in the realm of data engineering. 
In his current position as Head of Data Engineering, Lukas leads a team of Data Engineers involved in multiple projects in Germany and Switzerland.
Felix Wenzel, Christian Kundruß, Lukas Hestermann
Felix Wenzel, Christian Kundruß, Lukas Hestermann
Vortrag: Mi 1.6
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:10
Mi 2.6
AI as a Service – Machine Learning mit Kubeflow
AI as a Service – Machine Learning mit Kubeflow

Kubeflow ist ein mächtiges Framework für die Entwicklung, Überwachung und Operationalisierung von KI. Die Ressourcen für das Trainieren, Optimieren oder das Serving der Modelle stellt Kubeflow 'As a Service' bereit. Einzelne Schritte werden in einer Pipeline mit Kubernetes in einem Cluster ausgeführt On Premise, in der Cloud oder Hybrid in verschiedenen Umgebungen. Dabei werden notwendige Ressourcen dynamisch allokiert. In einer Live Demonstration wird Kubeflow zusammen mit Tensorflow und Tensorflow Extended (TFX) vorgestellt.

Zielpublikum: Data Scientists, project leader,
Voraussetzungen: Grundkenntnisse KI
Schwierigkeitsgrad: Advanced

Extended Abstract:
Kubeflow ist eine auf Kubernetes aufsetzende Applikation, die aus mehr als 80 einzelnen Microservices zusammengestellt ist. Kubeflow ist von Google entwickelt worden und als Open Source Projekt veröffentlicht worden. Kubeflow läuft auf Kubernetes und damit wahlweise in der Cloud oder On Premise. Alle großen Cloudprovider bieten Kubeflow 'as a Service' an, was das Provisioning sehr einfach macht. Kubeflow setzt auf Argo als Workflow Engine auf. Einzelne Schritte wie die Datenvalidierung, die Modellerstellung, das eigentliche Trainieren oder das Serving, also die Verwendung von KI in den operativen Prozessen eines Unternehmens, werden von Argo orchestriert. Kubeflow kann als Multi-Tenant Solution aufgesetzt werden, um unterschiedliche Projekte und Kunden gleichzeitig zu unterstützen. Selbstverständlich ist Kubeflow Multi-User fähig und bringt eine eigene Benutzerverwaltung mit. Die Entwicklung geschieht über Notebook-Server, die Jupyter Notebooks dem Entwickler zur Verfügung stellen.

Kubeflow kann mit anderen KI-Frameworks, beispielsweise Tensorflow und Tensorflow Extended (TFX) kombiniert werden. Alle Prozesse werden als Pipeline designed und ausgeführt. Die Überwachung der Pipelines geschieht über einen Metadata Store. Dies beinhaltet vom Data Scientist definierte Metriken zur Überwachung ebenso wie einen direkten Zugriff auf Tensorboard für eine weiterführende Analyse. Die dafür notwendigen Artefakte werden in Minio persistiert, einem Open Source Object Store.

The speaker Matthias Braun studied Mathematics and Physics. He works as consultant for Business Intelligence and Business Analytics for more than 10 years. Matthias Braun started in 2015 at Trevisto AG, a consultant company for digitalisation, Business Intelligence and AI. At Trevisto, he is responsible for the development of an AI framework including the full project life cycle starting from a proof-of-concept phase until operation and monitoring of the solution. He has worked in various data scientist projects.
Matthias Braun
Matthias Braun
Vortrag: Mi 2.6
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:10
Mi 3.6
Deepfakes 2.0 – Wie neuronale Netze unsere Welt verändern
Deepfakes 2.0 – Wie neuronale Netze unsere Welt verändern

Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz.

Zielpublikum: Data Engineer, Data Scientist, Project Leader, Decision Makers
Voraussetzungen: Basic AI Knowledge
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.

In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.

Martin Förtsch ist ein IT-Berater der TNG Technology Consulting GmbH und studierte Informatik. Seine Arbeitsschwerpunkte sind Agile Development (hauptsächlich) in Java. Als Oracle JavaOne Rockstar, Intel Software Innovator und Black Belt Developer ist er darüber hinaus in der Entwicklung von Open-Source Software im Bereich der 3D-Kameratechnologien und dem Internet of Things involviert.
Thomas Endres arbeitet in der Rolle eines Partners als IT-Consultant für TNG Technology Consulting in München. Neben seinen Tätigkeiten für Kundenprojekte, entwickelte er für das TNG Innovation Hacking an Anwendungen im Bereich der AR/VR, KI sowie der Gestensteuerung. Darüber hinaus ist er in verschiedenen Open-Source-Projekten in Java, C# und allen Spielarten von JavaScript involviert.
Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Deepfakes, Mixed Reality KI-Kunstwerken und autonom fliegenden Minidrohnen. 
Martin Förtsch, Thomas Endres, Jonas Mayer
Martin Förtsch, Thomas Endres, Jonas Mayer
Track: IoT
Vortrag: Mi 3.6
flag VORTRAG MERKEN

Vortrag Teilen

Zurück