PROGRAMM

Die im Konferenzprogramm der TDWI München digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

Für alle, die eine alternative Darstellung bevorzugen bieten wir unser Programm-PDF an:
» Zum PDF-Download

Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.

Nach Tracks filtern
Alle ausklappen
  • Montag
    21.06.
  • Dienstag
    22.06.
  • Mittwoch
    23.06.
09:00 - 10:00
KeyMo
KEYNOTE und Eröffnung: What is work & What is human – in a superhuman future
KEYNOTE und Eröffnung: What is work & What is human – in a superhuman future

For the work we do in the long-term-vision-labs and strategy team for the Technology & Innovation board area at SAP is one of the playgrounds for the title question. These topics are good, because they generate exiting and abundant questions, that we believe should be asked by everyone.

How does the future work, the mechanics of change? What is the future of human work and our interactions with machines and each other? Is industrialization of space and 3d printed organs really a “thing” and how do you relate to these? What are the methods to innovate desirable futures? How do you structure such a vast and complex fabric of possibilities in your domain, team, business, boardroom? How long is the history of the future and how does that affect our fear and counter reactions to it in socio-political movement? Most importantly, who designs the future, that you your community will live in? 

We talk about change, but what are the mechanics and the dynamics behind it? How fast is it? What it means to be an innovator, is transforming faster than before, from classic product and service definition of the superficial to computational system design of everything, including social and political systems, deeply rooted in a space of challenges and promises between cutting edge tech and humanism. In an exponential and converging digital-fueled future, we design a relationship, a behaviour, that the product will follow.

What comes before strategy? We love to act on strategies, derive tactics, execute and operate, it is our psychological bias, we love to do what we are good at. But how do we derive a strategy? From what point of view, what narratives, what builds up a “Future fabric” that these narratives a woven from? And who does it in your enterprise? We will have, high level look at how we build a desirable future with these questions in mind, and also what we in our labs consider to be a desirable future of work, at least for the coming decade.

This exponential change is our innovation brief and the stakes are high, It is just too important to be left only to... any single team. Technology is the human evolution, the prior named HuMachine creates a playground for “Human centered“-adventure, this opens new worlds for our imagination in a time when “now” has never been so temporary. Bringing these thoughts together we need to answer the question “What is human, and what is work in a superhuman future?”

Main chapters

  1. How Science-Fiction is becoming science-fact, and... business fact, now. The narratives and examples of current futures.
  2. What values, attitudes, most of all methods and frameworks can we use to derive our
  3. What we, SAP derived as our direction for the future of work and the tech to support it from, the above 2 insights.
"I want to innovate what we call "work" out-of our lives via an empathic symbiosis between human ingenuity and machine intelligence." Martin Wezowski works as Chief Futurist for SAP’s Technology & Innovation. He is lecturing as a faculty member of Futur/IO, a European future institute and other education programs. He moved across a range of disciplines from UX, to systemic design to define innovation visions and strategies. Right now, he is on the mission to map, build and inspire a future we want to live in, more specifically, he crafts future outlooks, concepts,  products, defines and runs innovation frameworks to find out what’s next and beyond for SAP’s vast ecosystem and the future of work. 2017 he was named 1 of 100 most innovative minds in Germany as the “Software visionary” (“Handelsblatt”). Prior to joining SAP in 2013, he worked for Sony Ericsson (Sweden) as creative director later he lived in Shenzhen, China for 2 years while serving as director of the strategic UX board (Huawei). He builds on his international adventures stretching from Poland, Sweden, China to Germany, and frequently shares his passion for the future of humans and work around the world (Duke University, as EU-advisor and keynote speaker, SxSW, TEDx, Singularity-U Summit, BOMA, CES, Tech Open Air - TOA, HUB Berlin, DMEXCO, WEBIT, Ada Lovelace festival, TWIN Global, CeBIT, CES. WeAreDevelopers, etc.)
Martin Wezowski
Martin Wezowski
Track: Keynote
Vortrag: KeyMo
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:10
Short Break
Short Break
Short Break

10:10 - 10:50
Mo 2.1
Daily regression in an enterprise data warehouse
Daily regression in an enterprise data warehouse

Over the last few decades, ETL and specially Datawarehouse testing has been gaining quite a bit of traction. The reason for that traction? The modern enterprise's dependency on data. This dependency calls for the right testing strategy to ensure the quality and correctness of the provided data. Further on the drive to lower 'time to data' and overall costs is putting high pressure on Test specialists to increase efficiency in this area. In this presentation I want to show you our journey to daily regression in our enterprise data warehouse.

Target Audience: Testers, Test Managers, Project Leaders, Decision Makers, Data Engineers, Managers
Prerequisites: none
Level: Basic

Extended Abstract:

Over the last few decades, ETL and specially data warehouse testing has been gaining quite a bit of traction. Especially given the emergence of Agile and DevOps as top trends in the software development industry. The reason for that traction? The modern enterprise's dependency on data.

This dependency calls for the right testing strategy and execution to ensure the quality and correctness of the provided data. 

Further on the drive to lower 'time to data' and overall costs is putting high pressure on Test specialists to increase efficiency in this area.

In this presentation I want to show you our journey to daily regression in our data warehouse. 

We improved our processes and changed our testing approach. We started with a quarterly regression test which took a whole testing team of 10 people 2 months to finish. 

Now we do the same on a daily basis within our agile team.

Chapter Lead Test EDWH; Test Automation Expert; Innovation Expert
Bernhard Frauneder
Bernhard Frauneder
Vortrag: Mo 2.1
flag VORTRAG MERKEN

Vortrag Teilen

10:10 - 10:50
Mo 3.1
The need for a unified big data architecture
The need for a unified big data architecture

Big data is not the biggest change in the IT industry but data usage. To become more data driven and to succeed with their digital transformation, organizations are using their data more extensively to improve their business and decision processes. Unfortunately, it is hard for current data delivery systems to support new styles of data usage, such as data science, real-time data streaming analytics, and managing heavy data ingestion loads. This session discusses a real big-data-ready data architecture.

Target Audience:
Data architects, data warehouse designers, IT architects, analysts, enterprise architects, solutions architects
Prerequisites: Some understanding of data architectures
Level: Advanced

Extended Abstract:

It is not big data that is the biggest change in the IT industry, it is data usage that has changed most drastically the last ten years. To become more data driven and to succeed with their digital transformation, organizations are using their data more extensively to improve their business and decision processes. This may mean that more data needs to be collected resulting in big data systems, but the goal remains to do more with data. Unfortunately, current data delivery systems don't have the right characteristics for supporting the requirements of big data systems, such as supporting data science, handling massive data streaming workloads, managing heavy data ingestion loads, and so on. Additionally, many organizations that are developing big data systems, are developing isolated data delivery systems, such as an isolated data lake, an isolated data streaming system, an isolated data services system, and so on. This avalanche of data delivery systems is not beneficial to the organization. The wheel is invented over and over again. It's time to design real big-data-ready data architectures. This session discusses such an architecture, including the supporting technologies, pros and cons.

Rick van der Lans is a highly respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. Rick has written hundreds of articles, blogs, books, and educational white papers. Recently he published his new book 'Data Virtualization: Selected Writings.'
Rick van der Lans
Rick van der Lans
Vortrag: Mo 3.1
flag VORTRAG MERKEN

Vortrag Teilen

10:10 - 10:50
Mo 4.1
Aktuelle Einsatzmöglichkeiten von KI in Versicherungen
Aktuelle Einsatzmöglichkeiten von KI in Versicherungen

Der Vortrag präsentiert aktuelle Entwicklungen in der Anwendung von KI im Versicherungsbereich. Konkrete Einsatzszenarien und Erfahrungen aus der Praxis zeigen die Potenziale für den Einsatz von KI. Aktuelle Chancen und Herausforderungen des Einsatzes von KI in Unternehmen werden diskutiert, insbesondere die zunehmenden Erwartungen an eine transparente und faire KI.

Zielpublikum: Softwareentwickler, Architekten, Projektleiter in der Finanzbranche, Manager in der Finanzbranche
Voraussetzungen: Grundsätzliche Kenntnisse über die Methoden der Künstlichen Intelligenz
Schwierigkeitsgrad: Anfänger

Extended Abstract:

  1. KI-Projekte in der Versicherungswirtschaft
  2. Rollen und Kompetenzen
  3. Einsatzszenarien für Data Science und Methoden der Künstlichen Intelligenz in datengetriebenen Geschäftsprozessen
  4. Relevante technische Ansätze & Herausforderungen beim Einsatz von KI (Qualitätssicherung, Regulatorik & Compliance)
  5. Erfahrungen aus der Praxis
Director Research Projects (Fraunhofer ISST); Professor & Direktor, Institut Softwaretechnik (Uni Koblenz); Program Management Board, Fraunhofer-Initiative 'International Data Spaces'. Vorher: Professor für Software Engineering (TU Dortmund), Senior Member/Research Fellow (Robinson College, Uni Cambridge), Royal Society Industrial Fellow (Microsoft Research Cambridge), Postdoc (TU München), PhD Informatik (Uni Oxford), Dipl.Math. (Uni Bremen).
In seiner Rolle als Referatsleiter im Geschäftsprozessmanagement koordinierte Dr. Norman Riegel u.a. die strategische Weiterentwicklung von Prozessmanagement innerhalb der Debeka. In seiner jetzigen Position als Leiter der Abteilung Business Analytics ist er verantwortlich für die Entwicklung des konzernweiten Data Warehouse sowie die Themen Advanced Analytics und Robotic Process Automation.
Jan Jürjens, Norman Riegel
Jan Jürjens, Norman Riegel
Vortrag: Mo 4.1
flag VORTRAG MERKEN

Vortrag Teilen

10:10 - 12:30
Mo 5.1
Machine Learning: Bildverarbeitung mithilfe von YOLO/Python
Machine Learning: Bildverarbeitung mithilfe von YOLO/Python

Ein Tischfußball wurde mittels Kamera, Sensoren und Computer digitalisiert und liefert nun Spielanalysen in Echtzeit. Der interaktive Workshop, aufgeteilt in einen theoretischen und einen praktischen Teil, erläutert und erklärt anschaulich, wie hier eine 'lernende Bildverarbeitung' mittels Algorithmus YOLO (You Only Look Once) und Skriptsprache Python programmiert wurde. Darüber hinaus gibt der Workshop einen Ausblick auf die Anwendung von Bilderkennung in einem Business Kontext.

Zielpublikum: alle, die an Machine Learning, Bildverarbeitung und Objekterkennung interessiert sind, Entwickler
Voraussetzungen: Scripting-Grundlagen in Python und statistisches Grundwissen sind von Vorteil und natürlich Interesse
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

Vorbemerkung: 

Zur anschaulichen Erklärung von Themen wie KI, Machine Learning oder Datastreaming hat PROCON IT einen Kickertisch mit Highspeedkamera und Sensoren versehen und ihn so digitalisiert. Dieser digitalisierte Kicker ist nun in der Lage, das Spiel live zu verfolgen und verschiedene Dinge ebenfalls live auszuwerten, bspw. wird eine Headmap gezeigt, der Spielstand wiedergegeben, die Schussgeschwindigkeit bestimmt.

Wie kann ein System über Bilder einer Highspeedkamera, die es von einem Tischfußballspiel macht, in Echtzeit Daten wie Ballgeschwindigkeit oder eine Headmap der aktuellen Partie generieren? Das System muss gelernt haben, was auf dem Bild der Ball ist, was die Spieler sind und zu welchem Team die Spieler gehören. Der interaktive Workshop führt nach einer kurzen theoretischen Einführung die Teilnehmer mitten in die Praxis der Bildverarbeitung. Gemeinsam werden u.a. Bilder klassifiziert, ein Modell trainiert und die Ergebnisdaten ausgewertet. Die Teilnehmer lernen dabei, wie dies mithilfe der Skriptsprache Python und dem Algorithmus YOLO in der Praxis umgesetzt werden kann. Gemeinsam wird anschließend die Möglichkeiten von Bilderkennung in einem Business Kontext erörtert.

Robea Araujo von Borries absolvierte ihren Master in Wirtschaftsinformatik an der Humboldt-Universität zu Berlin. Als Consultant mit den Spezialgebieten Big Data Engineering und Machine Learning berät sie kompetent Kunden insbesondere bei der Datenaufbereitung, der Verarbeitung massiver Datenmengen sowie bei unterschiedlichen Anwendungsfällen im Machine Learning-Kontext.
Elias Jebabli ist seit Abschluss seines Masterstudiums der Mathematik an der Universität Augsburg und an der TU München als Consultant aktiv. Er hat sich auf die Bereiche Big Data-Engineering und Machine Learning im Business-Umfeld spezialisiert. In Kundenprojekten insbesondere in der Automobilindustrie sammelte er zudem umfassende Erfahrungen in den Bereichen Datenvisualisierung, Datentransformation und -aufbereitung sowie bei der Modellierung von Machine Learning-Projekten.
Robea Aurojo von Borries, Elias Jebabli
Robea Aurojo von Borries, Elias Jebabli
Track: Workshop
Vortrag: Mo 5.1
flag VORTRAG MERKEN

Vortrag Teilen

10:50 - 11:20
Break
Break
Break

11:20 - 12:30
Mo 1.2
Governing big data and analytics
Governing big data and analytics

Data volumes are exploding, and companies are striving to use advanced analytics for more data-driven insights and self-learning systems. Enabling scalable data onboarding and analytics delivery processes with little human intervention but strong governance is key to extract value from Big Data and Analytics successfully. The CC CDQ has developed a framework for governing Big Data and Analytics in close collaboration with industry partners. The framework supports practitioners to setup processes, roles and tools to scale analytics use cases.

Target Audience: Analytics Manager, Data Manager, Project Leader
Prerequisites: Basic knowledge and some experience in analytics or data management
Level: Basic

Martin Fadler is researcher in the Competence Center Corporate Data Quality (CC CDQ) and doctoral candidate at University of Lausanne. Before joining CC CDQ, he worked for several years as a Data Scientist in a venture of Deutsche Telekom. His research interests relate to data management in the context of big data and analytics, and on how artificial intelligence, in particular machine learning, can improve data management.
Christine Legner ist Professorin an der Universität Lausanne und leitet das Competence Center Corporate Data Quality (CC CDQ), in dem sie und ihr Team gemeinsam mit 20 europäischen Unternehmen innovative Konzepte und Lösungen für das Datenmanagement erarbeiten. Sie verfügt über langjährige praktische und akademische Erfahrung und ist Autorin aktueller Studien zu Datenstrategien und Datenkatalogen.
Martin Fadler, Christine Legner
Martin Fadler, Christine Legner
Vortrag: Mo 1.2
flag VORTRAG MERKEN

Vortrag Teilen

11:20 - 12:30
Mo 2.2
Distributed databases in a microservice environment
Distributed databases in a microservice environment

Using distributed databases across various microservices will be explained based on a research project example. The presentation elaborates of how to achieve data consistency across microservices, how to communicate using message brokers, how to scale the microservices and achieve high application availability. Container virtualization and orchestration are technology basis for the solution. The project example shows of how to build an Artificial Intelligence (AI) solution – as a service!

Target Audience: Data Engineer, Data Scientist, Project leader, Architects
Prerequisites: Common understanding of database technology and architecture
Level: Advanced

Extended Abstract:

Developing microservices have various advantages compared to traditional monolith approach. Loose coupled microservices enables smaller teams to develop independently and using CI/CD at a daily basis. Microservices can be scaled independently using different database technologies optimised for particular use cases. The microservices are fault isolated so particular failures will not result in an overall outage.

But how to ensure data consistency for all distributed databases across the microservices? How to react at particular failures? And how to interact and communicate between services?

A research project for intelligent energy analysis will be presented. The solution realizes an Artificial Intelligence (AI) solution analyzing streaming data near real time to ensure energy savings in a production environment. The presentation will explain the steps necessary to establish a microservice environment for Artificial Intelligence and Machine Learning. Central logging guarantees operations monitoring across all microservices. Dashboards presents the results to technical staff monitoring the Machine Learning libraries as well as to the process owner of the domain, e.g. the operations manager or insurance agent. The solution is based on Docker as container virtualisation technology and Kubernetes for container orchestration. In the research project, the solution is realized on premise, but can be easily deployed in the cloud.

The speaker Matthias Braun studied Mathematics and Physics. He works as consultant for Business Intelligence and Business Analytics for more than 10 years. Matthias Braun started in 2015 at Trevisto AG, a consultant company for digitalisation, Business Intelligence and AI. At Trevisto, he is responsible for the development of an AI framework including the full project life cycle starting from a proof-of-concept phase until operation and monitoring of the solution. He has worked in various data scientist projects.
Matthias Braun
Matthias Braun
Vortrag: Mo 2.2
flag VORTRAG MERKEN

Vortrag Teilen

11:20 - 12:30
Mo 3.2
Data virtualization in real life projects
Data virtualization in real life projects

Data virtualization is being adopted by more and more organization for different use cases, such as 360 degrees customer views, logical data warehouse, democratizing data, and self-service BI. The effect is that knowledge about this agile data integration technology is available on how to use it effectively and efficiently. In this session lessons learned, tips and tricks, do's and don'ts, and guidelines are discussed. And what are the biggest pitfalls? In short, the expertise gathered from numerous projects is discussed.

Target Audience: Data architects, data warehouse designers, IT architects, analysts, solutions architects
Prerequisites: Some understanding of database technology
Level: Advanced

Extended Abstract:
Data virtualization is being adopted by more and more organization for different use cases, such as 360 degrees customer views, logical data warehouse, and self-service BI. The effect is that knowledge about this agile data integration technology is available on how to use it properly. In this practical session the lessons learned are discussed. Tips and tricks, do's and don'ts, and guidelines are discussed. In addition, answers are given to questions, such as: How does data virtualization work and what are the latest developments? What are the reasons to choose data virtualization? How to make the right choices in architecture and technology? How does data virtualization in your application landscape? Where and how do you start with the implementation? And what are the biggest pitfalls in implementation? In short, the expertise gathered from numerous projects is discussed.

Rick van der Lans is a highly respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. Rick has written hundreds of articles, blogs, books, and educational white papers. Recently he published his new book 'Data Virtualization: Selected Writings.'
Rick van der Lans
Rick van der Lans
Vortrag: Mo 3.2
flag VORTRAG MERKEN

Vortrag Teilen

11:20 - 12:30
Mo 4.2
Data-driven risk monitoring
Data-driven risk monitoring

Hohe Rentabilität bei konstant niedrigen Stornoraten sind in der Finanz- und v.a. Versicherungswirtschaft wichtige Ziele.  Die Herausforderung in diesen traditionellen Branchen besteht darin, das über Jahre aufgebaute Wissen zu aktivieren, die entscheidenden Bezüge herzustellen und die Lücke zwischen IT-Architektur und konkreter Prozessunterstützung im Business-Alltag zu schließen. 

Gemeinsam mit MORESOPHY  setzen wir Demand-Driven-Data-Analytics ein, um Inhalte aus verschiedenen Datenquellen zu verbinden und eine datengetriebene Risikobewertung durchzuführen. Der Vortrag zeigt zudem auf, wie in einem agilen, KI-gestützten Ansatz Smart-Data-Analysen unmittelbar Geschäftsprobleme lösen und gleichzeitig eine effektive, flexible Datenstrategie etablieren helfen.

Zielpublikum: Fachexperten im Finanz- und Versicherungswesen, Datenwissenschaftler, IT-Architekten, Ingenieure, IT-Berater
Voraussetzungen: Grundlegendes Verständnis von Datenmanagement und analytischen Konzepten
Level: Fortgeschritten

Mariana Hebborn promovierte in Computerlinguistik & Semantik als Stipendiatin an der Universität Gießen. Mariana ist Expertin für datengetriebene Geschäftsstrategien, digitale Transformation und die intelligente Nutzung von Daten. In dieser Funktion arbeitete sie für IBM und Fujitsu und beriet branchenübergreifend Kunden bei der Entwicklung und Anwendung intelligenter datengetriebener Geschäftslösungen für ihr Unternehmen.  In ihrer jetzigen Position bei der Viridium Group leitet und treibt Mariana die Themen datengetriebene Optimierung und Effizienz voran.
Dr. Weinert ist Quant Risk Manager bei Viridium und verbindet die Lebensversicherung mit Data Science und strategischem Fokus. Er promovierte in Versicherungsmathematik an der Schnittstelle von mathematischer Modellierung, Datenauswertung und Ökonomie. Diesen Brückenschlag setzt er fort, indem er strategisches Risikomanagement mit der IT verbindet. Dabei bricht er Silos auf und kombiniert verschiedene Teile, um ein datengetriebenes Risikomanagement zu fördern. 
Heiko Beier ist Professor für Internationale Medienkommunikation und Gründer von MORESOPHY, Pionier für Cognitive Computing seit 2001. Als Experte für digitale Business-Transformation begleitet er führende Unternehmen bei der Konzeption und Umsetzung digitaler Geschäftsmodelle und Prozessautomatisierung auf Basis von Smart-Data-Technologien. Seine Leidenschaft für KI-gestützte Big-Data-Analysetechniken entwickelte er bereits Mitte der 90er Jahre am DESY, Hamburg und an der Columbia University.
Mariana Hebborn, Jan-Hendrik Weinert, Heiko Beier
Mariana Hebborn, Jan-Hendrik Weinert, Heiko Beier
Vortrag: Mo 4.2
flag VORTRAG MERKEN

Vortrag Teilen

12:30 - 14:00
Lunch Break
Lunch Break
Lunch Break

14:00 - 14:40
Mo 1.3
Wer, wie, was – wieso, weshalb, warum – Darum bitemporal
Wer, wie, was – wieso, weshalb, warum – Darum bitemporal

Mit der Zeit verändern sich Informationen auf komplexe Art und Weise. Zum Beispiel ändern sich die Zuordnung von Produkten zu Produktgruppen oder auch die Zuordnung von Preisspannen der Produkte nach Zielgruppe, Vertriebskanal, Rabattsystem und vieles mehr im Zeitverlauf.

Zielpublikum: Data Modeler, Data Engineer, BICC Team Member, BI-Manager
Voraussetzungen: Grundlegendes Verständnis von ‚time in data warehousing‘
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Mit der Zeit verändern sich Informationen auf komplexe Art und Weise. Zum Beispiel ändern sich die Zuordnung von Produkten zu Produktgruppen oder auch die Zuordnung von Preisspannen der Produkte nach Zielgruppe, Vertriebskanal, Rabattsystem und vieles mehr im Zeitverlauf.

Fachbereiche planen bereits heute zukünftige Preise und Preisspannen, strukturieren Produktgruppen um, wie zum Beispiel für eigene Produktgruppen mit Rabatten speziell für den 'Black Friday'. Diese Informationen können und werden lange bevor sie in der Realität gültig sind, in den Systemen gespeichert.

In der heutigen Session gibt Dirk Lerner einen Einblick in Use Cases für bitemporale Daten und warum diese für heutige Geschäftsanforderungen wichtig und grundlegend sind. Anschließend visualisiert er die Vorgehensweise der bitemporalen Historisierung von Daten anhand eines einfachen Beispiels. Zum Abschluss stellt Dirk Lerner die aktuell existierenden Technologien vor, die eine (bitemporale) Historisierung von Daten bereits implementiert haben.

Dirk Lerner ist ein erfahrener unabhängiger Berater und Geschäftsführer von TEDAMOH. Er leitet seit 19 Jahren BI-Projekte und gilt weltweit als Experte für BI-Architekturen, Datenmodellierung und temporale Daten. Dirk plädiert für flexible, schlanke und leicht erweiterbare Data-Warehouse-Architekturen.
Über die TEDAMOH Academy schult Dirk BI-Spezialisten zu (bi-) temporalen Daten und Datenmodellierung im Allgemeinen und für Data Vault im Besonderen.
Als Pionier für Data Vault und FCO-IM in Deutschland hat er diverse Publikationen verfasst, ist ein international viel beachteter Redner auf Konferenzen und Autor des Blogs https://tedamoh.com/blog.
Dirk Lerner
Dirk Lerner
Vortrag: Mo 1.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Mo 2.3
Intelligente Planung – Assetoptimierung & höhere Liefertreue
Intelligente Planung – Assetoptimierung & höhere Liefertreue

USE CASE: Siemens AG

- Ausgangslage: Nicht ausreichend zuverlässiger Forecast für Liefer- und Bestandsoptimierung
- Vorgehen: Cross-Industry-Standard-Prozess für Data-Mining-Projekte:

(a) Erstellung von datengetriebenen Kurz- und Langfristprognosen mit Machine Learning
(b) Identifikation von Einflüssen externer Informationen
(c) Schneller Projekterfolg durch Predictive-Analytics-Plattform

- Ergebnis: Detailgenaue Planung auf Abruf

(a) Signifikante Verbesserung der Prognosen
(b) Optimierung von Liefertreue und Lagerkosten

Zielpublikum: Data Scientist, Controller, Planner, Finance, DWH Architects, Project Manager, CFO
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Anfänger

Extended Abstract:

Die Verkaufsprognose bei Siemens wies eine geringe Zuverlässigkeit mit negativen Auswirkungen auf den Lagerbestand und die Liefertreue auf. In einem dreistündigen Workshop evaluierten avantum und Siemens Möglichkeiten der Verbesserung, woraufhin sich Siemens für die Implementierung von ML-Algorithmen zur Prognose der Absatzmengen entschied. 


Gemeinsam mit den Logistikexperten der Anlage entwickelte avantum ein prädiktives Modell. Dieses wurde mit der Softwarelösung APOLLO erstellt, die auf IBM SPSS Modeler basiert. Als Ergebnis der Modellnutzung konnte Siemens die Zuverlässigkeit seiner Prognose um mehr als 50 % erhöhen und somit Working Capital reduzieren und Liefertreue deutlich steigern.

Robin Richter ist Solution Expert bei der avantum consult AG und Leiter des Competence Centers Artificial Intelligence. Er verfügt über mehr als acht Jahre Erfahrung mit Data-Mining-Projekten und sammelte umfangreiche Expertise in der Projektumsetzung und Beratung
Dipl. Betriebswirtin (BA) Nicole Birkle ist bereits seit über 25 Jahren bei der Siemens AG tätig. Sie unterstützte bei der Einführung mehrerer SAP-Systeme für verschieden Bereiche und war außerdem viele Jahre als kaufmännische Projektleiterin im Konzern verantwortlich für Kundenprojekte. Seit 2014 fungiert sie in IT-Projekte mit dem Schwerpunkt globaler Prozessharmonisierungen und -optimierungen für verschiedene Segmente der Digital Industries Process Automation als Projektleiterin.
Robin Richter, Nicole Birkle
Robin Richter, Nicole Birkle
Vortrag: Mo 2.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:30
Mo 3.3
DataOps: using data fabric and a data catalog for continuous development of data assets
DataOps: using data fabric and a data catalog for continuous development of data assets

As the data landscape becomes more complex with many new data sources, and data spread across data centres, cloud storage and multiple types of data store, the challenge of governing and integrating data gets progressively harder. The question is what can we do about it? This session looks at data fabric and data catalogs and how you can use them to build trusted re-usable data assets across a distributed data landscape.

Target Audience: CDO, Data Engineer, CIO, Data Scientist, Data Architect, Enterprise Architect
Prerequisites: Understanding of data integration software and development using a CI/CD DevOps approach
Level: Advanced

Extended Abstract:
As the data landscape becomes more complex with many new data sources, and data spread across data centres, cloud storage and multiple types of data store, the challenge of governing and integrating data gets progressively harder. The question is what can we do about it? This session looks at data fabric and data catalogs and how you can use them to build trusted re-usable data assets across a distributed data landscape.

  • The increasingly complex data landscape
  • Challenges in governing and integrating data in a distributed multi-cloud environment
  • What is data fabric, why it is important and what technologies are on the market?
  • What is a data catalog and what products are on the market?
  • Why organizations need these technologies?
  • How do data catalogs and data fabric work together?
  • A closer look at data fabric capabilities
  • Defining common data entities in a catalog business glossary
  • Using a catalog for automatic data discovery
  • A DataOps CI/CD Approach to building reusable trusted data assets in using data fabric
Mike Ferguson is Managing Director of Intelligent Business Strategies. He specialises in BI, analytics- and data management. With over 38 years of IT experience, he has consulted for many companies, spoken at events all over the world and written many articles. Formerly he was co-founder of Codd and Date – the inventors of the Relational Model, Chief Architect at Teradata and European CEO of DataBase Associates
Mike Ferguson
Mike Ferguson
Vortrag: Mo 3.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Mo 4.3
Sinnvoll Entscheidungen treffen
Sinnvoll Entscheidungen treffen

Der Vortrag behandelt das Thema 'Entscheidungsfindung'

Nach einer Einleitung, in der die Art der Entscheidungsfindung hergeleitet und motiviert wird, wird der Einsatz von KI in einem praktischen und echten Beispiel diskutiert

Zielpublikum: 'KI-Interessierte', Data Scientist, Project Leader, Decision Makers
Voraussetzungen: Grundkenntnisse, Erfahrung in KI und Prozessautomatisierung empfohlen
Schwierigkeitsgrad: Anfänger

Extended Abstract:

Der Vortrag behandelt das Thema der Entscheidungsfindung für (automatisierte) Prozesse im Schadenbereich der Provinzial Versicherung

Entscheidungen im Zusammenhang der Versicherung werden diskutiert und die Zukunft der Entscheidungsfindung (algorithmische Entscheidungsfindung durch KI) wird hergeleitet. Wie die 'Künstliche Intelligenz (KI)' konkret diese Entscheidung übernimmt wird dabei auf hoher Flughöhe erklärt.

Danach wird dieses Thema an dem praktischen Beispiel des Schadenanlageprozesses der Provinzial diskutiert.

Dr. Jan Wiltschut ist im Provinzial Konzern für das Thema 'Künstliche Intelligenz im Schadenbereich' zuständig. Hierbei beschäftigt er sich mit der Identifikation, Bewertung, Entwicklung und Umsetzung von KI-Use Cases, die die Schadenprozesse hinsichtlich des Ertrags, der Effizienz und/oder der Kundenzufriedenheit verbessern. Er hat über das Thema „computational neuroscience“ promoviert, konkret um die Entwicklung eines biologisch motivierten neuronalen Netzes für den (frühen) Sehprozess von Säugetieren. Vor seiner Zeit bei der Provinzial war er als Consultant bei der Firma Eucon GmbH auf dem Gebiet des 'Automotive Aftersales' beschäftigt.
Jan Wiltschut
Jan Wiltschut
Vortrag: Mo 4.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:30
Mo 5.3
Harte Kopfnüsse mit SQL geknackt ('unlösbare' Queries)
Harte Kopfnüsse mit SQL geknackt ('unlösbare' Queries)

Da formuliert man jeden Tag mit über 20 Jahren Programmiererfahrung die kompliziertes SQL-Statements, kennt vermeintlich jeden Kniff mit GROUP BY oder exotischen JOINs und dann ist da plötzlich so eine typische Kopfnuss: kinderleicht formuliert, die Aufgabenstellung sofort erfassbar... aber schon bei der Suche eines Ansatzes droht sich das eigene Gehirn zu verknoten...Wir schauen uns ein paar der extremsten Beispiele und deren Lösung an. Dabei liegt der Fokus nicht auf Theorie und Mathematik, sondern auf Kniffen und Ideen für die Praxis.

Zielpublikum: Datenbankentwickler, Entwickler, Analysten, Data Engineers, Data Scientist

Voraussetzungen: Basis SQL-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

Wir lernen anhand unterhaltsamer Beispiele, welche Hilfsmittel die Hersteller im Laufe der Jahre in die Abfragesprachen und Tools integriert haben, um auch derartige Herausforderungen spielen zu meistern. Dabei sind die Fragestellungen so gewählt, dass jeder problemlos folgen kann und keine abstrakten wissenschaftlichen Abhandlungen notwendig werden. Wenn man an der richtigen Stelle über den Tellerrand hinausguckt, mal die bisherige Standardsichtweise gegen eine unkonventionellere Variante eintauscht und sein Handwerkszeug sicher beherrscht, liegt die Lösung quasi auf der Hand. Und erstaunlicherweise kann man den Lösungsansatz plötzlich auch im Alltag immer öfter erfolgreich einsetzen, sobald man ihn denn kennt.

Torsten Ahlemeyer ist Diplom-Wirtschaftsinformatiker und realisiert seit über 17 Jahren internationale Datenbankgroßprojekte in der Rolle des DB-Spezialisten, Architekten oder Projektleiters. Als Microsoft-Experte rund um den SQL-Server hat er sich auf T-SQL spezialisiert und liebt komplexere Fragestellungen, außergewöhnliche Lösungsansätze und kniffelige Abfragen.
Torsten Ahlemeyer
Torsten Ahlemeyer
Track: Workshop
Vortrag: Mo 5.3
flag VORTRAG MERKEN

Vortrag Teilen

14:40 - 14:50
Short Break
Short Break
Short Break

14:50 - 15:30
Mo 1.4
Insights to action: ABB's journey to data driven decisions
Insights to action: ABB's journey to data driven decisions

How do you enable digital transformation and create value through analytics?

Building a global analytics function across a diverse application landscape incl. SAP and multiple data sources provides many challenges. See how ABB successfully managed this journey and now enjoys the benefits of operational analytics globally, a shift in mindsets and a more data driven way of working.

You will also discover the impact of key technologies used (Change-Data-Capture, Automation & AI) and see real examples of specific analytics deployed in the business.

Target Audience:
Business analysts, decision makers, C-Level
Prerequisites: Basic Knowledge
Level: Basic

Extended Abstract:

How do you enable digital transformation and create value through analytics?

This session tells the story of building a global analytics function in an environment with a diverse set of applications including a complex SAP system landscape and many data sources. The speaker will talk about some of the challenges in the journey but also the success in deploying operational analytics globally, shifting mindsets and help transition to a more digital/data driven way of working.

The audience will also discover the impact of key technologies used (e.g.: Change-Data-Capture, Visualization, Automation and AI) and how these helped to create value and drive revenue increase for ABB, using real examples of specific analytics deployed in the business.

Mircea Zamfir is a data analytics advocate at ABB, a pioneering technology leader in the field of energy & automation. He transforms traditional processes and drives value creation through digital enablement. Mircea has 14+ years of leading experience in technology, analytics and operations, combining business knowledge with technology to drive process improvements and cash recoveries.
Feridun Ozmen is an Internal Auditor - Business Analyst at ABB Asea Brown Boveri Ltd.
Mircea Zamfir, Feridun Ozmen
Mircea Zamfir, Feridun Ozmen
Vortrag: Mo 1.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Mo 2.4
Building a data culture with people and ideas that matter
Building a data culture with people and ideas that matter

A successful data culture brings together people from across the business to collaborate, share and learn from each other about data, analytics and the business value data can hold. In this session I share my suggestions for bringing together your most talented data people so your organization can gain more value from their skills and the data assets you invested in.

Come with an open mind and leave with tips, tricks and ideas to get started straight away.

Target Audience: Data practitioners, analysts, CoE leaders, Management
Prerequisites: basic understanding of how businesses use data
Level: Basic

Eva Murray, is a leader in data visualisation and runs the global social data project #MakeoverMonday. She is passionate about helping people understand and work with data, giving them a platform for learning about data analysis and visualisation. Eva is an international speaker has published two books on data visualization and data culture and empowers women in the technology sector.
Eva Murray
Eva Murray
Vortrag: Mo 2.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Mo 4.4
Storytelling im betrieblichen Rechnungswesen
Storytelling im betrieblichen Rechnungswesen

Anhand eines Artikels präsentieren wir, wie die Mobiliar ein neues Reporting-System mit SAP Analytics eingeführt hat. Ausgehend von einem reinen Excel- und PDF-basierten Reporting liegt der Fokus unserer Präsentation auf den Schlüsselfaktoren der erfolgreichen Transformation hin zu einem anerkannten BI-System.

Zielpublikum: CFO, Finanzexperten, BI-Projektleiter und Controller
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Esther Baacke, Robert Lippmann
Esther Baacke, Robert Lippmann
Vortrag: Mo 4.4
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:00
Break
Break
Break

16:00 - 17:10
Mo 1.5
KI & Anonymisierung: Was geht technisch, was muss rechtlich?
KI & Anonymisierung: Was geht technisch, was muss rechtlich?

Die Implementierung einer effizienten KI wird durch die Verfügbarkeit fortschrittlicher Computer und schneller und großer Massenspeicher ermöglicht. Häufig stellen sich hierbei Fragen im Zusammenhang mit dem Datenschutzrecht. Die DSGVO ist hingegen nicht anwendbar, wenn anonymisierte Daten genutzt werden. Doch wann liegt eine 'rechtssichere' Anonymisierung vor? Ist sie im Zeitalter von Big Data überhaupt möglich? Der Beitrag stellt dies aus Sicht des Bereichs 'Selbstfahrender Fahrzeuge' dar und beleuchtet essenzielle rechtliche Fallstricke.

Zielpublikum: Der Vortrag verknüpft technische und rechtliche Erkenntnisse beim Einsatz von KI und ML und erklärt daher Grundlagen und Besonderheiten aus beiden Bereichen, sodass er sich für ein breites Publikum eignet.
Voraussetzungen: Es genügt Vorwissen entweder aus dem technischen oder rechtlichen Bereich. Der Vortrag ist gelungen, wenn Techniker danach ein Grundverständnis der relevanten Rechtsfragen haben und Techniker und Juristen sich danach im Bereich autonomer, selbst lernender
Schwierigkeitsgrad: Anfänger


Extended Abstract:

Maschinelles Lernen (ML) und Deep Learning (DL) sind Werkzeuge, um KI-Anwendungen zu implementieren. Die Implementierung einer effizienten KI wird durch die Verfügbarkeit fortschrittlicher Computer und schneller und großer Massenspeicher ermöglicht. Häufig handelt es sich bei den genutzten Daten um personenbezogene Daten. Somit rücken Fragen im Zusammenhang mit dem Datenschutzrecht immer mehr ins Licht der Öffentlichkeit. Die Frage des 'Personenbezugs' von Daten wird im Datenschutzrecht seit jeher kritisch diskutiert. Die Rechtsprechung und auch Datenschutz-Aufsichtsbehörden gehen grundsätzlich von einem weiten Verständnis personenbezogener Daten aus. Einen neuen Höhepunkt erreicht diese Diskussion im Kontext von KI-Anwendungen. KI-Anwendungen müssen mit Datensätzen trainiert werden, die einen Personenbezug enthalten können, ohne dass dies auf Anhieb ersichtlich ist. In diesem Fall ist das strenge Regime der Datenschutzgrundverordnung (DSGVO) anwendbar. Dies ist jedoch nicht der Fall, wenn die Datensätze anonymisiert sind. Allerdings ist die Frage, ob Daten personenbezogen oder anonym sind, nicht nur eine technische, sondern vor dem Hintergrund der DSGVO auch eine rechtliche. Wann liegt eine 'rechtssichere' Anonymisierung vor? Ist sie im Zeitalter von KI und Big Data überhaupt noch möglich? Der Beitrag stellt dies aus Sicht von Anwendungen und Datensätzen im Bereich 'Selbstfahrender Fahrzeuge' dar und beleuchtet essenzielle rechtliche Fallstricke.

Dr. Florian Baumann arbeitet als CTO mit dem Schwerpunkt Automotive & Artificial Intelligence bei der Firma Dell Technologies. In seinem Schwerpunkt ist er ein branchenweit anerkannter Experte, der viele Konferenzen leitet und führende Automobilhersteller und Zulieferer berät. Derzeit betreut Baumann Unternehmen im Entwicklungsprozess von Fahrerassistenzsystemen und selbstfahrenden Fahrzeugen.
Fritz-Ulli Pieper berät als Fachanwalt für IT-Recht nationale und internationale Mandanten im IT-, Telekommunikations- und Datenschutzrecht. Er verfügt über besondere Erfahrung zu Rechtsfragen der Digitalisierung und Künstlicher Intelligenz. Seine Aufgabenschwerpunkte umfassen die Gestaltung von IT-Verträgen sowie AGB und die Begleitung von komplexen Datenschutzprojekten.
Florian Baumann, Fritz-Ulli Pieper
Florian Baumann, Fritz-Ulli Pieper
Vortrag: Mo 1.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Mo 2.5
Digitaler Humanismus
Digitaler Humanismus

Von Führungskräften wird erwartet, den digitalen Wandel anzustoßen, zu steuern und die Mitarbeiter zu Veränderungen zu motivieren. Die Balance zwischen Technology-Literate People und People-Literate Technology bleibt herausfordernd. Digitales Mindset entwickeln Führungspersönlichkeiten mit einem 'digital Mindset' sind mehr gefragt denn je. Für den Erfolg von digitalem Wandel sind wenig überraschend nicht primär Technologien, sondern menschliche Fähigkeiten ausschlaggebend.

Zielpublikum: Leaders, Project Members
Voraussetzungen: None
Schwierigkeitsgrad: Anfänger

Extended Abstract:

Der hier (in diesem Vortrag, Anm.) verfolgte Lösungsansatz rückt das 'digitale Mindset' als entscheidenden Faktor bei der Verankerung von Wandlungsfähigkeit im Unternehmen in den Fokus. 

Aber was ist ein digitales Mindset? Für 'Mindset' gibt es keine gute Übersetzung. Haltung und Einstellung treffen am ehesten zu. Das Wort Set beinhaltet auch den Prozess des 'Einstellens'. 

Anders: die innere Haltung lässt sich einstellen! Das Mindset ist wandlungsfähig. Ergänzt um das Wort 'digital' geht es um die Einstellung und Haltung, mit der Führungskräfte und Mitarbeitende mit den Anforderungen der Digitalisierung umgehen. Ein digitales Mindset ist an verschiedensten Merkmalen erkennbar, unter anderem: 

Offenheit für moderne Technologien 

- Neugier gegenüber Veränderungen 

- Bereitschaft, Risiken einzugehen 

- Bereitschaft zur Weiterbildung 

- Mut zur Improvisation 

- Denken und Handeln in Teams 

- Offene Fehlerkultur 

- Aufbrechen hierarchischer Strukturen 

- Fokusausrichtung auf den Kunden 

- ... und vieles mehr 

Die angeführten Merkmale zeigen, dass eine Trennung zwischen privatem und beruflichem Kontext kaum möglich ist. Der private Mensch zeigt in seiner beruflichen wie privaten Persönlichkeit dieselben Merkmale auf. 

Daher wirken Methoden der Persönlichkeitsentwicklung auch weit in das berufliche Wirken einer Person hinein. 

Auf Dauer ist jener Mensch glücklicher, der sich gezielt mit der eigenen Wandlungs- und Entwicklungsfähigkeit auseinandersetzt. Ausgehend vom spiraldynamischen Ansatz1 wirken Veränderungen vom Individuum auf Teams, auf die Organisation und von dieser auf Strukturen der Wirtschaft und Gesellschaft. 

Die Kenntnis innerer Kraftquellen und die Entwicklung von Mut und Gelassenheit gehören dabei zu den zentralen Führungselementen. Ziel ist die gesamthaft erfolgreiche Bewältigung großflächiger Transformationen.

Der Ansatz verfolgt die Prämisse 'von innen nach außen', vom Individuum auf die Gruppe und von der Gruppe in die Organisation. 

Der Lebensalltag ist bei den Menschen begleitet von den verschiedensten Belastungen, von Dysbalance, von Konflikten in der Familie, am Arbeitsplatz, vielleicht einer Angst vor der Zukunft, vor der Endlichkeit und persönlicher Stagnation. Die Summe all dessen, was wir wahrnehmen, was wir hören, lesen, tun und denken, ergibt unser Lebensgefühl.

Es ist insbesondere nach der Lehre Viktor Emil Frankls und anderer, auch zeitgenössischer Leadership Autoren so, dass wir per se, als wahrnehmende Menschen, entscheidenden(!) Einfluss darauf haben, was wir wahrnehmen und wie wir es interpretieren. (Literaturempfehlung 'Sinnzentrierte Unternehmensführung': Um die anspruchsvollen Aufgaben der Zukunft zu lösen, brauchen Führungskräfte Fachwissen, Intelligenz (IQ), emotionale Kompetenz (EQ), vor allem aber Sinnorientierung (SQ). 

Die Gestaltungsfreiheit unseres Lebens bewegt sich immer zwischen zwei Polen, Freiheit und Angst. Es gibt jedoch dazwischen eine Bandbreite an Möglichkeiten in großen und kleinen Entscheidungen. Das, was das Leben grundsätzlich 'anstrengend' machen kann, ist wenn man immer wieder abwägen muss, immer wieder überlegen muss, was jetzt 'das Richtige' zu tun wäre und in welchem Spielraum man sich gerade bewegt. Dem Dasein insgesamt liegt in allem eine Pendelbewegung zugrunde, spürbar in Tag und Nacht, in Ebbe und Flut und so weiter. Von allem Sein gibt es im Wesenskern auch dessen Gegenteil und wir als 'Entscheider' müssen Balance halten. Balance zu halten ist die Aufgabe unseres gesunden Menschenverstandes in Verbindung mit ausreichend Herz und Seele.

Zurück zu unserem Einfluss auf das, was wir wahrnehmen, wie wir es wahrnehmen und welchen Einfluss dies auf unseren Alltag hat. 

Wir Menschen sind ausgestattet mit psychischen Kräften und Funktionen, sprich wir können normalerweise sehen, hören, riechen, schmecken und fühlen. Ohne den Filter des Menschenbildes und der individuellen Haltung bzw. ohne 'entscheidende' Absicht sind diese Funktionen zunächst reine Werkzeuge, deren Anwendbarkeit einer geistigen Dimension bedürfen, um 'Sinn' zu ergeben und eine Geschichte daraus entstehen zu lassen.

Das Wahrnehmen an sich stellt nur die physisch anatomische Grundlage dar. Ohne diese wären in der Folge keine Kräfte mobilisierbar. Ohne Ziel ebenso wenig bzw. nicht sinnvoll vorstellbar. Nach den funktionierenden Wahrnehmungseinrichtungen bedarf es der mobilisierenden Einrichtungen und um einen Senor für die Zielrichtung. 

In der menschlichen Handlung kristallisiert sich die Selbstverwirklichung bzw. Lebensgestaltung, die im ethischen Sinn eine zentrale Rolle spielt. Habitus (Haltung, Weltbild) kommt u. a. durch Übung und Wiederholung zustande, (durch wiederholtes Handeln) und durch wiederholte Zustimmung zu einer gewissen 'inneren Ordnung', wenn man so möchte. Der Mensch braucht Ordnung und Orientierung und es mag ein wesentlicher Sicherheitsfaktor sein, die eigenen Handlungsweisen, den eigenen Habitus zu kennen und diesem vertrauen zu können. Auf Dauer würde es zu anstrengend und auch nicht sinnvoll, jede Handlung erneut zu überprüfen und ihre Stellung zwischen Möglichkeit und Wirklichkeit, zwischen Aktivität und Passivität oder auf ethische Tauglichkeit zu evaluieren.

So könnte man Habitus auch als Prinzip betrachten, welches das Hervorbringen adäquater Handlungen überhaupt ermöglicht. Nach Thomas von Aquin ist der Habitus der 'Ort, an dem die Möglichkeit zur Handlung ausgeführt wird'. So gesehen ist die Haltung etwas Statisches. Auch der Zeitgeist und das Menschenbild sind in diesem Sinne etwas Statisches. Dies zu 'wandeln' und zu einem 'höheren' Selbst zu kommen, ist das zentrale Anliegen von Digital Leadership und dessen Kern ein digitales Mindsets. Veränderungen finden statt und liegen in erster Linie in den äußeren Rahmenbedingungen, Wandlungsfähigkeit ist das, womit wir als Menschen antworten. 

Um dem heutigen Titel gerecht zu werden und die 'Verlagerung von Computer-Literate People hin zu People-Literate Technology ' entscheidend mitzugestalten, gibt es unserer Ansicht nach – und auch aus der Erfahrung aus unseren Projekten nach – zwei Ansatzmöglichkeiten. 

Beide nehmen den einzelnen Menschen, dessen Urteilsfähigkeit und dessen Bedürfnis, das 'Richtige' zu tun, ernst. Die zwei Ansatzpunkte betreffen nur die organisatorische Umsetzung. Einmal geschieht die Begleitung hin zu einer Wandlungsfähigkeit, einem digitalen Mindset, bei der Führungskraft und der zweite Ansatz – idealerweise zeitgleich – wird mit kleinen Gruppen in der Belegschaft durchgeführt. Wir sprechen hier nicht von Teambuilding oder Motivationstraining, nein, vielmehr geht es um die ganz zentralen Orientierungsparameter eines menschlichen Lebens, um die Werte. Aus denen entstehend Prinzipien und daraus wiederum Haltungen und daraus wiederum Kulturen – Organisationskulturen. 

Wenn wir den Erfolg digitaler Transformationsprojekte ohne den wichtigen Faktor Mensch voranbringen wollen, müssen wir mit Reibungsverlusten und Widerstand rechnen. 

In der praktischen Umsetzung kann das durch eine Vielzahl von Methoden gelingen. Wichtiger aber noch ist grundsätzlich ein Verständnis über Wandlungsfähigkeit und dass das Erreichen von Visionen und Zielen wichtig und möglich ist. 

Am Beispiel der Führungskraft kann man die primären Führungseigenschaften zugrunde legen (eventuell agile Prinzipien) und bei einem festgestellten Entwicklungspotential etwa folgende Fragen stellen: Was wäre, wenn ich mutiger (strukturierter/integrierender/kommunikativer...) wäre. Dies setzt auf an den klassischen Führungseigenschaften. Diese Eigenschaften zu evaluieren ist grundsätzlich gut und richtig. Tiefer und effizienter ist aber noch ein imaginativer Ansatz. 

Die großen Fragen in der wertorientierten Persönlichkeitsentwicklung 'praktisch' zu beantworten, bedarf eines humanistischen Kontextes, einer methodischen Vorgehensweise und einer großen Portion Zuversicht, dass das, was vorstellbar ist, auch möglich ist. 

Die großen Fragen, die man sich als Mensch im Allgemeinen stellt, sind seit Jahrtausenden dieselben. Was ist wesentlich? Worauf kommt es an? Wer hat recht? Was bewegt mich? Was ist der Sinn und Zweck meines Lebens? Habe ich Ahnung davon, wie sich 'gelingen' anfühlt? Und so weiter. 

Diese Fragen scheinen für einen Projektalltag – ja gar für einen datenbezogenen Projektalltag – unrelevant, sind jedoch der Kern einer stabilen und zielfähigen Persönlichkeit, die sich im Rahmen einer beruflichen Tätigkeit gut positionieren möchte, um das eigene Engagement und die berufliche Entwicklung nach den ureigensten Sinnmöglichkeiten entlang von Talenten und Werten aktiv zu gestalten. Welches Unternehmen sollte nicht an diesen Mitarbeiter-Attributen interessiert sein?

Google beispielsweise hat vor langer Zeit schon eingeführt, dass Mitarbeiter einen Teil der Arbeitszeit auf persönliche Projekte verwenden dürfen. Dies hat in weiterer Folge zur Entwicklung des inzwischen weltweit bekannten und in Lizenz weitergegebenen Mindfulness-Programmes namens 'Search Inside Yourself' geführt. Deren 'Erfinder', Jade Meng Tan, war einst Entwickler und hat wegen der großen Begeisterung seines Programmes inzwischen nichts anderes mehr zu tun als über ganz einfache Achtsamkeitsübungen weltweit Vorträge zu halten. Seine Position bei Google ist zwischenzeitlich 'Jolly Good Fellow'. 

Jedes Unternehmen sollte einen Jolly Good Fellow haben und wenn Sie so wollen, bin ich die Verkörperung dieser Rolle bei TCI Consult. Unser Anliegen ist es, den Gedanken der Achtsamkeit – und zwar ganz genau im Sinne der Achtsamkeit auch für die eigenen Werte – zu heben und gerade wegen der Tendenz in Richtung Technikorientierung gegenzuhalten und eine Menschenorientierung in den Vordergrund zu stellen.

Viele große Unternehmen haben diesen Trend erkannt und entwickeln Programme, die mehr oder weniger auf ethischen Grundlagen beruhen, merklich mit leichter Tendenz zum Andenken breitflächigeren Einsatzes verschiedener Methoden. 

Anmerkung: Dieser Vortrag wird als Dialog mit dem Publikum geführt, es werden praktische Übungen integriert. In sehr kurzen (1-2 minütigen) Videosequenzen werden erfolgreiche und verprobte Methoden gezeigt. Literaturempfehlungen und Quellen für Interessierte und Selbstentwickler werden bereitgestellt. Darunter befinden sich Klassiker wie Steven Covey, Peter Kramer, Deepak Chopra aber auch Visionäre wie Joe Diszpenza und populäre wie Jade Meng Tan, um eine zeitgemäße Übersetzung klassischer Führungsthemen zu anzubieten

10 Jahre Erfahrung in der Unternehmenskommunikation und im Recruiting, 4 Jahre Radiomoderation, Umsetzung von Kommunikationskampagnen, Stakeholder Management und PR, Führung und Coaching
Branchenfokus und Erfahrung
Unternehmenskommunikation bei TCI Consult, Recruiting, Redaktion und Moderation live Radio 'Logos on Air', Aufbau der Stiftung Aqa Pearls – For You and Planet Blue der BWT AG, Mondsee, Führung durch Wertearbeit und Imagination, Life-Coaching, Ausbildungstutorin und Seminarleiterin, Vorstand der Gesellschaft für nachhaltige Energieversorgung
Gabriele Sevignani
Gabriele Sevignani
Vortrag: Mo 2.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Mo 3.5
No more metadata, let's talk context and meaning
No more metadata, let's talk context and meaning

Metadata is a long-time favourite at conferences. However, most attempts to implement real metadata solutions have stumbled. Recent data quality and integrity issues, particularly in data lakes, have brought the topic to the fore again, often under the guise of data catalogues. But the focus remains largely technological. Only by reframing metadata as context-setting information and positioning it in a model of information, knowledge, and meaning for the business can we successfully implement the topic formally known as metadata.

Target Audience:
- Enterprise-, Systems-, Solutions and Data Architects
- Systems-, Strategy and Business Intelligence Managers
- Data Warehouse and Data Lake Systems Designers and Developers
- Data and Database Administrators
- Tech-Savvy Business Analysts

Prerequisites: Basic knowledge of data management principles. Experience of designing data warehouses or lakes would be useful

Level: Basic

Extended Abstract:

Metadata has – quite correctly – been at the heart of data warehouse thinking for three decades. It's the sort of cross-functional and overarching topic that excites data architects and data management professionals. Why then can so few businesses claim success in implementing it? The real question is: implementing what?

This session answers that question by first refining our understanding of metadata, which has been made overly technical over the years and more recently been misappropriated by surveillance-driven organisations. With this new understanding, we can reposition metadata not as a standalone topic but as a vital and contiguous subset of the business information that is central to digital transformation. With this positioning, 'metadata implementation' will become a successful – but largely invisible – component of information delivery projects.

Dr. Barry Devlin is a founder of data warehousing, defining its first architecture in 1985. He is respected worldwide as a visionary on BI and big data, publishing the seminal book 'Business unIntelligence' in 2013. With 30+ years' IT experience in IBM and 9sight, he offers thought-leadership and consulting to BI and big data buyers and vendors. He speaks and writes on all aspects of information.
Barry Devlin
Barry Devlin
Vortrag: Mo 3.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Mo 4.5
AI factory and metadata driven data ingestion at ERGO
AI factory and metadata driven data ingestion at ERGO

In this session, the ERGO Group, one of Europe's leading insurance companies, presents their AI Factory for development and operationalization of AI models. The session gives an architectural overview of the AI Factory's components. Furthermore, it explains how cloud-native technologies like Openshift and AWS Cloud Services aided in moving towards a data driven organization. A deep dive into the AI Factory's data ingestion process shows how metadata-driven data ingestion supports Data Governance in an enterprise context.

Target Audience: AI Leader, Insurance, Decision Maker, Data Engineer
Prerequisites: Background knowledge AI, Big Data Technologies, BIA
Level: Advanced

Extended Abstract:
In times of Advanced Analytics and AI, enterprises are striving towards automated and operationalized analytics pipelines.

In this session, ERGO and saracus consulting present the ERGO Group AI Factory. In particular, the presentation retraces how ERGO in collaboration with saracus consulting evolved from an on-premises analytics environment to an automated AI-Ops environment running on modern technologies within the AWS Cloud.

To this end, strategic aspects of delivering AI as a service as well as important components for delivering automated AI Pipelines in enterprises are highlighted.

Furthermore, the speakers take a deep dive into the technical aspects of the AI Factory's metadata driven data ingestion pipeline, emphasizing how it supports the key functionalities for Data Governance within ERGO's Data Strategy.

Felix joined the ERGO Group in 2004, starting in the finance department. Following, he had been heading a team with (IT) responsibility for data management, reporting and self-service BI in the Property / Casualty segment. In his current position as Head of Data Engineering, he is responsible for ERGO's Advanced Analytics IT platforms as Business Owner and ensures with his team the AI data flow.
Senior Project and Program Manager for ITERGO, the IT service provider of the ERGO Group and responsible program manager for the AI IT program to rollout and implement various AI features within the ERGO Group 
After graduating in Information Systems from Münster University, Lukas joined saracus consulting in 2015 and started consulting in the realm of data engineering. 
In his current position as Head of Data Engineering, Lukas leads a team of Data Engineers involved in multiple projects in Germany and Switzerland.
Felix Wenzel, Christian Kundruß, Lukas Hestermann
Felix Wenzel, Christian Kundruß, Lukas Hestermann
Vortrag: Mo 4.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 18:10
Mo 5.5
Text Mining mit Python und PowerBI
Text Mining mit Python und PowerBI

Die systematische Nutzung von Freitexten bietet ein großes Potenzial für die Gewinnung neuer Erkenntnisse oder die Automatisierung von Prozessen, das Unternehmen verstärkt nutzen wollen. Der Workshop soll Datenanalysten den Einstieg in das Text Mining erleichtern. Anhang konkreter Anwendungsbeispiele werden die nötigen Schritte und aktuelle Analyse- und maschinelle Lernverfahren erläutert. Für Datenvorbereitung und das Mining wird dabei Python genutzt, die Auswertung und Visualisierung der Ergebnisse erfolgt mit PowerBI.

Zielpublikum: Data Engineers, Data Analysts, Project Leaders
Voraussetzungen: Grundlegendes Verständnis von Data Mining/Machine Learning sowie elementare Programmierkenntnisse (nicht notwendigerweise in Python) werden vorausgesetzt. Zum Mitmachen sollten Python (Anaconda + zusätzlich spaCy) sowie PowerBI auf dem Laptop installiert sein.
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Die analytische Erschließung von Texten ist für viele Unternehmen der erste Schritt in die Welt unstrukturierter Daten. Die Anwendungsgebiete sind vielfältig und reichen von der Auswertung von Kunden-Kommunikation für Marketing-Zwecke bis zum automatisierten Routing von Dokumenten oder der Priorisierung von Service-Requests.

Im Workshop wird anhand von Fallballspielen durchgespielt, wie ausgehend von einer Fragestellung ein Modell erstellt, evaluiert und visualisiert werden kann. Dabei wird gezeigt,

- wie Datenvorbereitung mit modernen NLP-Bibliotheken wie spaCy funktioniert

- wie sich schnell und elegant statistische Analysen auf den aufbereiteten Daten in Python und PowerBI umsetzen lassen

- wie aus Texten Feature-Vektoren erzeugt werden

- wie mit maschinellen Lernverfahren Texte klassifiziert und gruppiert werden können

- wie die Stärken und Schwächen der Modelle mit PowerBI transparent gemacht werden können

- wie Anwender selbst mit den Ergebnissen in PowerBI arbeiten können.

Am Ende werden Sie ein solides Grundverständnis davon haben, wie der Analyse-Prozess abläuft, welche Potenziale sich bieten und welche Fallstricke dabei lauern.

Prof. Dr. Roland Zimmermann lehrt als Professor an der TH Nürnberg Datenkompetenz, Business Intelligence und Information Design sowie angewandte Künstliche Intelligenz. Sein aktueller Forschungsschwerpunkt liegt im Bereich Wissensgraphen und Natural-Language-Processing für das Technologie- und Innovationsmanagement. Daneben berät er beim Aufbau wirksamer analytischer Lösungen als Architekt.
Prof. Dr. Jens Albrecht ist an der TH Nürnberg für die Themengebiete Datenbanken und Big Data verantwortlich. Kürzlich hat er zusammen mit zwei Co-Autoren aus der Industrie das Buch 'Blueprints for Text Analytics Using Python' veröffentlicht. Neben seiner Hochschultätigkeit ist als Trainer, Data Scientist und Daten-Architekt engagiert.
Roland Zimmermann, Jens Albrecht
Roland Zimmermann, Jens Albrecht
Track: Workshop
Vortrag: Mo 5.5
flag VORTRAG MERKEN

Vortrag Teilen

17:10 - 17:30
Short Break
Short Break
Short Break

17:30 - 18:10
Mo 1.6
Panel: Data Governance – Bremsklotz oder Beschleuniger der Digitalisierung?
Panel: Data Governance – Bremsklotz oder Beschleuniger der Digitalisierung?

Michael Kolb arbeitet seit 2013 im BICC der HUK-COBURG.
Seine Themenschwerpunkte sind die BI-Architektur und die BI-Modellierung.
Das Thema BI begleitet ihn seit 2008.

Oliver Wittmaier ist Programm Manager im Data Intelligence Center der Deutschen Bahn. Der studierte Wirtschaftsinformatiker ist seit 12 Jahren bei der Bahn tätig und begleitet das DICe seit seiner Gründung im April 2019. Dort leitet er das House auf Data, welches es sich zur Aufgabe gemacht hat, durch die Umsetzung der DB Datenstrategie, Daten konzernweit, rechtssicher und schnellverfügbar, verständlich und damit nutzbar zu machen. Das dafür notwendige Fundament ist der „DB Data Catalog“.
Dr. Alexander Borek is a data executive, author and keynote speaker. As Head of Data at Zalando, he runs the central Data and CRM organization focusing on analytics, data platform, data management, process mining, machine learning automation and Salesforce. Before, he led the global data transformation at VW Group and VWFS and advised Fortune 500 companies as strategic consultant at Gartner and IBM. His latest book "Driving Digital Transformation through Data and AI" provides guidance on how to manage data products effectively to enable digital services and offerings.
Dr. Carsten Dittmar ist Partner und Area Director West bei der Alexander Thamm GmbH. Er beschäftigt sich seit über 20 Jahren intensiv mit den Themenfeldern Business Analytics, Data Science und Artificial Intelligence mit dem Fokus auf strategische und organisatorische Beratung von datengetriebenen Vorhaben. Carsten Dittmar ist europäischer TDWI Fellow und Autor diverser Fachpublikationen und Referent bei zahlreichen Fachveranstaltungen.
Dr. Christian Fürber ist Autor, Dozent und Experte für Themen des Datenmanagements und der Digitalisierung. Mit seinem Unternehmen, dem Information Quality Institute, unterstützt er Organisationen und Unternehmen aller Branchen dabei, spürbaren Mehrwert aus Ihren Daten zu generieren. Während seiner Zeit bei der Bundeswehr etablierte er eine der ersten Data Governance Strukturen in Deutschland. Für die Universität der Bundeswehr München forschte er im Bereich E-Business & Web Science an der Zukunft des Datenqualitätsmanagements. Christian hat seit 2005 mehr als 20 große Daten- und Digitalisierungsprojekte erfolgreich geleitet – unter anderem bei der Deutschen Bahn, der 1&1 Versatel und Linde.
Michael Kolb, Oliver Wittmaier, Alexander Borek, Carsten Dittmar, Christian Fürber
Michael Kolb, Oliver Wittmaier, Alexander Borek, Carsten Dittmar, Christian Fürber
Vortrag: Mo 1.6
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:10
Mo 2.6
Panel: Data Literacy und der Traum eines datengetriebenen Unternehmens: Wunschdenken oder realistischer Enabler?
Panel: Data Literacy und der Traum eines datengetriebenen Unternehmens: Wunschdenken oder realistischer Enabler?

Der Begriff „Data Literacy“ steht für ein sehr breitgefächertes Konzept von Datenkompetenzen von Personen. Diese Kompetenzen gewinnen im Geschäftsalltag an Bedeutung. Hintergrund für diese Entwicklung ist, dass Organisationen sich zunehmend das Ziel setzen, „datengetrieben“ zu werden, d.h.. bessere Entscheidungen auf der Basis von Daten zu treffen und den Mehrwert von Daten damit stärker zu nutzen. Die Herausforderung  für eine solche Unternehmensentwicklung ist dabei nicht nur technisch, sondern hat sehr viel mit der Unternehmenskultur und den notwendigen Kompetenzen der Mitarbeiter zu tun. Ist es denkbar, alle Mitarbeiter auf diesem Weg einzubeziehen– und ist dies überhaupt wünschenswert? Oder ist das ein eher theoretisches Thema, welches sich in der Breite nicht durchsetzen wird?

Die vom Stifterverband initiierte und von zahlreichen Fachgesellschaften unterstützte „Data Literacy Charta“ formuliert ein gemeinsames Verständnis von Datenkompetenzen und deren Bedeutung für Bildungsprozesse. Sie richtet explizit an die Gesamtgesellschaft und hat das Ziel, durch die Schaffung von Datenkompetenz eine Beteiligung der Bevölkerung an den Chancen einer datengetriebenen Welt zu ermöglichen.

In diesem Panel soll erörtert werden, ob dieser Ansatz auch für Unternehmen realistisch und sinnvoll ist und was es benötigt, um Data Literacy in einer Organisation umzusetzen und zu leben. Lässt sich der akademische Ansatz auf alle Organisationen übertragen? Ist die Umsetzung in der Breite wünschenswert und realistisch? Oder ist es bloß ein weiteres „Mode-Thema“ unter vielen? Was wären konkrete und umsetzbare erste Schritte?

Artur König ist Informatiker mit aktuellem Tätigkeitsschwerpunkt in den Bereichen BI-Beratung, Daten-Architektur und Datenanalyse. Er ist seit 2016 bei der Scopevisio AG tätig, einem mittelständischen Hersteller von Cloud Unternehmenssoftware mit Sitz in Bonn. 
Zurzeit verantwortet er das Customizing und die Umsetzung individueller Lösungen in Kundenprojekten, wobei ein wesentlicher Schwerpunkt Erweiterungen im Bereich des Reporting sind. Die Aufgaben umfassen die Entwicklung von Reporting-Standards und Konzeption sowie Umsetzung von kundenindividuellen Datenstrukturen und  Auswertungen.
Zuvor war er acht Jahre bei der DATEV eG im Consulting mit dem Fokus auf IT-Compliance und IT-Sicherheit tätig. Er besitzt mehrere Zertifizierungen im Bereich der IT-Sicherheit und des Datenschutzes und hat umfassende Erfahrung als Referent für Sicherheits- und Compliance-Themen sowie bei der Umsetzung rechtlicher Anforderungen in der betrieblichen Praxis.
Neben den beruflichen Tätigkeiten ist er als Dozent bei der FOM, als Organisator der Berliner Power BI Usergroup sowie in mehreren Themenzirkeln des TDWI aktiv.
Ulrich Thomsen arbeitet seit 2005 als wissenschaftlicher Mitarbeiter und IT-Experte am Institut für Arbeitsmarkt- und Berufsforschung im Geschäftsbereich Daten- und IT-Management, wo er das Team „Daten-Produktion“ leitet. Dabei sind Datenqualitätsmanagement und Data Governance weitere Schwerpunkte seiner Arbeit. 
Seit 2017 leitet er die Arbeitsgruppe Datenqualität des Instituts und ist Ansprechperson für das IAB-Kompetenzfeld „Forschungsdaten und Methoden“. Ulrich Thomsen studierte Soziologie, Politikwissenschaft und Geschichte an der Friedrich-Alexander-Universität Erlangen-Nürnberg sowie an der Duke University, Durham, NC und der University of North Carolina, Chappel Hill. Er promovierte in Soziologie an der Friedrich-Alexander-Universität Erlangen-Nürnberg. 
Jens Horstmann hat Wirtschaftsmathematik und internationale Betriebswirtschaft studiert. 2009 gründete gemeinsam mit Jürgen Engler 2009 die Trevisto AG. Zuvor war er unter anderem bei Oracle Deutschland tätig. Jens Horstmann begeistert sich schon seit dem Studium für die Möglichkeiten, die die Analyse von Daten für den Organisationen bieten. Bei der Trevisto AG stehen deshalb die Themen BI, Datawarehousing, künstliche Intelligenz und die dazugehörigen Business Modelle im Mittelpunkt. 
Peter Kothe ist seit 1994 bei der AZ Direct, beginnend als Projektmanager insbesondere für GIS/Geo-bezogene 
Kunden-/Marktanalysen, heute als Head of Sales Data & Analytics zuständig für Vertrieb, neue Entwicklungen und Spezialprojekte im Bereich BtC- und BtB-Analyse-Services sowie (Geo-)Daten zur Optimierung und Steuerung von Multi-Channel-orientierten Kundenbindungs- und Neukundengewinnungsstrategien.
Erik Purwins ist geschäftsführender Gesellschafter bei der ACP Digital Analytics GmbH. Seit über 20 Jahren beschäftigt ihn der wertschöpfende Umgang mit Daten. Insbesondere die Themen Business Intelligence, Analytics und Künstliche Intelligenz liegen in seinem Fokus. Ausgehend von fachlichen Anforderungen berate und coache ich Unternehmen vor allem aus den Branchen Finanzdienstleistungen, Gesundheitswesen, Handel und Produktion zu allen Fragestellungen rund um die Themen Datenversorgung, Datenverwendung und dem zugrunde liegendem Datenmanagement.
Artur König, Ulrich Thomsen, Jens Horstmann, Peter Kothe, Erik Purwins
Artur König, Ulrich Thomsen, Jens Horstmann, Peter Kothe, Erik Purwins
Vortrag: Mo 2.6
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:10
Mo 3.6
Der Mörder ist immer der Gartner
Der Mörder ist immer der Gartner

Ein sehr ernster humorvoller Blick auf die Modewellen der IT, ihre Auswirkung auf die Informationsprodukte im Unternehmen und ein methodischer Umgang mit dem Hype Cycle.

Der Mörder ist immer der Gartner, weil er bestimmt, wann ein Hype zu Ende ist und damit die Methode tötet. Typische Aussage fachfremder Menschen mit und ohne Budgetverantwortung: 'Warum machen wir das noch? Gartner sagt, dass ist nicht mehr aktuell.' Ungeachtet der Tatsache, dass die dahinterliegende Methode aus den 70ern stammt...

Zielpublikum: Data Engineer, Data Scientist, Project Manager, Decision Maker, Data Architect

Voraussetzungen: Basic Knowledge in Company IT, Data Management

Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

Der Fokus liegt aktuell auf Tools statt auf Methoden. Tools stellen sicher, dass nur auf eine bestimmte Art und Weise gearbeitet wird. Zumindest ist das die Hoffnung. Informationsprodukte bestehen aus 3 Komponenten: Informationen, Prozesse und Menschen. Es wird Zeit, den Blick nicht nur auf Daten und Werkzeuge zu richten, sondern die Methoden dahinter zusätzlich in den Fokus zu nehmen und damit die beteiligten Menschen, in die Lage zu versetzen, das richtige zu tun. Dann kann aus Fehlern gelernt werden und die richtige Adaption für die eigene aktuelle Situation gefunden und gehalten werden.

Michael Müller beschäftigt sich seit 2001 mit Business Intelligence und Data Warehousing. Er engagiert sich als Vorstand der deutschsprachigen Data Vault User Group (DDVUG) für die Verbreitung von Data Vault. Sein Tätigkeitsbereich liegt vor allem an der Schnittstelle zum Fachbereich, bei der Architektur und Datenmodellierung sowie bei der Automatisierung und Beschleunigung der Entwicklung im Data Warehouse.
Er ist spezialisiert auf Daten-/Informationsmodellierung, Metadaten und modellgetriebene Automation sowie zeitliche Aspekte bei Informationssystemen. Er hat unter anderem Zertifizierungen als Data Vault 2.0 Practitioner und Anchor Modeler Version 2014. Er hält Vorträge und gibt Schulungen sowie Workshops zum Thema Data Vault und Data Warehouse Automation. Beide Themen werden die Data Warehouse Landschaft unter dem Oberbegriff 'Next Generation Data Warehousing' in Deutschland in den nächsten Jahren nachhaltig prägen. Ein Data Warehouse ist eine Reise und kein Ziel und nichts ist konstanter als der Wechsel bei diesem Unterfangen. Diese Reise erfolgreich zu gestalten, wird von immer größerer Wichtigkeit für viele Unternehmen werden. Als Data Warehouse Consultant und Trainer begleitet Oliver Cramer Unternehmen auf diesem Weg.
Michael Müller, Oliver Cramer
Michael Müller, Oliver Cramer
Vortrag: Mo 3.6
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:10
Mo 4.6
Data Literacy – Mit Daten über Daten sprechen
Data Literacy – Mit Daten über Daten sprechen

Wenn Daten das neue Öl sind, wie kommt das Benzin ins Blut? Agilität gelingt nur, wenn Daten bekannt, verstanden, verknüpft und verwendet werden. Die Finanzindustrie muss Spezialistenwissen der Domänen und Fachbereiche vergemeinschaften und den Partnern der Wertschöpfungskette benutzergerecht anbieten. Dies setzt eine gemeinsame Sprache voraus. Data Literacy ist mehr als Statistik und Datenpräsentation. Erst ein gemeinsames Grundvokabular und eine Grundgrammatik sowie ein Fokus auf Datendemokratisierung schaffen Mehrwert.

Zielpublikum: Data Governance, Human Resources, Führungskräfte, Business Analysten, Projektmanager mit Datenfokus
Voraussetzungen: Keine. Kenntnis der Grundproblematik von Datenkatalogen und Datenfriedhöfen hilfreich.
Schwierigkeitsgrad: Anfänger

Patrick Pähler ist ausgebildeter Bankkaufmann und Diplomierter Medienwirt. Er verfügt über langjährige Berufserfahrung in der Finanzdienstleistung sowie in der Beratung und hat zahlreiche Innovationen in unterschiedlichen Branchen realisiert. Zu den Unternehmen, für die er tätig war, zählen unter anderem Accenture, die Commerzbank AG, Cognizant und heute TCI Consult. 
Die aktuellen Schwerpunkte seiner Beratungstätigkeit liegen in den Bereichen Innovation und Transformation, Banksteuerung, und praktische Data Governance.
Jean-Claude Brunner studierte Betriebswirtschaft und internationales Management an der Wirtschaftsuniversität Wien. Er hat langjährige Erfahrung in der Finanzindustrie sowohl in Banken als auch in der Beratung mit den Schwerpunkten Controlling, Organisation und Business Intelligence.
Patrick Pähler, Jean-Claude Brunner
Patrick Pähler, Jean-Claude Brunner
Vortrag: Mo 4.6
flag VORTRAG MERKEN

Vortrag Teilen

18:15 - 19:15
Welcome Reception
Welcome Reception
Welcome Reception

Digital Welcome Reception

09:00 - 09:45
KeyDi1
KEYNOTE: Die Entwicklung einer wertebasierten und chancenorientierten Datenpolitik
KEYNOTE: Die Entwicklung einer wertebasierten und chancenorientierten Datenpolitik

Mit der „Berliner Erklärung“ haben sich die EU Staaten zu einer wertebasierten digitalen Verwaltung verpflichtet. Die Bundesregierung nimmt sich mit ihrer Datenstrategie dieser Aufgabe an und will den Staat zum Vorreiter für Digitale Souveränität und Open Data machen. Das 2. Open Data Gesetz und das Dashboard Deutschland haben dazu bereits den Weg geebnet und weiten das Daten- und Informationsangebot des Bundes aus. In weiteren Schritten soll die Nutzung der Daten über Datencockpits und Visualisierungstools vereinfacht und verbessert werden. Damit werden auch in verschiedener Hinsicht positive Auswirkungen auf Unternehmen einhergehen.

seit 09/2020: Abteilungsleiterin DG (Digitale Gesellschaft; Informationstechnik)
IT-Beauftragte des Bundesministeriums des Innern, für Bau und Heimat
seit 2000:Verschiedene Positionen im Bundesministerium des Innern, für Bau und Heimat
rund um IT und Informationsgesellschaft, Personal, Verwaltungsmodernisierung und -organisation; zuletzt Leiterin der Unterabteilung Z I (Zentrale Dienste I)
1993 – 2000: Bundesamt für Sicherheit in der Informationstechnik
1988 – 1992: Organisatorin und Beraterin in einer Unternehmensberatung
Pia Karger
Pia Karger
Track: Keynote
Vortrag: KeyDi1
flag VORTRAG MERKEN

Vortrag Teilen

09:45 - 10:00
Short Break
Short Break
Short Break

10:00 - 10:40
Di 1.1
TDWI StackTalk live: Von der Einzel- zur Serienfertigung in der Datenanalyse bei Daimler Trucks
TDWI StackTalk live: Von der Einzel- zur Serienfertigung in der Datenanalyse bei Daimler Trucks

Der TDWI StackTalk ist ein Format, bei dem wir anhand von echten Analytics-Lösungen aus der Praxis folgende Fragen beantworten möchten:

  • Was sind aktuelle Herausforderungen im Bereich Data & Analytics?
  • Wie sehen technische Lösungen aus?
  • Welche Komponenten und Produkte kommen zum Einsatz?
  • Was sind Best Practices?
  • Wo liegen Fallstricke und was ist bei einer Umsetzung zu beachten?
  • Wie sieht die Zukunft von Analytics aus?

Im Rahmen der TDWI München digital wird der Weg von der Einzel- zur Serienfertigung in der Datenanalyse bei Daimler Trucks betrachtet und gemeinsam mit Marco Sturm (Data Engineer und Data Scientist bei Daimler Trucks) besprochen.


Zielpublikum: Data Architects, Entscheider
Voraussetzungen: Keine
Level: Basic

Julian Ereth beschäftigt sich mit seiner Tätigkeit als Solution Architect bei dem Software-Unternehmen pragmatic_apps in Stuttgart mit innovativen Analytics-Anwendungsfälle und zukünftige Datenarchitekturen. Zudem ist er seit Jahren aktives Mitglied des TDWI-Vereins und Initiator des TDWI StackTalks.
Marco Sturm arbeitet bei der Daimler Truck AG daran durch mit Hilfe von Daten die LKWs von morgen besser zu machen. In seiner Rolle als Data Engineer und Data Scientist kombiniert er eine Vielzahl von Datenquellen um sowohl mit einmaligen Analysen als auch mit wiederverwendbaren Tools die Fragen der LKW-Entwickler zu beantworten. Ein besonderer Fokus liegt hierbei auf einer Vereinfachung der Analysen durch Automatisierung und einer Professionalisierung der Softwareentwicklung.
Julian Ereth, Marco Sturm
Julian Ereth, Marco Sturm
Vortrag: Di 1.1
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:40
Di 2.1
Etablierung einer Performance-Kultur mit Advanced Analytics
Etablierung einer Performance-Kultur mit Advanced Analytics

Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu. Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.

Zielpublikum: Analytics Manager, Data Scientist, BI & Big Data Experten, Automotive Interessierte, Verantwortliche für Digitalisierung, etc.
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu.
Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.
Eingebettet in das konsequent implementierte Performance Management System stellt BMW Deutschland mit C1 Advanced Analytics in der Breite und Tiefe über alle Vertriebsstufen passgenaue Lösungen bereit, um den Entscheidern bis hin zum Point of Sales einerseits maximale Transparenz über die aktuelle und künftig zu erwartende Geschäftsentwicklung zu geben. Andererseits werden auf Basis von Daten systematisch Entscheidungen getroffen und Maßnahmen zur Performance-Steigerung implementiert und stringent nachverfolgt. Die Beherrschbarkeit und Kosteneffizienz im Betrieb werden über automatisierte Abläufe wie z.B. die Konsolidierung und Harmonisierung von Händler-Reports professionalisiert. Dies führt hat über neue Berufsbilder in Kombination mit einer zielgerichteten Befähigung der Mitarbeiter in der Organisation gesamthaft zu einem 'New Way of Working' sowie zu gesteigerten Nutzung von Marktpotenzialen geführt. Gleichermaßen konnten über die Konsolidierung von Data Assets sowie eine strikte Data Governance erhebliche Effizienzsteigerungen realisiert werden. Letzteres hat sich insbesondere auch in der Corona-Krise bewährt.

Die technische Lösung basiert auf einer Cloud Data Plattform, in der alle relevanten Daten (strukturiert und unstrukturiert) so zusammengeführt werden, dass mit Hilfe von modernen Frontendlösungen alle relevanten Informationen zeitgerecht bereitgestellt. Teilweise werden bereits KI-Funktionalitäten genutzt, um beispielsweise die Allokation von Vertriebsförderungsmaßnahmen zu optimieren. Dafür werden sehr große Datenmengen mit komplexen Machine-Learning-Methoden verarbeitet, die Ergebnisse jedoch für die Anwender in benutzerfreundlicher Form im Frontend aufbereitet.

Seit 2018 wurde die Transformation zu einer datenbasierten Vertriebs- und Ergebnissteuerung im Markt systematisch vorangetrieben und seitdem mit über 80 umgesetzten Use Cases stetig ausgebaut. Die Geschäftsbereiche Finanzen/ Strategie (Weiterentwicklung zur Rolle als 'Performance Manager'), Vertrieb, Customer Support sowie und Marketing werden datenbasiert über das Performance Management System eng miteinander verzahnt und in die Lage versetzt, noch zielgerichteter zu steuern, um identifizierte Marktopportunitäten für die Vertriebsregion BMW Deutschland konsequent zu heben.

Im Vortrag werden der erfolgreiche Weg hin zu einem datenbasierten Arbeiten skizziert sowie die technische Architektur und beispielhaft ein Advanced Analytics Use Case aufgezeigt.

Herr Sven Straub ist seit dem Jahr 2018 in der BMW AG Leiter Finanzen im Markt Deutschland. Besondere Schwerpunkte seiner Arbeit liegen u.a. im Bereich Business Transformation sowie Performance Management. Aktuell überblickt er im Markt Deutschland u.a. die Fachthemen Strategie, Strategiekommunikation, Controlling, Händlerbetriebswirtschaft sowie gesamtheitlich Data Analytics. In früheren Funktionen seiner langjährigen Zugehörigkeit zur BMW Group hat er u.a. weltweit das Vertriebscontrolling, die Volumen- und Ergebnissteuerung der BMW AG Niederlassungen und als CFO der BMW Group Japan fungiert und sich darüber einen breiten sowie tiefen Erfahrungsschatz angeeignet.
Christian Feilmeier verantwortet als Geschäftsführer den Bereich Data Analytics bei rpc – The Retail Performance Company, einem Joint Venture der BMW Group und h&z Unternehmensberatung. Nach Abschluss seines BWL-Studiums und der Teilnahme am Nachwuchsprogramm der BMW Group war Herr Feilmeier in verschiedenen Funktionen im Finanzbereich der BMW Group tätig, unter anderem als Leiter der Investor Relations. Als CFO der BMW Group Canada wechselte er 2007 in die Vertriebslinie, bevor er sich ab 2011 als Leiter der Retail Performance Consulting der BMW Group auf den Handel konzentrierte. Die Management-Erfahrung im Konzernumfeld konnte er für den gezielten Aufbau von Services bei rpc nutzen, um zahlreiche namhafte Kunden bei der bei der Digitalisierung von Kernprozessen im Marketing, Sales und Service zu begleiten. 
Sven Straub, Christian Feilmeier
Sven Straub, Christian Feilmeier
Vortrag: Di 2.1
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:40
Di 3.1
Das Dilemma heterogener KPIs am Beispiel Sustainable Development Goals der UN
Das Dilemma heterogener KPIs am Beispiel Sustainable Development Goals der UN

Mit der Agenda 2030 hat sich die Weltgemeinschaft die Sustainable Development Goals für eine nachhaltige sozial, wirtschaftlich und ökologisch Entwicklung gesetzt. Die Ziele dienen den Kommunen als Stoßrichtung für langfristige Politikplanung und dem kommunalen Monitoring.
Das Dilemma an den SDGs ist, dass sie mehrdimensional, universell gültig und heterogen in den Steuerungsgrößen sind.

Die Zusammenführung der Datengrundlage und Herstellung einer Vergleichbarkeit von Kennzahlen in einem gemeinsamen Zielsystem ist eine zentrale Herausforderung.

Zielpublikum: Entscheider, Leiter Controlling, Leiter Data & Analytics
Voraussetzungen: Grundkenntnisse Data & Analytics
Schwierigkeitsgrad: Anfänger

Christoph Schulz-Sacharow ist Manager im Public Sector mit dem Schwerpunkt Data & Analytics. In diesem Zusammenhang liegt sein Fokus im Bereich der Optimierung bzw. Digitalisierung von Entscheidungsprozessen mit SAP.
Torsten Raithel ist Senior Consultant im Public Sector mit dem Schwerpunkt BI & Analytics. In diesem Zusammenhang liegt sein Fokus auf der Entwicklung datengetriebener Entscheidungsprozesse der Produktion von Mehrwert durch Information auf Basis einer zielgerichteten Visualisierung von Daten.
Christoph Schulz-Sacharow, Torsten Raithel
Christoph Schulz-Sacharow, Torsten Raithel
Vortrag: Di 3.1
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:40
Di 4.1
End-to-End-Use Case: Metadata Management & DWH
End-to-End-Use Case: Metadata Management & DWH

Like many companies, the 3 banks face the challenge of implementing data governance. With an end-to-end approach for metadata – from the business definition to the DWH implementation – a basis was created for this. The use cases 'IT requirements', 'data quality' and 'data definitions' were the focus of the resource-saving project. The target groups for the metadata are primarily the LoB, especially risk management, but also IT.

Target Audience: Data Governance Manager, Risk Manager, Data Quality Manager, Data Warehouse Architects, Data Modeler
Prerequisites: Basic knowledge
Level: Basic

Clemens Bousquet is risk manager at Oberbank, which is part of the Austrian 3-Bank Group. Both in a risk management leadership role and in numerous projects, he has built up a high level of expertise in functional data modeling, the roll-out of data governance but also the implementation of BCBS 239 and IFRS 9. Previously, he graduated in Economics and International Business Studies.
Lisa Müller is Managing Consultant at dataspot. Her consulting focus is on business data modeling, data quality management and metadata management. Due to years of project experience – among others in banking – she was able to build up data governance relevant domain knowledge. In addition to two completed bachelor's degrees, she holds a master's degree in business administration.
Clemens Bousquet, Lisa Müller
Clemens Bousquet, Lisa Müller
Vortrag: Di 4.1
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:40
Di 5.1
Kooperative Datenräume - Potentiale für Business Intelligence & Analytics
Kooperative Datenräume - Potentiale für Business Intelligence & Analytics

Die Digitale Transformation befeuert im industriellen Bereich projektbezogene Kooperationen mit verschiedenen Partnern in offenen Netzwerken – mit erheblichen Auswirkungen auf leistungsfähige BIA-Infrastrukturen. Der einführende Vortrag ist diesem Gebiet gewidmet und thematisiert Einsatzfelder, Architekturen, Governancestrukturen und Betreibermodelle für BIA-Konzepte auf der Basis gemeinsam genutzter Datenräume. 

Prof. Dr. Hans-Georg Kemper ist Inhaber des Lehrstuhles für Wirtschaftsinformatik 1 an der Universität Stuttgart. Seine Lehr- und Forschungsschwerpunkte liegen im Bereich der Entwicklung und Implementierung von Informations- und Kommunikationssystemen für Führungskräfte. Im Sinne einer konsequenten gestaltungsorientierten Wirtschaftsinformatik ist von ihm in den letzten Jahren eine Vielzahl praxisrelevanter wissenschaftlicher Arbeiten zu technischen sowie organisatorischen Gestaltungsbereichen der integrierten Managementunterstützung – Business Intelligence – durchgeführt worden.
Prof. Dr. Heiner Lasi leitet seit April 2015 das Ferdinand-Steinbeis-Institut mit Sitz in Stuttgart und Heilbronn und ist Inhaber der Professur für Industrial Intelligence an der Steinbeis Hochschule. Lasi forscht und lehrt im Bereich neuer Konzepte und Methoden zur erfolgreichen Gestaltung der Digitalen Transformation in Wirtschaft und Gesellschaft. Im Rahmen seiner internationalen Aktivitäten ist er u.a. Mitglied im AIoT Editorial Board und ein gefragter Experte für die Gestaltung neuer Wertschöpfungsmodelle, u.a. in der Enquete Kommission KI des Deutschen Bundestags und der Arbeitsgruppe Digitale Agenda des Bundeskanzleramts.
Hans-Georg Kemper, Heiner Lasi
Hans-Georg Kemper, Heiner Lasi
Vortrag: Di 5.1
flag VORTRAG MERKEN

Vortrag Teilen

10:00 - 10:40
Di 6.1
Grundlagen der Datenanalyse
Grundlagen der Datenanalyse

Diese Session ordnet die Themenfelder und stellt den organisatorischen Rahmen dar, in den die Nutzung von Analytics in Unternehmen eingebettet sein sollte. Dazu werden zunächst statistische Grundlagen aufgefrischt. Darauf aufbauend werden Algorithmen und deren potenzielle Eignung für Anwendungen vorgestellt und diese anhand kleiner Beispiele durchgerechnet.

Maximale Teilnehmerzahl: 20

Bitte halten Sie einen Taschenrechner (die Taschenrechner-App Ihres Smartphones ist ausreichend) für diese Session bereit.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
Vortrag: Di 6.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:10
Break
Break
Break

11:10 - 12:20
Di 1.2
Machine-Learning-basierte Systeme: Einstieg für Architekten
Machine-Learning-basierte Systeme: Einstieg für Architekten

Machine Learning ist auf dem Vormarsch und hochgradig von Daten abhängig. Das Thema ist omnipräsent und wird aber meist entweder sehr abstrakt oder aber sehr algorithmisch, daten-zentriert, auch code-nah beleuchtet. Der Blick auf die Gesamtarchitektur von Systemen, die ML enthalten, fehlt dabei oft. Unser Vortrag unterstützt Softwarearchitekten und Data Scientists dabei, den Überblick zu behalten, die wesentlichen Fragen zu stellen, besser zusammenzuarbeiten und somit bessere Architekturen für Systeme basierend auf Machine Learning zu designen.


Zielpublikum: Software Architect, Project Leader, Data Scientist
Voraussetzungen: Grundlegendes Verständnis zu Softwarearchitektur
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

  • KI ist ein absolut populäres Thema. Durch die einfache Verfügbarkeit von on-demand Rechenkapazität in der Cloud und die große Verfügbarkeit von Daten kann mittlerweile KI/Machine Learning einfach eingesetzt werden. Das wird zunehmend für unterschiedliche Domänen und Anwendungsfälle relevant
  • Aktuelle Betrachtungen fokussieren häufig auf detaillierte technische Aspekte mit dem Fokus wie bestimmte Algorithmen für unterschiedliche Anwendungsfälle verwendet werden können
  • Technische Publikationen sind oft sehr algorithmisch und codenah und für Architekten nicht ausreichend
  • Als Architekten müssen wir uns daher künftig zunehmend damit auseinandersetzen, wie wir KI als Werkzeug und Funktionalität in 'normalen' Systemen einsetzen
  • Dadurch ergeben sich neue Herausforderungen und Fragestellungen. Insbesondere der Betrachtung von Daten und der strukturierten Unterscheidung von
  • Wie integriert sich die KI als Baustein im Gesamtsystem?
  • Was wird wann woraus gelernt und welche Daten werden dazu einbezogen
  • Zu welchen Zeitpunkten wird ein Modell gelernt und wann wird nachgelernt?
  • Wie werden Modelle verteilt und deployed?

 

 

Dominik Rost ist seit 2009 Softwarearchitekt am Fraunhofer IESE und leitet dort seit 2020 die Abteilung »Architecture-Centric Engineering (ACE)«. Er berät Kunden aller Branchen dabei, die Architektur ihrer Produkte zu entwickeln, zu evaluieren und zu dokumentieren, und die Skills im Bereich Softwarearchitektur zu verbessern. Über seine Erfahrungen spricht er regelmäßig bei Konferenzen. Darüber hinaus leitet er das Seminar »Softwarearchitektur« der Fraunhofer Academy.
Matthias Naab ist Softwarearchitekt am Fraunhofer IESE und leitet seit 2020 die Hauptabteilung Information Systems. Seit 2010 verantwortet er die Weiterentwicklung von Architekturmethoden und die Beratung von Kunden aus der Wirtschaft. Er hat in zahlreichen Projekten in unterschiedlichsten Branchen Architekturen bewertet, Systeme verbessert und innovative Systeme mitgestaltet. Matthias Naab hält regelmäßig Vorträge zu Softwarearchitektur und Digitalen Ökosystemen.
Dominik Rost, Matthias Naab
Dominik Rost, Matthias Naab
Vortrag: Di 1.2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 2.2
Self-Service Analytics in der Praxis: Mit Scheitern zum Erfolg!
Self-Service Analytics in der Praxis: Mit Scheitern zum Erfolg!

Self-Service Analytics: Fluch oder Segen? 

Erfahren Sie, wie Sie die praktischen Herausforderungen bei der Einführung von Self-Service Analytics überwinden. 

Begleiten Sie STADA Arzneimittel AG auf ihrem Weg zur Data-driven Company und welche Rolle Self-Service Analytics dabei einnahm. 

Die Lektionen die wir dabei lernten werden Ihnen helfen die Hürden und Fallstricke zu meistern, um so die Datenanalyse-Kultur in Ihrem Unternehmen in einen Segen zu verwandeln.

Maurice Engelhardt arbeitet seit 3 Jahren für STADA als Head of Data Science & Analytics, eine seiner Kerntätigkeiten liegt darin mithilfe von Analytics Mehrwerte zu heben und das Verständnis für Advanced Analytics auf allen Ebenen zu verbessern.Ursprünglich studierte er Physik an der Universität Frankfurt. Im Nachgang war er teil mehrerer Startups bevor er Consultant bei Ernst & Young im Bereich Unternehmensbewertung und Business Modelling wurde.
Maurice Engelhardt
Maurice Engelhardt
Vortrag: Di 2.2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 3.2
Schwimmen mit dem Strom – Real-Time ETL ohne Batchprozesse
Schwimmen mit dem Strom – Real-Time ETL ohne Batchprozesse

ETL ist Batch: Effizienz, Datenkonsistenz, Nachvollziehbarkeit, Einfachheit, etablierte Methoden und ausgereifte Werkzeuge machen den Bau eines DWH zu einem Standard-Job.
Dabei ist Streamprocessing technisch kein Problem. Nur: Wie baut man komplexe fachliche Transformationen 'im Stream'? Wie sichert man Datenkonsistenz? Wohin mit der Datenhistorie? Wie geht das ressourceneffizient?

Der Vortrag zeigt an einem konkreten Projekt Verfahren, Werkzeuge, Vor- und Nachteile und die konkrete Umsetzung eines rein Event-getriebenen Data Warehouses.

Zielpublikum: Data Engineers, BI Project Manager
Voraussetzungen: Gutes DWH und ETL Knowhow
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

ETL ist heute (noch?) immer eine reine Batch-Veranstaltung – und das aus gutem Grund: Effizienz und geringer Overhead, hohe Datenkonsistenz, Nachvollziehbarkeit, niedrigere Komplexität, etablierte Methoden und ein Fundus ausgereifter Werkzeuge machen den Auf- und Weiterbau eines Data Warehouses oder eines Data Lakes (fast schon) zu einem Standard-Job. Selbst die meisten 'Near-Real-Time' Prozesse (stündlich, viertelstündlich oder 5-minütlich) werden heute durch – kürzere, kleinere und häufiger ausgeführte – Batch-Jobs erledigt, nicht selten exotische 'Außenseiter' in der Riege der täglichen DWH Workflows.
Dabei ist doch zumindest eine zeitnahe Datenextraktion im Stream technisch kein großes Problem: Ob 'Log-based CDC', Json-Streaming via http oder das Abgreifen von Events aus Kafka ist weit verbreitet. Und auch das permanente Runterschreiben dieser Datenströme in Datenbanken ist kein Hexenwerk.
Wie aber implementiert man darauf komplexe, technische und fachliche Transformationen 'im Stream'? Wie sichert man Datenkonsistenz, wenn die Ankunft der Daten nahezu unvorhersagbar ist? Wie speichert man diese Datenströme – mit Datenhistorie für spätere Auswertungen – und wie kann man solche Prozesse noch ressourceneffizient umsetzen?
In diesem Vortrag zeigen wir anhand konkreter Projekte, welche Verfahren und Werkzeuge sich eignen, wo deren Vor- und Nachteile gegenüber klassischen Batch-Prozessen liegen und wie eine konkrete Umsetzung eines rein Event-getriebenen Data Warehouses aussehen kann.

Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.
Peter Welker
Peter Welker
Vortrag: Di 3.2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 4.2
Drei Jahre Competence Center für Künstliche Intelligenz
Drei Jahre Competence Center für Künstliche Intelligenz

Das Competence Center für Künstliche Intelligenz für die Sparkassen-Finanzgruppe ('KIXpertS') wurde Anfang 2019 gegründet und befindet sich im dritten und letzten Jahr seines Bestehens. Andreas Totok wird über die Erfahrungen berichten, die in Aufbau und Betrieb des als Programm organisierten Competence Centers gemacht wurden. Weiterhin wird er ausgewählte Use Cases vorstellen, die anhand ihres Potentials für die fachliche Evaluierung und folgende technische Implementierung ausgewählt wurden.

Zielpublikum: Fachanwender, IT-Architekten mit
Voraussetzungen: Grundlegendes Verständnis der Methoden Künstlicher Intelligenz wie beispielsweise das maschinelle Lernen.
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Das Competence Center für Künstliche Intelligenz der FI-Gruppe unterstützt die Sparkassen-Finanzgruppe dabei, die Chancen der Künstliche Intelligenz frühzeitig zu nutzen. Die Initiative wurde 2019 von der Finanz Informatik ins Leben gerufen und bietet eine Plattform für den Wissensaustausch zum Thema. Übergreifende Ziele sind, es mit Hilfe von KI für den Kunden einfach zu machen sowie ungeliebte Prozesse innerhalb der S-Finanzgruppe besser zu unterstützen bzw. überflüssig zu machen.

Das KIXpertS-Team besteht aus einem übergreifenden Team von Experten für Künstliche Intelligenz und Softwareentwicklung mit bankfachlichem Knowhow sowie Kenntnissen und Erfahrungen der Integration in bankfachliche Prozesse.

Dr. Andreas Totok ist Geschäftsbereichsleiter Enterprise Information Management bei der Finanz Informatik Solutions Plus GmbH. In dieser Funktion berät er Bankinstitute und Versicherungen der Sparkassen-Finanzgruppe zu strategischen IT-Themen und verantwortet Projekte für die Anwendung Künstlicher Intelligenz und dem Management von Daten. Seine Schwerpunkte liegen in der Fachkonzeption sowie der Architektur- und Organisationsberatung.
Andreas Totok
Andreas Totok
Vortrag: Di 4.2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 5.2
Datengenossenschaften – ein Rahmen für unternehmensübergreifende Analytics- und KI-Anwendungen im Mittelstand
Datengenossenschaften – ein Rahmen für unternehmensübergreifende Analytics- und KI-Anwendungen im Mittelstand

Eine Genossenschaft ist eine bewährte und beliebte Rechtsform für Kooperationen im Mittelstand. Genossenschaften haben in Deutschland eine lange Tradition für die gemeinsame Beschaffung von Gütern, für die Produktion, den Vertrieb und auch die gemeinsame Erbringung von Dienstleistungen. Der Vortrag lotet aus, inwiefern eine Genossenschaft auch einen Rahmen für das Teilen und Analysieren von Daten in Unternehmensnetzwerken bieten kann: Eine Genossenschaft verankert den Anspruch auf Kooperation, kann als eigene Rechtsform die gemeinsame Vorhaltung von Daten- und Analyse-Ressourcen institutionalisieren, erlaubt die neutrale Verortung der Verantwortung für diese und ist hinreichend offen, leichtgewichtig und flexibel für eine einfache Veränderung und Skalierung des Unternehmensnetzwerkes. Es wird argumentiert, dass und wieso solche Datengenossenschaften eine sinnvolle Antwort des Mittelstands auf die aggressiven Analytics-Strategien internationaler Konzerne sein kann. 

Dr. rer. pol. Henning Baars ist Akademischer Oberrat am Lehrstuhl für ABWL und Wirtschaftsinformatik 1 der Universität Stuttgart und Sprecher der Fachgruppe „Business Intelligence“ der Gesellschaft für Informatik. Seit 2003 ist er an der Universität Stuttgart beschäftigt. Aktuelle Forschungsthemen sind „Agile Business Intelligence“, „BI und Big Data“, „BI in the Cloud“ sowie „BI und Analytics im Internet of Things“.
Nikolas Groß ist stellvertretender Leiter des Bereichs Interessenvertretung beim Baden-Württembergischen Genossenschaftsverband (BWGV). Im Fokus seiner Tätigkeit steht die Positionierung der genossenschaftlichen Interessen gegenüber Politik, Wirtschaft und Gesellschaft. Inhaltlich beschäftigen ihn insbesondere die bankregulatorischen und wirtschaftspolitischen Themen auf Landes-, Bundes- und EU-Ebene.
Kooperative Datenräume in der Produktion
Kooperative Datenräume in der Produktion

Anhand eines konkreten Beispiels wird in diesem Vortrag darauf eingegangen, wie das etablierte Konzept der Genossenschaft im produzierenden Kontext eingesetzt werden kann, um das Teilen von Daten über Unternehmensgrenzen hinweg zu ermöglichen. Am Beispiel eines Konsortiums aus einem Fertigungsbetrieb, einem Hersteller von Reinigungsanlagen und einem Kühlschmierstoff-Händler wird auf das Wertschöpfungsszenario “Kühlschmierstoff as a Service” eingegangen. Es wird dargestellt, welche Daten geteilt und welche Analysen auf dem genossenschaftlich geteilten Datenpool generiert werden können. Aus der Sicht eines Herstellers von Kühlschmierstoff-Aufbereitungsanlagen wird Herr Dr. Wiltz darstellen, welcher Nutzen durch geteilte Daten für alle Beteiligten entsteht. 

Herr Dipl.-Kfm. Dr. Stefan Wiltz hat an der Universität Mannheim Betriebswirtschaftslehre mit den Schwerpunkten Personalmanagement, Organisation, Arbeitswissenschaft und Arbeitsrecht studiert. Seit 2004 ist er geschäftsführender Gesellschafter der VPKM GmbH (Gesellschaft für Vergütung und Personalkostenmanagement) und seit 2013 geschäftsführender Gesellschafter der NewFluid GmbH, Mannheim. Er ist u.a. Mitglied des Präsidiums des Verbandes „grosshandel-bw“ (Verband für Dienstleistung, Groß- und Außenhandel Baden-Württemberg e.V.), Vorsitzender des Präventionsausschusses der BGHW (Berufsgenossenschaft Handel und Warenlogistik) und Lehrbeauftragter der TH Deggendorf. Zu seinen Tätigkeits- und Forschungsschwerpunkte gehören insbesondere auch die Auswirkungen technologischer Veränderungen auf betriebliche Prozesse und betriebliche Organisationsstrukturen. 
Seit August 2016 ist Herr Patrick Weber wissenschaftlicher Mitarbeiter am Ferdinand-Steinbeis-Institut der Steinbeis-Stiftung. Das Ferdinand-Steinbeis-Institut (FSTI) ist ein Forschungsinstitut für Business Transformation im Kontext der Digitalisierung und Vernetzung. In transferorientierten Projekten erforscht das FSTI Veränderungen wirtschaftlicher und gesellschaftlicher Strukturen, welche sich durch die zunehmende Digitalisierung ergeben. In seiner Forschung beschäftigt sich Patrick Weber mit der Initiierung und Institutionalisierung von IoT Ökosystemen.  
Henning Baars, Nikolas Groß
Stefan Wiltz, Patrick Weber
Henning Baars, Nikolas Groß
Vortrag: Di 5.2-1

Vortrag Teilen

Stefan Wiltz, Patrick Weber
Vortrag: Di 5.2-2
flag VORTRAG MERKEN

Vortrag Teilen

11:10 - 12:20
Di 6.2
Einführung in ein grafisches Analysewerkzeug
Einführung in ein grafisches Analysewerkzeug

Diese Session erarbeitet Auswahlkriterien von Algorithmen und überträgt die Umsetzung in das Werkzeug RapidMiner. Natürlich ist dies nur ein Werkzeug unter vielen, jedoch soll es den Teilnehmern einen Eindruck vermitteln, wie in Projekten mit großen Datenbeständen und entsprechenden Analyseanforderungen werkzeugunterstützt gearbeitet wird.

Maximale Teilnehmerzahl: 20

Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können: 

Rapidminer rapidminer.com (falls Sie kein Rapidminer Account anlegen möchten, suchen Sie bitte im Web nach der Version 5 und installieren Sie diese nach Download auf Ihrem Rechner)


Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
Vortrag: Di 6.2
flag VORTRAG MERKEN

Vortrag Teilen

12:20 - 12:30
Short Break
Short Break
Short Break

12:30 - 13:00
Di P2
Panel: Die Zukunft des Beratungsmarktes
Panel: Die Zukunft des Beratungsmarktes

Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im BI-Umfeld bei verschiedenen Beratungshäusern innegehabt. Seit Anfang 2015 ist er Vice President Big Data & Analytics bei NTT DATA. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit den Themen Business Intelligence und Data Warehouse. Er hat verschiedene Fachartikel und Buchbeiträge zur Entwicklung des BI-Marktes veröffentlicht, ist Co-Autor der Europäischen Business Intelligence Maturity Audit (biMA®)-Studie und referiert regelmäßig bei Fachveranstaltungen.
Dr. Ralf Finger arbeitet seit 1992 erfolgreich in Projekten zur Konzeption, Realisierung und Einführung individueller Business Intelligence, Analytics und Data Warehouse Lösungen für namhafte deutsche Großunternehmen. Aktuelle Beratungsschwerpunkte bilden strategische Technologieentscheidungen, Analytics Strategien sowie der Wertbeitrag von Datenstrategien. Dr. Finger studierte Betriebswirtschaft mit den Schwerpunkten Organisation und Unternehmensrechnung und promovierte in Wirtschaftsinformatik. Dr. Finger ist als CIIA und CEFA zertifizierter Finanzanalyst und Certified BI Professional (CBIP). Er ist Lehrbeauftragter für Business Intelligence an der Universität Stuttgart, Fachbeirat des TDWI (The Data Warehousing Institute e.V.) und TDWI Europe Fellow. Ferner ist er stellvertretender Sprecher der Arbeitsgruppe Smart Analytics in der Deutschen SAP Anwendergruppe e.V. (DSAG) und Mitglied des Leitungsgremiums der Fachgruppe Business Intelligence in der Gesellschaft für Informatik e.V. (GI). Dr. Finger ist Co-Author diverser Strategieleitfäden, so z.B. für SAP HANA Strategie sowie SAP Advanced Analytics der DSAG e.V. oder den TDWI Leitfäden zu Big Data und Cloud BI. 
Dr. Marcus Mende ist Director Sales & Marketing bei der infologistix GmbH, einer unabhängigen IT-Consulting mit den Schwerpunkten Data Warehousing und Business Intelligence. 
Nach seinem betriebswirtschaftlichen Studium startete er zunächst in der Management Consulting und konzentrierte sich hier auf die Themen Marketing und Vertrieb. Nach verschiedenen Stationen bei IT-Unternehmen aus dem Segment Marketing Data, CRM und Customer Intelligence konzentrierte er sich auf die Entwicklung und Vermarktung von KI-basierten Anwendungen.
Seit 2018 verantwortet er bei der infologistix die Bereiche Business Development und Sales mit Fokus auf den Bereichen Microsoft, Cloud Native Computing und Advanced Analytics.
Klaus-Dieter Schulze, Ralf Finger, Marcus Mende
Klaus-Dieter Schulze, Ralf Finger, Marcus Mende
Vortrag: Di P2
flag VORTRAG MERKEN

Vortrag Teilen

12:30 - 13:00
Di P3
Panel: Wo fängt Self-Service wirklich an? Reicht der Filter, oder ist es doch mehr?
Panel: Wo fängt Self-Service wirklich an? Reicht der Filter, oder ist es doch mehr?

Philipp von Loringhoven ist Designer, Entwickler, Marketeer und Daten-Nerd. Als Freelancer ist er gefangen zwischen Marketing, Produktentwicklung, Business Intelligence und Analytics - er hilft Unternehmen ihre Kunden besser zu verstehen, um mit ihnen zielführender zu kommunizieren. Gleichzeitig ist Host des DataEngage Podcasts und der daily-data.news Plattform.
Andreas Wiener ist Geschäftsführer der reportingimpulse GmbH, Autor und Herausgeber verschiedener Bücher zum Thema Dashboarding, Analytics und Visualization. Darüber hinaus moderiert er den wöchentlich erscheinenden Podcast „Bi or Die“ und ist Vorsitzender des TDWI Roundtables Berlin.
Philipp von Loringhoven, Andreas Wiener
Philipp von Loringhoven, Andreas Wiener
Vortrag: Di P3
flag VORTRAG MERKEN

Vortrag Teilen

12:30 - 13:00
Di P4
Panel: Quo Vadis Finanzindustrie – KI und Cloud als Chance?
Panel: Quo Vadis Finanzindustrie – KI und Cloud als Chance?

Banken und Versicherungen beschäftigen sich seit Jahren aktiv mit dem Thema Data Analytics. Cloud und Big Data Architekturen sind hier keine Seltenheit. Was sind aber aktuelle Trends in dieser Branche? Im Panel werden die Themen Cloud und KI in der Finanzindustrie beleuchtet und kritisch hinterfragt.

Dr. Andreas Totok ist Geschäftsbereichsleiter Enterprise Information Management bei der Finanz Informatik Solutions Plus GmbH. In dieser Funktion berät er Bankinstitute und Versicherungen der Sparkassen-Finanzgruppe zu strategischen IT-Themen und verantwortet Projekte für die Anwendung Künstlicher Intelligenz und dem Management von Daten. Seine Schwerpunkte liegen in der Fachkonzeption sowie der Architektur- und Organisationsberatung.
Dr. Jan Wiltschut ist im Provinzial Konzern für das Thema 'Künstliche Intelligenz im Schadenbereich' zuständig. Hierbei beschäftigt er sich mit der Identifikation, Bewertung, Entwicklung und Umsetzung von KI-Use Cases, die die Schadenprozesse hinsichtlich des Ertrags, der Effizienz und/oder der Kundenzufriedenheit verbessern. Er hat über das Thema „computational neuroscience“ promoviert, konkret um die Entwicklung eines biologisch motivierten neuronalen Netzes für den (frühen) Sehprozess von Säugetieren. Vor seiner Zeit bei der Provinzial war er als Consultant bei der Firma Eucon GmbH auf dem Gebiet des 'Automotive Aftersales' beschäftigt.
Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.
Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe – Technik und Wirtschaft. Dort vertritt er u. a. die Bereiche Business Intelligence und Geschäftsprozessmanagement im Fachgebiet Informatik. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.
Andreas Totok, Jan Wiltschut, Michael Zimmer, Uwe Haneke
Andreas Totok, Jan Wiltschut, Michael Zimmer, Uwe Haneke
Vortrag: Di P4
flag VORTRAG MERKEN

Vortrag Teilen

13:00 - 14:00
Lunch Break
Lunch Break
Lunch Break

14:00 - 14:40
Di 1.3
Data Lakehouse und Data Mesh: Das Ende von Data Lake & DWH?
Data Lakehouse und Data Mesh: Das Ende von Data Lake & DWH?

Mit Data Lakehouse und Data Mesh verbreiten sich im Moment neue Paradigmen und Architekturmuster für analytische Fragestellungen in Unternehmen unterschiedlichster Branchen. Die beiden Ansätze verfolgen hierbei sehr konträre Zielsetzungen und verheißen gleichzeitig die nächste Evolutionsstufe analytischer Architekturen zu sein.

Im Rahmen des Vortrags werden die beiden Architekturmuster und deren Intensionen gegenübergestellt und anhand praktischer Projekterfahrung eingeordnet.

Zielpublikum: Enterprise Architects, Data Architects, DACC / BICC Manager, Data Engineers, Data Scientists, Data Consumers

Voraussetzungen: Grundverständnis über heutige Architekturen im Data & Analytics-Umfeld und den daraus resultieren Herausforderungen für die involvierten Stakeholder.

Schwierigkeitsgrad: Fortgeschritten

Steffen Kandler studierte Wirtschaftsinformatik an der TH Mittelhessen. Nach seinem Einstieg bei INFOMOTION beschäftigte er sich als BI-Entwickler und Architekt mit Schwerpunkten im Datenmanagement, Datawarehousing sowie Datenvisualisierung. 
Aktuell befasst er sich mit dem Einfluss der Digitalen Transformation auf Data & Analytics und den Facetten von modernen, skalierbaren und flexiblen Analytics-Plattformen sowie den zugehörigen Architekturen, Technologien und Methoden.
Mathias Lipke studierte Wirtschaftsinformatik an der TH Ulm und arbeitet seit 2015 als Berater bei der INFOMOTION GmbH im Schwerpunkt von Big Data Technologien und Architekturen. Sein Fachwissen konzentriert sich insbesondere auf den Aufbau und die Operationalisierung analytischer Plattformen mit Basis von Hadoop (Cloudera) und Azure Cloud Komponenten.
Steffen Kandler, Mathias Lipke
Steffen Kandler, Mathias Lipke
Vortrag: Di 1.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 2.3
Produktmanagement der Zukunft – Machine Learning-optimiert
Produktmanagement der Zukunft – Machine Learning-optimiert

Wohin geht der Trend? Wie entwickelt sich der Markt? Welche neuen Möglichkeiten bieten sich? Produktmanager müssen von Natur aus zukunftsorientiert arbeiten und mitunter in die Glaskugel blicken. Je höher die Anzahl und je diversifizierter die Waren, umso komplexer die Portfolioplanung. Das Produktmanagement bei ratioform steht täglich vor genau dieser Herausforderung – und hat mit Hilfe innovativer Technik eine zukunftsorientierte Lösung gefunden!

Zielpublikum: product managers, data management experts, ML specialists, decision makers
Voraussetzungen: experience
Schwierigkeitsgrad: Fortgeschritten

Daniela Senkbeil ist Director Category Management, Solution und Pricing und seit gut 20 Jahren unter anderem im Produktmanagement sowohl in Konzernstrukturen als auch im Mittelstand tätig. Sie verfügt über B2B- und B2C-Erfahrung und ist sowohl im Stationär- als auch im Versandhandels-Business zu Hause mit den jeweiligen Herausforderungen. Ihr persönlicher Fokus liegt auf der Portfoliovermarktung und dem strategischen Brandmanagement.
Sie ist seit 2006 bei ratioform. Dort hat sie das Produktmanagement aufgebaut und zu einer tragenden Säule für die Wachstumsambitionen des Unternehmens geformt
Marcus Eichler ist Director Marketing, Digital & Technologie bei ratioform-Verpackungen und treibt dort u.a. die Digitalisierung und Nutzung von Daten voran. Zuvor war er bei der Telefonica Germany und hat dort mehrere hundert Prozess- und Datenexperten ausgebildet und die digitale Transformation in unterschiedlichen führenden Positionen vorangetrieben. Seit seinem Berufsstart als Energieelektroniker bei MAN und später als Wirtschafsingenieur und Lean Six Sigma Master Black Belt, faszinieren ihn datengetriebene Prozesse. Unter dem Motto 'Knowledge is nothing without action' realisiert er Ideen und Projekte und hat mit seinen Teams Netzwerke umgestellt, IT-Systeme definiert, Linien- zu Prozessorganisationen transferiert, Abteilungen auf- und umgebaut. Mit den realisierten Lösungen werden Kunden individuell, zum richtigen Zeitpunkt und dem richtigen Auslöser angesprochen und die Wertschöpfung während der Customer Journey signifikant beeinflusst.
Daniela Senkbeil, Marcus Eichler
Daniela Senkbeil, Marcus Eichler
Vortrag: Di 2.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 3.3
360° Kundensicht in einer heterogenen Konzernlandschaft? Master Data Management bei Bilfinger SE
360° Kundensicht in einer heterogenen Konzernlandschaft? Master Data Management bei Bilfinger SE

Ein 360° Blick auf die Geschäftskunden ist ein wichtiger Faktor in der unternehmerischen Entscheidungsfindung. Auf Konzernebene sind Kundendaten jedoch häufig auf verschiedene Systeme sowie weitere Applikationen verteilt, mit variierender Datenqualität, Aussagekraft und Möglichkeiten der Anbindung. Bei Bilfinger SE, einem internationalen Konzern mit Einheiten auf der ganzen Welt, suchte man daher nach einer Lösung, die alle Kundenstammdaten zusammenbringt und sie anschließend auf Konzernebene mit relevanten Finanzkennzahlen auswertbar macht.

Zielpublikum: Project Leader, Data Stuarts, Decision Makers, Data Architects, BI Specialists
Voraussetzungen: Basic Knowledge
Schwierigkeitsgrad: Anfänger

Extended Abstract:

Ein datenbasierter 360° Blick auf die Geschäftskunden ist ein wichtiger Faktor in der unternehmerischen Entscheidungsfindung. Auf Konzernebene sind Kundendaten jedoch häufig auf verschiedene ERP- und CRM Systeme sowie weitere Applikationen verteilt, mit variierender Datenqualität, Aussagekraft und Möglichkeiten der Anbindung.

Bei Bilfinger SE, einem internationalen Konzern mit Einheiten auf der ganzen Welt, suchte man daher nach einer Lösung, die alle Kundenstammdaten zusammenbringt und sie anschließend auf Konzernebene mit relevanten Finanzkennzahlen auswertbar macht.

Die Erstellung von Golden Records mit Hilfe von Algorithmen, das Analysieren von Dubletten, die Anreicherung von Kundendaten mit digitalen Wirtschaftsinformationen und ein Workflow-Tool, welches den Datenprozess automatisiert steuert, sind dabei die wichtigsten Bausteine für ein erfolgreiches Master Data Management.

Mirjam Cohrs (M.A. Politikwissenschaft) ist Leiterin des Management Business Intelligence Teams bei der Bilfinger SE.
Ihre Karriere begann als Analystin im CRM-Umfeld, heute bringt sie mehrjährige Erfahrung in der Umsetzung von Reporting- und DWH-Projekten in der Finanz- und Paymentindustrie mit.
Mirjam Cohrs
Mirjam Cohrs
Vortrag: Di 3.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 4.3
Mit KI die Prognose im Bankgeschäft verbessern
Mit KI die Prognose im Bankgeschäft verbessern

Die Absatzprognose ist in der klassischen Industrie das A&O der Ressourcen- und Wirtschaftsplanung. Ereignisse wie die Pandemie machen jedoch eine Planung mit klassischen Verfahren fast unmöglich. KI basierte Modelle können hier helfen. Können diese Methoden auch auf Banken bzw. die Finanzindustrie übertragen werden? In dem Vortrag werden anhand eines konkreten Beispiels die Möglichkeiten und Herausforderungen von KI basierter Prognose von Verkaufszahlen im Banking vorgestellt.

Zielpublikum: Vertriebsmanager, Controlling, Business Development
Voraussetzungen: Kenntnisse über Planungs- und Prognoseprozess in Banken / Finanzindustrie
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Für einen validen Prognoseprozess im Banking sind ausreichend historische und qualitativ hochwertige Daten notwendig. Welche Daten für den Prognoseprozess in der Praxis vorliegen und wie diese aufbereitet und veredelt werden, zeigen wir im ersten Teil des Vortrages. Im zweiten Teil gehen wir auf die KI-basierten Prognosemodelle ein und stellen anhand eines Praxisfalls die Ergebnisse und die daraus resultierenden Möglichkeiten und Herausforderungen vor. Hierbei wird auf die Komplexität der Prognose durch die Kombination von Produkten, Kanälen und Mitarbeitern besonders eingegangen.

Thomas Liebke, Jahrgang 1970, ist seit 30 Jahren in der Bankenbranche tätig. Thematisch beschäftigt sich Thomas Liebke vor allem mit der datenbasierten Entscheidungsfindung für das Bankmanagement und der Steigerung und Optimierung der betriebswirtschaftlichen Situation im Retailgeschäft von Banken.
Christof Bitschnau ist CEO und Co-Founder der Quantics GmbH, welche Unternehmen unterschiedlicher Branchen hilft Ihre Geschäftsprozesse zu optimieren mittels KI-gestützter und innovativer Prognoselösungen.
Thomas Liebke, Christof Bitschnau
Thomas Liebke, Christof Bitschnau
Vortrag: Di 4.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:40
Di 6.3
Einführung in die Programmiersprache R
Einführung in die Programmiersprache R

Diese Session beschäftigt sich mit dem Werkzeugunterstützungsgedanken mittels der Sprache R. Die in diesem Umfeld prominent genannte Sprache ist für statistische Berechnungen und Grafiken geschaffen worden. In der Session werden ausgewählte kleine Beispiele im Werkzeug umgesetzt.

Maximale Teilnehmerzahl: 20

Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:

RStudio DESKTOP www.rstudio.com/products/rstudio/ (berücksichtigen Sie bitte, dass RStudio die zusätzliche Installation der R-Bibliotheken während der Schulung verlangt, z. B. von cran.r-project.org/mirrors.html)

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
Vortrag: Di 6.3
flag VORTRAG MERKEN

Vortrag Teilen

14:40 - 14:50
Short Break
Short Break
Short Break

14:50 - 15:30
Di 1.4
Complex Event Processing with Kafka Streams
Complex Event Processing with Kafka Streams

Kafka and Kafka Streams have emerged as the de facto standard for scalable, high volume and low-latency real time data processing in the industry. Complex event processing is concerned with the detection of patterns in raw events and their transformation to higher level events that are more business relevant. This talk shows how to implement scalable, fault tolerant and declarative complex event processing based on Kafka Streams.

Target Audience:Data Engineer, Data Scientist, Data Architect
Prerequisites: Basic understanding of real time data processing and Apache Kafka.
Level: Advanced

Extended Abstract:

Kafka and Kafka Streams have emerged as the de facto open source standard for real time, low latency and high throughput data integration in a large variety of industries. Besides providing traditional operations such as grouping, aggregations and table-table joins, Kafka Streams treats streams of data as first class citizens and offers some unique features geared at real time data wrangling such as aggregation of data across different types of time windows, real time data enrichment, and joins between streams of data. While both types of operations have emerged from the ambit of relational databases, the complex event processing community has focused their attention on declarative, pattern based recognition of business relevant events from lower level, raw events. Examples for operations supported by complex event processing are sequences, negation, conjunction, disjunction and repetition. This talk shows how sequences, negation and regular expressions on event streams can be implemented in a scalable and fault tolerant manner based upon the Kafka Streams DSL and the Kafka Streams Processor API. The provided examples are relevant to use cases such as detection of shoplifting, security systems, operations of production lines, and online shopping.

Benedikt is a Senior Solutions Architect at Confluent and has always been passionate about data and algorithms. He holds a Diploma and PhD in Computer Science from the University of Munich, where he fell in love with rule based data integration, and has authored many papers and given talks at international conferences. At Confluent, Benedikt has turned his attention to distributed real time data processing with Apache Kafka, Kafka Streams. During the last years, he has advised a large number of high profile customers on their event streaming journey. During his spare time, Benedikt loves to spend time with his family and trying out any kind of new sport.
Benedikt Linse
Benedikt Linse
Vortrag: Di 1.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 2.4
From BI to AI & analytics industrialization
From BI to AI & analytics industrialization

I will show the journey that Tires took from its first attempts to extend their BI services for analytics to operate a mission critical industrialization environment which runs several AI projects. Beneath the problems and obstacles that were taken I will also explain the decisions that were taken and show the industrialization environment which was created. I also will explain why it was necessary to have such an environment instead of making use of classical BI tools.

Target Audience: Project leader, decision makers, CIO, Software engineers
Prerequisites: None
Level: Basic

Extended Abstract:

When Continental Tires started to establish Data Science as a function it decided to grow this out of BI but with an external employee. The journey was a long one but due to the given experience Continental was able to leave out some of the painful experiences that were made in other companies. So they decided to build up an infrastructure for industrialization of Use Cases from the first minute. The example of Tires is a good one to understand the roadmap from BI to Data Science industrialization. While in the beginning there was the hope that a simple extension of BI and BI tools would deliver an answer today the organization is a complete different one. Also Tires created an own landscape for industrialization of AI. Why this is done so and why this might be useful will be shown in the talk.

Studied Sociology with focus on statistical methods Dubravko Dolic made his first IT/programming experience already during his time at universities in Oldenburg and Northern Ireland. His professional career was shaped by a huge number of projects located between IT and business. Always striving to make data analyses easy available he was consultant for BI and Data analysis for more than 15 years. Since 2017 he is responsible for Data Science at the central IT for Continental Tires.
Dubravko Dolic
Dubravko Dolic
Vortrag: Di 2.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 3.4
Integration of SAP data into a common data model
Integration of SAP data into a common data model

In the past, data was often stored in a monolithic data warehouse. Recently, with the advent of big data, there has been a shift to work directly with files. The challenge therefore arises in data management and storing metadata information. In this presentation, I will show how SAP (ERP or BW) data can be extracted using SAP Data Intelligence (ODP framework) and stored along with their metadata information. These data are stored in a Common Data Model (CDM) format and can be easily integrated and consumed with various products.

Target Audience: Professionals who would like to integrate SAP data into a Data Platform (e.g. Datalake) and include metadata information.
Prerequisites: Basic understanding of the SAP integration framework ODP, and cloud infrastructure (e.g. Azure Datalake Storage)
Level: Advanced

Experienced Business Intelligence Consultant, with a focus on Microsoft Azure, SAP data integration and Data Warehousing.
Background in physics, with a PhD in Seismology.
Julius von Ketelhodt
Julius von Ketelhodt
Vortrag: Di 3.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 4.4
Transparenz als Erfolgsfaktor der Data Governance Initiative
Transparenz als Erfolgsfaktor der Data Governance Initiative

Durch die Digitalisierung und die zunehmende Regulierung sind Unternehmen einem steigenden Veränderungsdruck ausgesetzt. Um darauf reagieren zu können, ist eine hohe Transparenz über die operativen und dispositiven Datenbestände notwendig. Zusätzlich bringen die zunehmende Automatisierung der Datenverarbeitung und der Einsatz Künstlicher Intelligenz für die Entscheidungsfindung eine gesteigerte Anforderung an die Datenqualität mit sich. Synabi und der Raiffeisenverband Salzburg haben sich dieser Herausforderung erfolgreich gestellt – aber wie?

Zielpublikum: CIO, CDO, BI/DWH Entscheider, BI/DWH (Competence Center) Manager, BI/DWH Programm- und Projektleiter, BI/DWH Architekten, interessierte IT- und Fachbereichsverantwortliche und Anwender
Voraussetzungen:
Voraussetzung sind grundlegende Kenntnisse in den Bereichen Daten- und Informationsmanagement. Architektur, Modellierung, Betrieb, Organisation und Prozesse ist vorteilhaft
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Beim Raiffeisenverband Salzburg wurde 2016 eine Data Governance Initiative gestartet, um die bestehenden und zukünftigen Herausforderungen, die unter anderem durch die zunehmenden Regulierungen, wie zum Beispiel BCBS239, DSGVO etc., entstehen, zu meistern. Dabei wurden neben den Daten auch die Prozesse und die Unternehmensarchitektur mit eingebunden. 2019 wurde D-QUANTUM als Softwarelösung ausgewählt und im Unternehmen eingeführt, um die hierfür erforderlichen technischen und fachlichen Informationen zusammenzuführen und allen Mitarbeitern des Unternehmens zur Verfügung zu stellen

Philipp Maislinger ist seit Gründung der Einheit 'Datenmanagement' an Aufbau und Implementierung der Data Governance für den Raiffeisenverband Salzburg im Einsatz. Er entwickelte die strukturelle Grundlage der Metadatenmodelle, sowie deren Einbettung in die Unternehmensarchitektur. Aktuell hat er die Projektleitung für die Einführung eines softwaregestützten Metadatenmanagements inne.
Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in unterschiedlichen Branchen (Telekommunika- tion, Banken und Handel). In seiner Funktion als COO der Synabi Business Solution GmbH verantwortet er die Konzeption und Umsetzung von Metadaten und DataGovernance-Projekten.
Philipp Maislinger, Wolf Erlewein
Philipp Maislinger, Wolf Erlewein
Vortrag: Di 4.4
flag VORTRAG MERKEN

Vortrag Teilen

14:50 - 15:30
Di 6.4
Einführung in die Programmiersprache Python
Einführung in die Programmiersprache Python

Diese Session fokussiert die Programmiersprache Python anhand vorgefertigter Code-Beispiele, um den Teilnehmern eine Grundlage zu schaffen, die Einsatzpotenziale und Aufwände der Sprache im Bereich Advanced Analytics besser abschätzen zu können.

Maximale Teilnehmerzahl: 20

Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können: Anaconda https://www.anaconda.com/products/individual um Python nutzen zu können.

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Carsten Felden, Claudia Koschtial
Carsten Felden, Claudia Koschtial
Vortrag: Di 6.4
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:00
Break
Break
Break

16:00 - 17:10
Di 1.5
Bauen Sie Ihr Modern Data Warehouse!
Bauen Sie Ihr Modern Data Warehouse!

Das Modern Data Warehouse (MDWH) gilt als DAS Zukunftskonzept für die digitale Transformation. Denn: Dank Cloud-Technologien kann das MDWH auf ganz unterschiedliche Anforderungen vom Reporting bis zur KI angepasst werden. Aber wie sieht eine Basisarchitektur aus? Welche Anpassungen sind bei verschiedenen Use Cases notwendig? Jens Kröhnert liefert die Antworten. Vor den Augen des Publikums baut er ein MDWH in der Cloud auf und spielt konkrete Einsatzszenarien durch. Die Teilnehmer werden als Lieferant für Streaming-Daten unmittelbar involviert.

Zielpublikum: Alle Personengruppen im Unternehmen, die mit Daten arbeiten
Voraussetzungen: Basiskenntnisse
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:

GLIEDERUNG:

Einführung in das MDWH

  • BI und Big Data auf einer Plattform
  • Von Open Source zu PaaS und SaaS
  • Gründe für Cloud-Migration/Anwendungsszenarien
  • Basisarchitektur 'Modern Data Warehouse'


Kunden-Case 'Aluminium-Fertigung'

  • Ausgangssituation: Klassisches DWH OnPrem
  • Ziele: Echtzeit & Machine Learning in der Cloud


Step by Step: Aufbau eines MDWH

  • Nutzung von PaaS- und SaaS-Diensten
  • Entwicklung in kurzen Sprint-Lösungen
  • Umsetzung von Streaming
Dipl.-Ing. Jens Kröhnert verfügt über 25 Jahre Erfahrung in der Planung und Umsetzung großer BI- und Big-Data-Projekte. Als Big Data & IoT Evangelist der ORAYLIS GmbH verantwortet er die Bereiche 'Innovation – neue Technologien' und 'Technische Presales'. Als P-TSP ist er direkt in den Presales-Prozess von Microsoft eingebunden. Sein Fokus liegt auf Themen wie Hadoop/Databricks, IoT und Azure.
Jens Kröhnert
Jens Kröhnert
Vortrag: Di 1.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 2.5
Quantifying the impact of customer experience improvements on churn via causal modeling
Quantifying the impact of customer experience improvements on churn via causal modeling

Quantifying the impact of customer experience (CX) improvements on the financials is crucial for prioritizing and justifying investments. In telecommunication as well as other subscription-based industries, churn is one of or the most important financial aspects to take into account. The presented approach shows how the churn impact of CX improvements – measured via Net Promoter Score (NPS) – can be estimated based on structural causal models. It makes use of algorithms for causal discovery and counterfactual simulation.

Target Audience: Data Scientist, Decision Maker
Prerequisites: basic understanding of statistical modeling
Level: Advanced

Dr. Björn Höfer manages a team for Advanced Analytics & Data Science at Telefónica Germany. He studied International Business at the University of Paderborn and received his PhD from Friedrich-Alexander-University (FAU) of Nuremberg for enhancing simulated test market methodology. His team at Telefónica uses modern data science methods to improve decision making at Telefónica.
Björn Höfer
Björn Höfer
Vortrag: Di 2.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 3.5
Einfluss regulatorischer Anforderungen auf moderne Architekturen
Einfluss regulatorischer Anforderungen auf moderne Architekturen

Der fachliche Wettbewerbs- und Kostendrucks sowie steigende Anforderungen erhöhen den Bedarf an Industrie- und Standardlösungen. Allerdings werden Standardlösungen den Anforderungen, z.B. BCBS 239, oftmals nicht gerecht. Es entsteht eine Diskrepanz, dem nur mit einer modernen, dispositiven Infrastruktur begegnet werden kann. Neue Ansätze und Methoden in der Umsetzung sind daher gefragt: Eine moderne Referenzarchitektur, die bei der Lösung zukünftiger Herausforderungen unterstützt und Grundlage für eine moderne Analyseplattform liefert.

Zielpublikum: Entscheider, Data Engineer, Architekten, Controlling, Projektleiter
Voraussetzungen: Grundkenntnisse Data & Analytics
Schwierigkeitsgrad: Anfänger

Stefan Seyfert ist gemeinsam mit Herrn Lars Schlömer als Head of Data & Analytics Sopra Steria für die thematische Ausrichtung von Data & Analytics bei Sopra Steria verantwortlich. In diesem Zusammenhang liegt sein Fokus auf dem Aufbau Innovativer datenbasierter Geschäftsmodelle mit dem Schwerpunkt Datenmanagement.
Thomas Müller verantwortet bei Sopra Steria das Competence Team (Big) Data Engineering. Seit fast zehn Jahren bringt er seine Expertise in unterschiedlichen Kundensituationen ein und ist ein wichtiger Ansprechpartner für das Partner-Netzwerk.
Lisa Schiborr ist Data & Analytics Expertin im Bankenbereich.
In diesem Zusammenhang liegt ihr Fokus auf dem Thema Data Management. Darüber hinaus verantwortet sie für Data & Analytics die Öffentlichkeitsarbeit und Durchführung von Data & Analytics Studien (biMA). 
Stefan Seyfert, Thomas Müller, Lisa Schiborr
Stefan Seyfert, Thomas Müller, Lisa Schiborr
Vortrag: Di 3.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 4.5
Datenqualitätsmanagement RUN & CHANGE THE BANK mit Metadaten
Datenqualitätsmanagement RUN & CHANGE THE BANK mit Metadaten

Wie jede Bank will auch die Volksbank Wien in allen Geschäfts- und Steuerungsprozessen maximale Informations-Integrität und Datenqualität auf allen Ebenen erreichen. Auf Basis fachlicher Metadaten werden die Datenqualitätsanforderungen definiert, der Life-Cycle und Anforderungsprozess umgesetzt sowie die Verantwortlichkeiten vergeben. Die Trennung in 'Datenqualität allgemein' und in 'Qualität der Datenproduktion' half bei der Strukturierung der Maßnahmen, die auf Governance-Aspekte, RUN the Bank und CHANGE the Bank abzielen.

Zielpublikum: Data Governance Manager, Datenqualitätsmanager, Riskmanager, Metadatenmanager
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Anfänger

Harald Seebacher leitet den Bereich Financial Data Steering in der Volksbank Wien AG und verantwortet damit Datenmanagement und Data Governance im gesamten österreichischen Volksbankensektor. Sein aktueller Arbeitsschwerpunkt ist die Zentralisierung sämtlicher Datenqualitätsagenden in Sektor sowie die Neueinrichtung der fachlichen Datenmodellierungsprozesse in der Volksbank. Als ausgebildeter Betriebswirt übernahm er schon sehr früh Führungsfunktionen im Organisations- und IT-Umfeld und ist mit diesem fachlichen Hintergrund prädestiniert für den Aufbau der CDO-Funktion im Volksbankensektor.
Barbara Kainz ist Geschäftsführerin der dataspot. GmbH. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Harald Seebacher, Barbara Kainz
Harald Seebacher, Barbara Kainz
Vortrag: Di 4.5
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 17:10
Di 6.5
Text Mining vs. Data Mining
Text Mining vs. Data Mining

Diese Session vermittelt die Unterschiede zwischen Data Mining und Text Mining, so dass auch hier die Teilnehmer in der Lage sind, diese zu erkennen und in eigenen Projekten zu berücksichtigen. Während der Session zeigen wir ein kleines Code-Beispiel, so dass der Eindruck für den Aufwand vermittelt wird.

Maximale Teilnehmerzahl: 20

Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:

Rapidminer rapidminer.com (falls Sie kein Rapidminer Account anlegen möchten, suchen Sie bitte im Web nach der Version 5 und installieren Sie diese nach Download auf Ihrem Rechner. Bedenken Sie dann aber bitte, dass in der Software teilweise alternative Abläufe zu beachten sind.)

Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger

Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial, Carsten Felden
Claudia Koschtial, Carsten Felden
Vortrag: Di 6.5
flag VORTRAG MERKEN

Vortrag Teilen

17:20 - 18:10
Special Keynote
SPECIAL KEYNOTE: Lessons from the Racetrack with Gary Paffett, Championship Winning Racing Driver
SPECIAL KEYNOTE: Lessons from the Racetrack with Gary Paffett, Championship Winning Racing Driver

Two-time DTM Champion, Gary Paffett, has competed at the highest levels of professional motorsport for two decades, racing in series including DTM, Formula 1 and the ABB FIA Formula E World Championship. In his role as Sporting & Technical Advisor and Reserve & Development Driver to the Mercedes-EQ Formula E Team, Gary shares his knowledge and expertise in a role that has been a major factor in the development of both the team and the car in Mercedes’ first two seasons within the all-electric street racing series. 
Gary Paffett
Gary Paffett
Track: Keynote
Vortrag: Special Keynote
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:40
Mi 1.1
Integrating SAP data into a modern analytics warehouse on Google Cloud in an automated fashion
Integrating SAP data into a modern analytics warehouse on Google Cloud in an automated fashion

Transforming an organization to become more data driven usually presents a set of technological challenges. In this session you will learn how to integrate existing applications data in real time to achieve a useful critical mass of explorable data.

Target Audience: CTOs, CIOs, CDOs, data engineers, data modelers, data analysts, data scientists
Prerequisites: General understanding of data in the context of the enterprise
Level: Basic

Extended Abstract:
'Data is the new oil' these days many organizations are in the midst of a digital transformation. In order to enable data driven processes, it is imperative to leverage the treasure trove of data hidden away in already existing applications. Extracting data from those applications (the E in ETL) is commonly the biggest pain point of data engineering. Many systems were not built to be extracted, so therefore data engineering needs to carefully balance performance versus load. At the same time customers demand more: nightly batch processing is not good enough anymore, the need for real time information is growing.

How to align all of this? Enter Change Data Capture (CDC). Based on a real live use case, you will learn how to integrate data from an existing mission critical SAP application into a modern cloud-based analytics warehouse. We will tell the story of our journey from the initial use cases, constraints that we faced, discoveries along the way to the final design and our appetite for more.

Matthias is a globally experienced IT executive with core competencies in Big Data analytics, retail, e-commerce, loyalty & payment. More than 20 years of experience in developing scalable retail solutions. Currently building a data platform for BI, advanced analytics & data science at Breuninger.com
Matthias Krenzel
Matthias Krenzel
Vortrag: Mi 1.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:40
Mi 2.1
Semantische Textanalyse mit Prädikatenlogik
Semantische Textanalyse mit Prädikatenlogik

Künstliche Intelligenz analysiert natürlichsprachliche Texte, um präzise, robusteSyntaxbäume abzuleiten. Die syntaktische Struktur einer Aussage ist aber oft weniger wesentlich als ihre semantische Struktur. Sprich:Was besagt sie? Welcher Sinn steckt in ihr? Ein Fokus auf die Bedeutung führt dazu, dass eine kleine Anzahl an Referenzsätzen ausreicht, um eine große Anzahl semantisch entsprechender aber unterschiedlich strukturierter Ausdrücke entdecken zu können. Die Technik lässt sich in verschiedenen Bereichen anwenden: Conversational Interfaces, themenbasiertes Matching und die Dokumentenklassifizierung.

Zielpublikum: spezialisierte Analysten, Entwickler, Architekten
Voraussetzungen: Ein grundlegendes Verständnis der gesprochenen Sprache
Schwierigkeitsgrad: Anfänger

Richard Paul Hudson ist Principal IT Consultant bei msg. Er erforscht neue Trends und berät Kunden hauptsächlich in den Bereichen des maschinellen Lernens und der Anwendungsarchitektur. Er studierte ursprünglich Theoretische Linguistik an der University of Cambridge und freut sich sehr, in der Domäne der natürlichen Sprachverarbeitung seine IT- und linguistische Interessen miteinander verbinden zu können.
Richard Paul Hudson
Richard Paul Hudson
Vortrag: Mi 2.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:40
Mi 3.1
Smart City mit Open Source IoT Lösungen
Smart City mit Open Source IoT Lösungen

Die zunehmende Urbanisierung zwingt Städte zum Handeln. Technologie soll helfen die Infrastruktur einer Stadt effizienter und sicher nutzbar zu machen. Daten aus Sensoren in Kombination mit modernen Analysen sollen Städte smart machen. Smarte Städte wollen:

o            Besseren Umweltschutz

o            Höhere Sicherheit

o            Effizienterer Infrastrukturen

Im Vortrag wird eine Softwarearchitektur vorgestellt, die ihre Bewährungsprobe in der Praxis bestanden hat. Die Kombination dieser Tools gewährleistet eine maximal flexible und hoch skalierbare IoT Plattform.

Zielpublikum: Decision Makers, Data Engineers, Project Leaders
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Anfänger

Stefan Müller leitet den Bereich Big Data Analytics & IoT bei it-novum. Er hat eine tiefe Leidenschaft für die zahlreichen Möglichkeiten, die Open-Source-Lösungen für Data Analytics und Big Data bieten. Seit 2009 setzen er und sein Team erfolgreich Kundenprojekte in verschiedenen Branchen mit offenen Technologien wie der Pentaho-Plattform um.
Stefan Müller
Stefan Müller
Track: IoT
Vortrag: Mi 3.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:30
Mi 4.1
Is there life beyond hadoop – should data lakes be drained?
Is there life beyond hadoop – should data lakes be drained?

The past year or two has seen major changes in vendor support for the extended Hadoop ecosystem, with withdrawals, collapses, and mergers, as well as de-emphasis of Hadoop in marketing. Some analysts have even declared Hadoop dead. The reality is more subtle, as this session shows, through an exploration of Hadoop's strengths and weaknesses, history, current status and prospects. Discussion topics include plans for initiating new Hadoop projects and what to do if you have already invested, successfully or otherwise, in data lakes.

Target Audience:
Enterprise-, systems-, solutions- and data architects

Systems-, strategy- and business intelligence managers

Data warehouse and data lake systems designers and developers

Data and database administrators

Prerequisites:
Basic knowledge of data management principles

Experience of designing data warehouses or lakes would be useful

Level: Basic

Extended Abstract:
Hadoop and its extended menagerie of related projects have been responsible for a decade of reinvention in the data management world. On the positive side, projects that would have been impossible with traditional technology have become not only possible but commonplace in today's environment. Hadoop has been at the heart of the explosion of digital business.

However, Hadoop has also been beset by a long list of complaints and problems, particularly relating to data management and systems management. Some of Hadoop's early strengths have been eroded as relational database vendors have upped their game. Furthermore, the rapid growth of Cloud solutions to many massive data delivery and processing projects has impacted Hadoop's commercial viability.

All these factors have led to a questioning of the future of the extended Hadoop ecosystem. This session answers these questions, not just from a technological viewpoint, but in the broader context of existing investments in skills and infrastructure, the direction of digital transformation, and the changing socio-political environment in which business operates.

Dr. Barry Devlin is a founder of data warehousing, defining its first architecture in 1985. He is respected worldwide as a visionary on BI and big data, publishing the seminal book 'Business unIntelligence' in 2013. With 30+ years' IT experience in IBM and 9sight, he offers thought-leadership and consulting to BI and big data buyers and vendors. He speaks and writes on all aspects of information.
Barry Devlin
Barry Devlin
Vortrag: Mi 4.1
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 09:40
Mi 5.1
GAIA-X - Eine vernetzte Dateninfrastruktur als Wiege eines vitalen, europäischen Ökosystems
GAIA-X - Eine vernetzte Dateninfrastruktur als Wiege eines vitalen, europäischen Ökosystems

Das „Projekt GAIA-X“ wird in den Veröffentlichungen des Bundesministeriums für Bildung und Forschung als Wiege eines offenen digitalen Ökosystems gesehen, in dem Daten sicher und vertrauensvoll verfügbar gemacht, zusammengeführt und geteilt werden können. Ziel ist es, gemeinsam mit weiteren europäischen Ländern für Europa, seine Staaten, seine Unternehmen und seine Bürgerinnen und Bürger die nächste Generation einer vernetzten Dateninfrastruktur zu schaffen, die den höchsten Ansprüchen an digitale Souveränität genügt und Innovationen fördert. Der Vortrag bezieht sich auf das (politische) Zielbild, den Prozess der Entstehung, auf die Beteiligten sowie die europäische Integration, um eine öffentliche Diskussion zu begleiten und Interessierte in das Thema einzuführen.

Sebastian Olbrich is a graduated economist from the University of Mannheim. He wrote his master thesis in collaboration with McKinsey & Company which won an award for technological innovation sponsored by Fraunhofer Institute. He holds a doctoral degree from the School of Business Administration and Economics, department of Management Information Systems, Philipp’s University at Marburg; which was written in collaboration with SAP and the state of Hessen. He has extensive working experience as managing consultant, interim manager and data scientist. He worked most of his career with PricewaterhouseCoopers (PwC) / Strategy& (Booz) in the fields of Corporate Performance Management (CPM), Business Intelligence (BI) and IT Strategy / CIO Advisory Services.
Currently he is employed as Senior Director with Capgemini Invent in the practice of Insights Driven Enterprise (IDE). He leads Insights-Driven Business Innovation (IDBI) a group of 35+ Data Scientists and Business Analysts in DACH region.
Dr. Olbrich (co-)authored more than 50 academic articles. He received his tenure (PD) from the University Duisburg-Essen where he is still involved in several research projects concerning Business Technology & Innovation (BTI) and lecturing in the Master program for Analytics as well as supervising PhD theses. He is a highly demanded speaker at conferences and lecturer for executive education – mainly in the fields of Artificial Intelligence and the monetization of data assets. He served as professor for Information Systems and Digital Business at European Business School (EBS) in Östrich-Winkel. His overall research agenda focuses on data-driven innovation, information management and analytical business models.
Sebastian Olbrich
Sebastian Olbrich
Vortrag: Mi 5.1
flag VORTRAG MERKEN

Vortrag Teilen

09:40 - 09:50
Short Break
Short Break
Short Break

09:50 - 10:30
Mi 1.2
Helfer kleiner Teams: Automatisierung, Self-Service & Cloud
Helfer kleiner Teams: Automatisierung, Self-Service & Cloud

Die Group IT verantwortet innerhalb der Porsche Holding Salzburg das Neuwagen-Reporting für interne Fachbereiche. Sie befindet sich auf dem Weg zu einer modernen, cloudbasierten, analytischen Plattform. Dabei wird auf die Zusammenarbeit mit den Fachanwendern gesetzt, um früh Ergebnisse zeigen und flexibel auf Änderungen reagieren zu können. Der Vortrag behandelt die bisherigen Erfahrungen und geht auf die eingesetzten Techniken und Methodiken rund um Data Vault, DWH Automatisierung, Scrum und der Nutzung moderner Cloud-Komponenten ein.

Zielpublikum: Projektleiter, Teamleiter, Entwickler, Product Owner
Voraussetzungen: Grundlagenwissen DWH und Agile BI
Schwierigkeitsgrad: Basic

Extended Abstract:
Die Porsche Holding Salzburg (PHS) ist das größte Automobilhandelsunternehmen in Europa, tätig in 22 europäischen Ländern, sowie Kolumbien, Chile, China, Malaysia, Singapur, Brunei und Japan. Innerhalb der PHS verantwortet die Abteilung Group IT (PGIT) das Neuwagen-Berichtswesen für angeschlossene Fachbereiche. Bis vor kurzem mit einem kleinen Team und ohne ein DWH als analytische Zwischenschicht, direkt auf den Quellsystemen. Wir begleiten die PGIT aktuell auf dem Weg zu einer modernen, Azure-basierten analytischen Plattform. Von Anfang an wird ein besonderes Augenmerk auf enge Zusammenarbeit mit den Fachanwendern, frühe Ergebnispräsentation und flexible Reaktion auf Änderungen gelegt. Wer hierbei Agile BI vermutet, liegt genau richtig. Ein wichtiges Ziel ist es auch das Analyseteam zukünftig zu entlasten. Hierfür wird angestrebt in den Fachbereichen datengetriebenes Arbeiten und Self-Service BI zu etablieren. Unser Vortrag behandelt die bisher gemachten Erfahrungen und geht auf die eingesetzten Techniken und Methodiken rund um Data Vault, DWH Automatisierung, agiler Vorgehensweise und der Nutzung moderner Azure Cloud-Komponenten ein.

Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen und arbeitet nun im Bereich Business & IT Innovation der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Daten-Themen.
Dr. Eva Haslauer arbeitet als Projektleiterin bei Porsche Konstruktionen GmbH & CO KG, Salzburg. Sie hat dort Projekte u.a. in den Bereichen Marktforschung, CMS und Web-Apps geleitet. Derzeit verantwortet sie die Einführung eines modernen, Cloud-basierten Data Warehouses, das Neuwagen-Daten aus internen Quellsystemen zur Analyse mit dem Frontend Tool Power BI im Self-Service zur Verfügung stellt.
Arthur Arendt arbeitet bei Opitz Consulting GmbH als Manager Solutions und verantwortet den regionalen DWH/BI & Analytics Bereich. Seit über 6 Jahren setzt er sich im Projektgeschäft mit wirtschaftlichen und technischen Fragestellungen auseinander und erarbeitet kundenindividuelle Lösungen. Seine Erfahrungen kommen im gesamten Lebenszyklus von Analytics-Plattformen zur Geltung, wobei er besonderen Wert auf die Anforderungsaufnahme und -bewertung legt. 
Jens Bleiholder, Eva Haslauer, Arthur Arendt
Jens Bleiholder, Eva Haslauer, Arthur Arendt
Vortrag: Mi 1.2
flag VORTRAG MERKEN

Vortrag Teilen

09:50 - 10:30
Mi 2.2
Quality whisperer – self-learning AI for production quality
Quality whisperer – self-learning AI for production quality

ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. An AI project was started to get reliable + fast results on root cause discovery. Speed is important because production runs 24 hours/7 days a week. The target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.

Target Audience: Production manager, quality manager, CDO, CIO
Prerequisites: none
Level: Basic

Extended Abstract:
The ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. Each transmission is 100% tested in every technical detail before shipment. The plant Saarbrücken is a forerunner and lead plant in innovative Industry 4.0 technologies. Therefore, activities were started to tackle one significant challenge, which is caused by the enormous variant diversity: Finding root-causes for unsuccessful end of line testing. The management of the complexity is a big challenge because transmission parts can be produced in a huge number of variant processes. Process experts from each domain, like quality and testing, assembly departments and manufacturing units, had to spend significant time in analyzing influencing factors for malfunctioning and deciding on best action to prevent end of line test failures.

Therefore, an AI project was started with the objective to get reliable and fast results on root cause discovery. Speed is important because production runs 24 hours / 7 days a week. The sooner the real reasons for malfunctions are discovered, the sooner activities can be implemented to avoid bad quality. This saves a lot of time and reduces significant waste. The Target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.

Complex root-cause findings can be reduced from several days to hours.

ZF's intention with the digitalization approach is to deliver fast information to the people who are responsible for decision processes to keep a plant in an optimal output with high quality products. A self-learning AI solution Predictive Intelligence from IS Predict was used to analyze complex data masses from production, assembly, and quality to find reliable data patterns, giving transparency on disturbing factors/factor combinations. For training algorithms, end to end tracing data was used, made available in a data lake.

Britta Hilt has focused on Artificial Intelligence for ca. 10 years, mainly from usage perspective in production industries. She is co-founder and managing director of AI company IS Predict which is automating Data Science for Industry 4.0 with its self-learning and explainable AI software Predictive Intelligence.
Britta Hilt
Britta Hilt
Vortrag: Mi 2.2
flag VORTRAG MERKEN

Vortrag Teilen

09:50 - 10:30
Mi 3.2
Condition Monitoring im Wasserkraftwerk von morgen
Condition Monitoring im Wasserkraftwerk von morgen

Das Wasserkraftwerk der Zukunft wird ein 'transparentes Kraftwerk' sein. Das bedeutet, dass umfassende, detaillierte Informationen über den aktuellen und zu erwartenden Zustand der Anlage kontinuierlich verfügbar sind, im Idealfall sekundengenau. Die VERBUND Hydro Power GmbH (VHP) eines der großen europäischen Wasserkraftunternehmen will dieses Ziel mit digitalen Zwillingen und virtuellen Sensoren erreichen. Der Einsatz von digitalen Zwillingen wird anhand der Turbine eines Wasserkraftwerks am Beispiel von Verbund Hydro Power gezeigt.

Zielpublikum: Project Manager Digital Transformation, Data Engineer, CDO, Data Scientist, IoT Manager, Industrie 4.0 Manager, Decision Makers
Voraussetzungen: Keine Voraussetzung notwendig
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Das Wasserkraftwerk der Zukunft wird ein 'transparentes Kraftwerk' sein.

Das bedeutet, dass umfassende, detaillierte Informationen über den aktuellen und zu erwartenden Zustand der Anlage kontinuierlich und idealerweise sekundengenau zur Verfügung stehen.

Die VERBUND Hydro Power GmbH (VHP) eines der großen europäischen Wasserkraftunternehmen will dieses Ziel mit Digitalen Zwillingen und virtuellen Sensoren erreichen. Der Einsatz von digitalen Zwillingen wird anhand der Turbine eines Wasserkraftwerks am Beispiel der Verbund Hydro Power gezeigt.

Der digitale Zwilling ist das virtuelle Abbild eines bestimmten Assets, das sein physisches Gegenstück über dessen gesamte Lebensdauer begleitet. Seine virtuellen Sensoren liefern Informationen insbesondere in Situationen in denen die reinen Sensordaten nicht ausreichend sind. Verschiedene Arten der Degradation wie Kavitation, Abrasion, Korrosion, Verschmutzung oder Ermüdung können erkannt und in die Zukunft projiziert werden.

Für den Betreiber dient der digitale Zwilling zur Sicherstellung der Verfügbarkeit, zur Durchführung von vorausschauender Wartung und optimiert den Betrieb in Bezug auf Leistung, Betriebszeit oder Betriebskosten.

Teresa Alberts ist CEO und Gründerin der ITficient AG. Mit ITficient fokussiert sie sich seit 2014 auf Big Data mit besonderem Fokus auf Digitale Zwillinge und blickt auf langjährige Erfahrung in der Optimierung von Geschäftsprozessen und IT-Infrastrukturen zurück.
Zudem ist sie Expertin für digitale und industrielle Transformation und hat über viele Jahre hinweg Unternehmen auf ihrem Weg zu neuen digitalen Geschäftsmodellen begleitet.
Teresa Alberts
Teresa Alberts
Track: IoT
Vortrag: Mi 3.2
flag VORTRAG MERKEN

Vortrag Teilen

09:50 - 10:30
Mi 5.2
Konzept einer Anwendung zur Ad-hoc-Sternschema-Generierung
Konzept einer Anwendung zur Ad-hoc-Sternschema-Generierung

Dimensionale Datenstrukturen sind besonders für die Anfertigung von Ad-hoc-Analysen geeignet, da diese der natürlichen Sicht entsprechen, die die Fachanwender auf ihren Geschäftsbereich haben. Der Aufbau dieser Strukturen ist allerdings aufwändig, wodurch diese nur für stabile Datenstrukturen geeignet sind. Diese sind allerdings gerade im Kontext von Self-Service-Analysen meist nicht gegeben. In diesem Beitrag wird ein Konzept beschrieben, durch das eine flache Tabelle (semi-)automatisch in ein Sternschema transformiert werden kann.

Zielpublikum: Data Engineer, Data Analyst
Voraussetzungen: Grundkenntnisse in der dimensionalen Datenmodellierung
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Self-Service-Business-Intelligence-Anwendungen erlauben es Fachanwendern, eigenständig Berichte und Analysen zu erstellen, ohne selbst über ausgeprägte technische Kenntnisse zu verfügen. Eine der am häufigsten verwendeten Datenquellen sind hierbei Flat Files. Dies liegt darin begründet, dass flache Strukturen häufig für den Austausch und die Bereitstellung von Daten genutzt werden. Außerdem sind flache Strukturen leicht und ohne den Einsatz komplexer Softwareprodukte zu erzeugen, selbst wenn die Ursprungsdaten aus verschiedenen Quellen stammen. Als Grundlage für das Ad-hoc-Reporting sind flache Strukturen jedoch weniger geeignet, da sie aufgrund der hohen Anzahl an Attributen schnell unübersichtlich und komplex wirken können. Wesentlich geeigneter für das Erstellen von Analysen sind stattdessen dimensionale Datenstrukturen. Diese sehen die Aufteilung zusammengehöriger Daten in Dimensionen vor und werden in traditionellen BI-Umgebungen dazu verwendet, Ad-hoc- oder OLAP-Analysen durzuführen. Die Ausweitung des Anwendungsbereichs von Business-Intelligence-Systemen auf operative Fragestellungen in den letzten beiden Jahrzehnten hat zu heterogenen Anwendergruppen mit neuen, sich häufig ändernden Anforderungen geführt. Der Aufbau und die Betreuung einer großen Anzahl dimensionaler Strukturen ist durch Business-Intelligence-Experten jedoch in der Regel nicht zu leisten, wodurch diese Form der Modellierung, trotz ihrer offenkundigen Vorteile, in den letzten Jahren an Bedeutung verloren hat. Durch das, in diesem Beitrag vorgestellte Konzept, wird es Self-Service-Anwendern möglich, eigenständig dimensionale Modelle zu erstellen, ohne auf die Expertise von Fachleuten zurückgreifen zu müssen. Der Ablauf der Ad-hoc-Sternschema-Generierung kann dabei in drei Phasen unterteilt werden. In der ersten Phase erfolgt nach Identifizierung der Datentypen einer jeden Tabellenspalte die Transformation der flachen Tabelle in das Sternschema. Für die Identifizierung und Zusammensetzung der Dimensionstabellen wird ein Verfahren, basierend auf der Ermittlung funktionaler Abhängigkeiten, verwendet. In der zweiten Phase sind die generierten Ergebnisse manuell zu evaluieren und falls nötig zu korrigieren. In der dritten Phase werden die identifizierten Dimensions- und Faktentabellen mit Werten gefüllt und als separate Dateien ausgegeben.

 

Malte Constantinescu studiert Wirtschaftsinformatik und IT-Management im Master an der FH Wedel. Außerdem arbeitet er im SAP-Bereich bei der valantic Business Analytics GmbH. Er verfügt über einen Bachelor of Science in Wirtschaftsinformatik.
Prof. Dr. Michael Schulz hält eine Professur für Wirtschaftsinformatik, insb. analytische Informationssysteme an der NORDAKADEMIE – Hochschule der Wirtschaft in Elmshorn und ist Studiengangsleiter des Master-Studiengangs „Applied Data Science“. Seine Interessenschwerpunkte in Lehre, Forschung und Praxisprojekten liegen in der Business Intelligence und der Data Science.
Dr. Kerstin Schneider ist Professorin an der Hochschule Harz in Wernigerode. Sie arbeitet im Fachbereich Automatisierung und Informatik im Bereich der Datenbanken.
Malte Constantinescu, Michael Schulz, Kerstin Schneider
Malte Constantinescu, Michael Schulz, Kerstin Schneider
Vortrag: Mi 5.2
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 11:00
Break
Break
Break

11:00 - 12:10
Mi 1.3
Der agile Antrieb von Scrum – Das Backlog Refinement
Der agile Antrieb von Scrum – Das Backlog Refinement

Der agile Antrieb von Scrum – Das Backlog Refinement

Flughäfen sind eine komplexe Echtzeit-Umgebung, für die es in vielen Fällen keine passende Standardsoftware gibt. Um in Zeiten von hoher Auslastung das Risiko von Verspätungen zu reduzieren, welche schnell den europäischen Luftraum durch Kettenreaktionen beeinflussen können, muss die Software auf die speziellen Herausforderungen der Infrastruktur des jeweiligen Flughafens angepasst werden. Doch, wie plant und koordiniert man nachhaltig Lösungen in solch einer hochkomplexen Umgebung?

Zielpublikum: Project leader, decision makers, Scrum Master, Devloper, Product Owner
Voraussetzungen: SCRUM Basics
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Für Jeff Sutherland, Mitbegründer von SCRUM, ist das Backlog Refinement das Rückgrat eines funktionierenden Scrum Teams. Doch wie kann dieses wichtige Event erfolgreich etabliert werden? Der Scrum Guide widmet dem Event lediglich einen kurzen und knappen Absatz.

Bei der Entwicklung einer disruptiven Lösung, einer automatisierten Dispositionssoftware für Bodenverkehrsdiensten an einem großen Flughafen, bestätigte sich Sutherlands Theorie zum Backlog Refinement. Das Event wurde eines der wesentlichen Erfolgsfaktoren für die Umsetzung des agilen Projekts. Und das, obwohl oder geradeweil die Voraussetzungen für das Projekt sehr herausfordernd waren:

o ein komplexes Produktportfolio mit vielen Abhängigkeiten zwischen den unterschiedlichen Lösungen
o einem Geschäftsführer als Product Owner, der dem Team nur Teilzeit zur Verfügung stand
o keine Möglichkeit Business Analysten einzubinden
o Expertenwissen, welches nur in den jeweiligen Silos vorhanden war
o einer knappen Vision und keine ausformulierten Anforderungen an das Produkt
o die Gefahr am Flughafen durch Kettenreaktionen bei Verspätungen den Transport von Passagieren am gleichen Tag zu gefährden oder wichtige Slotzeiten für den Luftraum zu verlieren
o eine große Anzahl von kritischen Stakeholdern

Nils Hyoma wird in seinen Vortrag zeigen, wie sein Team dank des Refinements mit den komplexen Aufgaben zurechtgekommen ist. Hierbei wurden etwa nach und nach kritische Stakeholder gezielt integriert, die Software-Entwickler in die Verantwortung für Anforderungsermittlung genommen sowie durch Kollaboration mit anderen Teams Abhängigkeiten aufgelöst und Releases koordiniert.

Das geplante und strukturierte Event wurde neben der Entwicklung der Software auch zum Antrieb des Change-Managements sowie der agilen und digitalen Transformation genutzt.

Der Vortrag basiert auf Erfahrungen, welche in einem agilen Projekt in einer sehr komplexen Umgebung gewonnen worden sind und lebt von diesen. Nils Hyoma wird einige Ansätze zeigen und dann erläutern, was der Nutzen dieser ist. Er wird eine von vielen Möglichkeiten aufzeigen das unterschätze Event zielführend zu nutzen.

Nils Hyoma ist Diplom-Wirtschaftsinformatiker, im Job Agiler Coach und privat leidenschaftlicher Wasserballspieler. Nils hat Japanologie, internationale BWL und Wirtschaftsinformatik in Hiroshima und Hamburg studiert. Zunächst als Entwickler aktiv eignete er sich die Grundlagen der agilen Softwareentwicklung an. Nach Stationen im Online Retail / eCommerce und in der IT-Beratung ist er seit 2020 für die WPS unterwegs. Nils betreut und coacht sowohl lokale als auch verteilte, internationale Teams und Projekte. Seit frühester Kindheit an ist Nils im Teamsport aktiv. Teamgeist spiegelt sich auch in seinem Berufsleben wider: Als Coach formt er aus Entwicklern und Analysten eingespielte Einheiten, die so selbstständig Produkte entwickeln können. Das Leitbild ist dabei immer der Fokus auf Kundenzufriedenheit.
Nils Hyoma
Nils Hyoma
Vortrag: Mi 1.3
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:10
Mi 2.3
Ein paar Millionen Worte später: Text Analytics in der Praxis
Ein paar Millionen Worte später: Text Analytics in der Praxis

KI ist in der Fachwelt gerade in aller Munde. Ab was ist Chance, was ist Hype? Wir setzen Natural Language Processing seit vielen Jahren in der Qualitätssicherung von Anforderungen und Tests ein. Beispiele sind die automatische Prüfung von Anforderungen und Testgenerierung aus User Stories. In diesem Vortrag zeigen wir an konkreten Beispielen auf, was möglich ist und wo die Grenzen sind. Damit wollen wir die großen Chancen der Textanalyse aufzeigen, ohne in Buzzwords zu verfallen.

Zielpublikum: Decision Makers, Business Analysts, Data Engineers
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract:
In Wissenschaft und Praxis herrscht Revolutionsstimmung. Sprachassistenten simulieren natürliche Gespräche, Wetter- und Sportberichte werden automatisch generiert ohne, dass ein Mensch beteiligt ist, Systemüberwachung funktioniert automatisch per Anomalie-Erkennung oder man schiebt gleich das ganze Word-Dokument in einen automatischen Übersetzer. Der Eindruck von unendlichen Möglichkeiten drängt sich auf auch in der Qualitätssicherung. Aber wie viel von diesen Ansätzen funktionieren in der Praxis wirklich oder ist die Revolutionsstimmung tatsächlich nur eine Goldgräberstimmung?

Wir setzen Natural Language Processing (NLP) Techniken seit vielen Jahren bei mittlerweile über 60 Projekten in Automotive und Versicherungsbereich täglich zur Qualitätssicherung von Software ein. Täglich werden Millionen von Worten Text durch unsere Analysen gejagt. Beispiele sind die automatische Prüfung von Anforderungen, Testgenerierung aus User Stories oder automatisierte Traceability Analysen. Weiterhin machen wir immer wieder Studien mit unterschiedlichsten Machine-Learning- bzw. Artificial-Intelligence Ansätzen (ML/AI) um herauszufinden, ob der Stand der Technik reicht, um in der Qualitätssicherung produktiv eingesetzt zu werden.

Dabei ergibt sich ein etwas differenzierteres Bild davon, was mit NLP, ML und AI möglich ist. In diesem Vortrag zeigen wir drei Dinge auf:

Erstens, was ist der Stand der Technik? Welche Fähigkeiten bieten moderne Ansätze und welche Rollen in der Qualitätssicherung können wie profitieren.

Zweitens, wo sind dabei die Herausforderungen? Bei der Anwendung der Methoden zeigen sich schnell technische Herausforderungen (z.B. Echtzeitfähigkeit), Herausforderungen mit Daten (z.B. Grammatikanalysen auf englische Texte von Nicht-Muttersprachlern) und Herausforderungen auf der menschlichen Ebene (z.B. Akzeptanz).

Drittens, wo sind die Grenzen? In einer wissenschaftlichen Studie haben wir ganz konkret an Unternehmensguidelines analysiert, welche Aspekte von Qualität automatisiert prüfbar sind und welche nicht. Aus dem, was nicht möglich ist, lässt sich eine einfach anwendbare Checkliste erstellen, die mir sagt, welche Themen ich sinnvoll angehen kann und wovon ich die Finger lassen muss.

Dieser Vortrag zeigt Entscheidern und Anwendern also die großen Chancen der Textanalyse auf, ohne in unrealistische Erwartungen oder gar Buzzwords zu verfallen.

Jannik Fischbach hat Wirtschaftsinformatik an der TU München studiert und promoviert aktuell in Informatik an der Universität zu Köln. In seinen Forschungsarbeiten entwickelt er NLP Methoden, um kausale Relationen aus Anforderungen zu extrahieren und diese zur  automatisierten Testgenerierung zu nutzen. Neben seiner Promotion arbeitet er als Consultant bei Qualicen und unterstützt Unternehmen  bei der Optimierung ihrer Testprozesse und der Einführung von modellbasierten Testen. Zu diesen Themen hält er regelmäßig Vorträge für  Forschung und Industrie.
Jannik Fischbach
Jannik Fischbach
Vortrag: Mi 2.3
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:10
Mi 3.3
Intelligente Digital Twins in der automobilen Industry 4.0
Intelligente Digital Twins in der automobilen Industry 4.0

Der Vortrag präsentiert aktuelle Entwicklungen in der Anwendung von KI insbesondere im Kontext von Digital Twins im Automobilbereich. Konkrete Einsatzszenarien und Erfahrungen aus der Praxis zeigen, wie durch Analyse von Daten aus heterogenen Quellen neue Produkte und Services entwickelt, sowie Prozesse und Planungen optimiert werden können und zeigen die Potenziale für den Einsatz von KI im Automobilbereich. Aktuelle Chancen und Herausforderungen des Einsatzes von KI in Unternehmen werden diskutiert.

Zielpublikum: Softwareentwickler, Architekten, Projektleiter
Voraussetzungen: Grundsätzliche Kenntnisse über die Methoden der Künstlichen Intelligenz
Schwierigkeitsgrad: Anfänger

Extended Abstract:
1) Smart Data Analytics im Automobilbereich: aktuelle Entwicklungen in der datenbasierten Digitalisierung

2) Konkreten Einsatzszenarien für Data Science und Methoden der Künstlichen Intelligenz in datengetriebenen Geschäftsprozessen

3) Neue Produkte und Services mittels unternehmensübergreifender Analyse von Daten aus heterogenen Quellen

4) Optimierung von Prozessen und Planungen

5) Relevante technische Ansätze und Erfahrungen aus der Praxis.

Director Research Projects (Fraunhofer ISST); Professor & Direktor, Institut Softwaretechnik (Uni Koblenz); Program Management Board, Fraunhofer-Initiative 'International Data Spaces'. Vorher: Professor für Software Engineering (TU Dortmund), Senior Member/Research Fellow (Robinson College, Uni Cambridge), Royal Society Industrial Fellow (Microsoft Research Cambridge), Postdoc (TU München), PhD Informatik (Uni Oxford), Dipl.Math. (Uni Bremen).
Jan Jürjens, Alexander Sudhoff
Jan Jürjens, Alexander Sudhoff
Track: IoT
Vortrag: Mi 3.3
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:10
Mi 4.3
Data science workbenches and machine learning automation – new technologies for agile data science
Data science workbenches and machine learning automation – new technologies for agile data science

This session looks at how data science workbenches and machine learning automation tools can help business analysts to become data scientists and so meet the demand of business.

Target Audience: CDO, Head of Analytics, Data Scientist, Business Analysts, CIO
Prerequisites: Basic understanding of Data Science
Level: Advanced

Extended Abstract:
The demand for analytics is now almost everywhere in the business. Analytics are needed in sales, marketing and self-service, finance, risk, operations, supply chain and even HR. However, the current shortage of data scientists and the reliance on detailed skills such as programming, has led many corporate executives to question current approaches to development of high value analytical models and ask if they can be accelerated in any way to improve agility and reduce time to value. This session looks at this problem in detail and at how emerging data science workbenches and machine learning automation tools can help reduce the reliance on highly skilled data scientists and allow business analysts to become data scientists and so meet the demand of business.

 

o            The explosion in demand for analytics

o            Data science and the modern analytical ecosystem

o            Challenges with current approaches to analytics

o            Requirements to reduce time to value and accelerate development of analytical models

o            Improving productivity by integrating Information catalogs and data science workbenches, e.g. Amazon SageMaker, Cloudera CDP Machine Learning, IBM Watson Studio Microsoft, Azure ML Service,

o            Accelerating model development, monitoring and model refresh using ML automation tools, e.g. DataRobot, SAS, Dataiku Data Science Studio, Big Squid

o            Facilitating rapid analytics deployment via analytics as a service to maximise effectiveness and competitive edge

Mike Ferguson is Managing Director of Intelligent Business Strategies. He specialises in BI, analytics- and data management. With over 38 years of IT experience, he has consulted for many companies, spoken at events all over the world and written many articles. Formerly he was co-founder of Codd and Date – the inventors of the Relational Model, Chief Architect at Teradata and European CEO of DataBase Associates
Mike Ferguson
Mike Ferguson
Vortrag: Mi 4.3
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:10
Mi 5.3
Ein Vorgehensmodell für KI-Projekte aus Business-Perspektive
Ein Vorgehensmodell für KI-Projekte aus Business-Perspektive

Das vorliegende Forschungsvorhaben fokussiert die Unterstützung von Business-Anwendern bei der Identifikation, Modellierung und Umsetzung von KI-Projekten. Hierfür wurde ein Vorgehensmodell entwickelt, welches Business-Anwender vom Scouting für geeignete Anwendungsfälle, über das high-level Design und die Konfiguration der KI-basierten Applikation bis zur Umsetzung des Projektes begleiten. Das Modell besteht aus dem KI-Periodensystem, Der KI-Applikations-Taxonomie sowie einem Artefakt zur Umsetzung von KI-Projekten, welches sich derzeit in der Validierungsphase befindet. Das KI-Periodensystem erlaubt im ersten Schritt des Modells die Auswahl von KI-Funktionalitäten entlang eines Agenten-basierten Ansatzes und ermöglicht dem Anwender somit die Erstellung eines high-level Design. Da die Funktionalitäten jeweils mit den menschlichen Intelligenzformen hinterlegt sind, ermöglicht das Artefakt zusätzlich die Diskussion zu den organisatorischen Auswirkungen im unmittelbaren Umfeld der potenziellen KI-Applikation. Im zweiten Schritt des Vorgehensmodells wird das KI-basierte System ebenfalls entlang der Agenten-basierten Perspektive konfiguriert. Die Komponenten und Charakteristika der KI-Applikations-Taxonomie ermöglichen dem Anwender eine gezielte Konfiguration der Anwendung, welche anschliessend als Grundlage für die Spezifikation der Anforderungen an das jeweilige System genutzt werden können. Die Taxonomie eignet sich ausserdem zur strategischen Analyse von Konkurrenz-Applikationen oder zur Auswahl beim Einkauf KI-basierter Applikationen. Im dritten und letzten Schritt des Vorgehensmodells wird die Umsetzung des KI-Projektes entlang des Data Science-/CRISP-Prozesses inkl. in den jeweiligen Projektabschnitten beteiligten Rollen und Risiken dargestellt. Hierbei sollen Business-Anwender nicht nur bei der Orientierung innerhalb des Projektes unterstützt werden, sondern vor allem zur Kommunikation befähigt werden. Aufgrund dessen enthält das dritte Artefakt einen reichhaltigen Fundus an KI-Algorithmen, welche den jeweiligen Projektphasen zugeordnet und definiert sind. Somit erhält der Business-Anwender nicht nur einen Überblick über das gesamthafte Vorgehen zur Umsetzung des KI-Projektes, sondern wird befähigt, die KI-spezifische Terminologie zu verstehen und anzuwenden. Die zuvor genannten Artefakte wurden bzw. werden basierend auf dem Design Science Research-Ansatz in einem Konsortialforschungsprojekt sowie mittels Literaturanalysen, Umfragen und Fokusgruppen-Interviews entwickelt. Das Vorgehensmodell soll in seiner Gesamtheit einen Beitrag zur Umsetzbarkeit von KI-Projekten und zum KI-Verständnis für Business-Anwender leisten. Andererseits bieten die enthaltenen Artefakte Unterstützung bei der Analyse und Auswahl von KI-Systemen, Konfigurationen und Algorithmen und halten gemäss der Rückmeldungen von Experten grossen Mehrwert für die Praxis bereit, bei einigen Unternehmen befinden sich die Artefakte bereits im Einsatz. Ziel der Präsentation ist die kritische Diskussion der Zusammenhänge zwischen den einzelnen Artefakten sowie die Auseinandersetzung mit dem Modell zur Auswahl von KI-Algorithmen im vierten und letzten Schritt des Vorgehensmodells.

Identifikation neuer Angriffsmuster im Netzwerkverkehr: Entwicklung einer Intrusion-Detection-Architektur basierend auf ART-Netzwerken
Identifikation neuer Angriffsmuster im Netzwerkverkehr: Entwicklung einer Intrusion-Detection-Architektur basierend auf ART-Netzwerken

70% aller deutschen Unternehmen und Institutionen sind von Cyberkriminalität betroffen und die Bedrohungslage sowie die Schäden durch Cyberkriminalität steigen stetig weiter an (BSI, 2018, S. 15; BKA, 2017). Um sich dieser Bedrohung zu stellen, kommen immer häufiger auch Intrusion-Detection-Systeme zum Einsatz. Künstliche Neuronale Netzwerke der Adaptiven Resonanztheorie sind dabei in der Lage eine grundlegende Frage zu lösen: Wie kann ein solches System automatisch neuartige Angriffe erkennen und in seine Wissensrepräsentation integrieren?

Bildungsweg
10/2017 – 01/2020 Studium Business Intelligence & Analytics (M.Sc.)
Technische Universität Chemnitz
10/2014 – 09/2017 Studium Wirtschaftsinformatik (B.Sc.)
Berufsakademie Dresden
08/2006 – 07/2014 Abitur (allgemeine Hochschulreife)
Gymnasium Dresden-Klotzsche Berufserfahrung
Seit 02/2020 TU Chemnitz – Professur Wirtschaftsinformatik II
Wissenschaftlicher Mitarbeiter
03/2018 – 09/2019 TU Chemnitz – Professur Wirtschaftsinformatik II
Wissenschaftliche Hilfskraft
  • Unterstützung Lehre, insb. Data Mining
  • Begleitung wissenschaftlicher Projekte
10/2014 – 09/2017 Sächsische Aufbaubank -Förderbank-Duales Studium
  • insb. Stabseinheit Compliance und Informationssicherheit
  • Begleitung Zertifizierung nach ISO 27001 auf Basis von IT-Grundschutz
  • Informationsrisikoanalyse
Christian Dietzmann
Tom Kühne
Christian Dietzmann
Vortrag: Mi 5.3-1

Vortrag Teilen

Tom Kühne
Vortrag: Mi 5.3-2
flag VORTRAG MERKEN

Vortrag Teilen

12:10 - 12:25
Short Break
Short Break
Short Break

12:25 - 13:10
KeyMi
KEYNOTE: Corporate IT Is a Theater Piece - What Role Are You Playing?
KEYNOTE: Corporate IT Is a Theater Piece - What Role Are You Playing?

The engagement of IT staff in organizations has been done for decades via a single function or department. Whatever title it bears, the single counter IT takes care of everything under the digital sun. This model generates unhealthy behaviors in the IT ranks that are detrimental to the enterprises that need digital to operate, evolve, transform —or survive. 

Drawing a parallel with a more mature industry, the current distribution of roles is analyzed and compared. It shows that the standard structure is creating conflicts of roles that would be unacceptable —and in some cases illegal— in many other fields of work.  

The typical IT engagement model in organizations has a direct effect on what constitutes success and how it is measured. These measures -in their current state- create a ripple effect on quality and value of digital investments.  

You should come to the inevitable conclusion:  it is more than time to radically re-think how technology teams engage in organizations.

Over three decades, R.M. has held multiple roles in the IT departments of mid to large organizations: programmer, business analyst, tester, database administrator, solution architect, data architect, enterprise architect, systems integrator. He also held several IT management positions, leading teams of architects and designers in insurance, telecommunications, banking, and travel & transportation.  
As a result of that relentless quest for an answer to all sorts of questions, R.M. has published a business book and regularly writes on LinkedIn and his blog about IT strategic management challenges.  He is also a member of the core team of the Intersection Group, a multi-disciplinary focussed on sharing ways to design better enterprises. 
Mr Bastien holds a bachelor’s degree in Management Information Systems and a Research-Oriented Masters in Business Administration. He’s been a certified project management professional PMP© for more than 15 years. When not working professionally, he renovates old houses or skips sailboats across oceans.
R.M. Bastien
R.M. Bastien
Track: Keynote
Vortrag: KeyMi
flag VORTRAG MERKEN

Vortrag Teilen

13:10 - 14:30
Lunch Break
Lunch Break
Lunch Break

14:30 - 15:40
Mi 1.4
Qualitätsoffensive für agile DWH Entwicklung
Qualitätsoffensive für agile DWH Entwicklung

Um die wachsende Anzahl Nutzer und damit steigende Anforderungen an einem System bewältigen zu können, sowie die Effizienz und Qualität des Entwicklungsprozesses zu steigern, haben sich in der klassischen Softwareentwicklung Prinzipien, wie Continuous Integration (CI) und Test Driven Development (TDD) durchgesetzt. Dieses Seminar möchte beantworten, was hinter CI und TDD steckt und wie diese Prinzipien in den Lifecycle von DWH-Systemen eingebunden werden.

Zielpublikum: BI/DWH Entscheider, BI/DWH Programm- und Projektleiter, BI/DWH Architekten und Entwickler, interessierte IT- und Fachbereichsverantwortliche und Anwender Voraussetzungen: Voraussetzung sind grundlegende Kenntnisse in den Bereichen Daten- und Informationsmanagement. Fortgeschrittene Expertise in den Bereichen Data Warehouse Konzeption, Architektur, Entwicklung und Betrieb ist vorteilhaft. Schwierigkeitsgrad: Fortgeschritten

Dominik Schuster unterstützt Unternehmen seit nunmehr fünf Jahren bei der Konzeption, Weiterentwicklung und Optimierung von innovativen, sowie nachhaltigen Business-Intelligence- und Data-Warehouse-Lösungen. Bei b.telligent hat er im Competence Center 'Data Integration and Architecture' seinen Schwerpunkt in der DWH-Automatisierung und ganzheitlichen Optimierung.
Pascal Beyer ist Berater mit dem Schwerpunkt Daten Integration und Daten Architektur bei b.telligent und berät seit drei Jahre Kunden aus verschiedenen Branchen, wie z.B. Versicherungen zu den Themen Business Intelligence und Data Warehousing. Seine Projekterfahrung umfasst dabei den kompletten Wertschöpfungsprozess von der Analyse, Planung, Konzeption und Umsetzung von branchenübergreifenden Projektvorhaben mit Fokus auf Prozess- und Anforderungsanalyse sowie operatives Kampagnenmanagement und Marketing-Strategie.
Dominik Schuster, Pascal Beyer
Dominik Schuster, Pascal Beyer
Vortrag: Mi 1.4
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:40
Mi 2.4
Data Science in der Versicherungsbranche – Status und Trends
Data Science in der Versicherungsbranche – Status und Trends

Data Science hat sich mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert. Nun gilt es einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann. Anhand eines Use Case aus der Versicherungsbranche wird aufgezeigt, wie sich Data Science verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.

Zielpublikum: Data Scientist, Projektmanager, Entscheidungsträger, KI-Verantwortliche
Voraussetzungen: Grundlegende Kenntnisse der Data Science sind für den Talk von Vorteil, stellen aber keine Muss-Anforderung dar.
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Nachdem sich Data Science mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert hat, gilt es nun einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann.

Der Beitrag gibt einen Überblick zum Status quo der Data Science Nutzung in Unternehmen und stellt aktuelle Trends vor. Im Anschluss wird anhand eines Use Case aus der Versicherungsbranche konkret aufgezeigt, wie sich Data Science im Wertschöpfungsprozess verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.

Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe – Technik und Wirtschaft. Dort vertritt er u. a. die Bereiche Business Intelligence und Geschäftsprozessmanagement im Fachgebiet Informatik. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.
Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.
Uwe Haneke, Michael Zimmer
Uwe Haneke, Michael Zimmer
Vortrag: Mi 2.4
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:40
Mi 3.4
Trains run better on data: Betrieb und Wartung optimiert!
Trains run better on data: Betrieb und Wartung optimiert!

In einem pragmatischen Erfahrungsbericht erklärt Siemens Mobility wie sie mit der Railigent Plattform die Digitalisierung in einem sehr traditionellen Umfeld etablieren. Dabei ist immer der erzielte Nutzen im Fokus des Projektes. Betreiber von Zügen profitieren von einem daten-getriebenen Ansatz durch reduzierte Wartungskosten und optimierten Nutzungsgrad. Visuelle Analytik ist nur der Anfang, wenn Predictive Analytics Zusammenhänge aufzeigt und Echtzeit-Informationen Entscheidungen beim operationalen Betrieb der Züge verbessern.

Zielpublikum: Entscheider, CDO, CIO, Leiter CC, Architekten
Voraussetzungen: Basic understanding of buisiness value in analytics
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Business Challenge:

To prevent delays due to equipment failures, Siemens Mobility needed to provide fast, accurate insights to customers through its app. The company needed real-time analytics for both IoT and legacy data.

Solution:

With the Railigent platform, Siemens customers get insights via Railigent, the Siemens Mobility app. The app allows for automated corrective action and quick decision-making.

Predicting failures before they occur is possible with data analysis at the edge. Siemens collects every piece of data it can – most of which is collected via sensors at the edge – then cleans and prepares it for analysis. Some trains have nearly 2,000 components that must be monitored while they are traveling; for example, to detect vibration patterns of train bearings. Older trains pose difficult data challenges, but the company still needs to be able to monitor and measure their performance and make improvements.

Markus Hollfelder ist seit 1997 in verschiedenen Rollen bei Siemens Mobility tätig. Er hat tiefgreifende Erfahrung im Bereich Datenmanagement / Data Warehousing, leitete diverse Projekte im Umfeld BI und Analytics und ist derzeit der sog. Technical Project Owner für BI Themen, u.a. im Rahmen das vorgestellte Railigent Projektes
Dirk Schober ist ein Experte darin, Herausforderungen beim Kunden zu identifizieren und zu beschreiben. Er hat über 12 Jahre Erfahrung im Design von Lösungen rund um Analytics und das damit verbundene Datenmanagement. Er arbeitet als Presales Experte bei TIBCO und vormals bei IBM. Fokusbereiche sind durchgängige 'data-driven' Lösungen in der Fertigung, Industrie, Handel und im Bereich Pharma.
Markus Hollfelder, Dirk Schober
Markus Hollfelder, Dirk Schober
Track: IoT
Vortrag: Mi 3.4
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 18:10
Mi 4.4
Best practices in DataOps for analytics
Best practices in DataOps for analytics

Analytics team are struggling to create, publish, and maintain analytics to meet demand. Many analytics projects fail to meet expectations and deliver value. DataOps is the new approach combining tools and approaches to simplify the development of analytics and ensuring high quality data. DataOps shortens the life cycles, reduces technical debit and increases analytics success. This session covers the best practices for the analytics team to deliver DataOps.

Target Audience: Data scientists, project leaders, analyst, data engineers, project sponsors, business leaders
Prerequisites: None
Level: Professional

Extended Abstract:
DataOps is the next generation of analytics delivery that addresses the major issues of analytics technical debt, reuse of code, data quality, and incorporates the flexibility of agile. This session defines what DataOps is (it is not DevOps) and highlights the best practices to address some of the largest challenges preventing analytics teams from delivering analytics value. The session outlines how DataOps is used to inspire teamwork, improve data quality, incorporate agile delivery, and establish an environment for reuse and innovation.

With over 20 years of experience, Dr. Larson is an active practitioner and academic focusing on BI, data warehousing, analytics, and AI. Dr. Larson completed her doctorate in management in information technology leadership. She holds Project Management Professional (PMP) and Certified Business Intelligence Professional (CBIP) certifications. Dr. Larson attended AT&T Executive Training at Harvard Business School in 2001, focusing on IT leadership. She is a regular contributor to TDWI publications and presents several times a year at conferences. Dr. Larson is principal faculty at City University of Seattle in the United States.
Deanne Larson
Deanne Larson
Vortrag: Mi 4.4
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:40
Mi 5.4
Open Economy of Things (EoT) im Kontext der Digitalisierung
Open Economy of Things (EoT) im Kontext der Digitalisierung

Durch die Integration digitaler Zahlungsströme in ein IoT-System werden Interaktion zwischen Objekten um eine wirtschaftliche Komponente erweitert. Dies schafft die Grundlage für ein digitales und offenes Wirtschaftssystem – die Economy of Things (EoT). Hierbei soll untersucht werden, welche Voraussetzungen eine EoT erfüllen muss, um einen Mehrwert in der Praxis zu stiften. Ziel der Arbeit ist es, ein Modell für die Gestaltung einer solchen EoT zu erstellen und zu evaluieren.

2009 – 2012      Ausbildung zum Mechatroniker/BK bei der Robert Bosch GmbH in Schwieberdingen
2012 – 2016      Bachelor-Studium der Fahrzeugtechnik mit Fachrichtung After-Sales/Service an der Hochschule Esslingen
2016 – 2019      Master-Studium des Technologiemanagements an der Universität Stuttgart
2019 – Heute    Wissenschaftlicher Mitarbeiter am Ferdinand-Steinbeis-Institut (FSTI)
Bildbasierende Qualitätssicherung und Defekterkennung via Image Mining und Computer Vision
Bildbasierende Qualitätssicherung und Defekterkennung via Image Mining und Computer Vision

Systeme zur Defekterkennung und Qualitätssicherung in der Produktion verfolgen das Ziel, Ausschussraten zu minimieren und Qualitätsstandards einzuhalten. Die dadurch angestrebte Reduktion der Produktionskosten folgt dem übergeordneten Ziel, der Maximierung der Wertschöpfung. Zu diesem Zweck lassen sich bildbasierende- sowie analytische Methoden und Techniken kombinieren. Die Konzepte Computer Vision und Image Mining bilden hierbei die Grundlage, um aus Bilddaten einen Wissensgewinn im Hinblick auf die Produktqualität zu generieren. Im Rahmen dieses Vortrags werden die Unterschiede und Gemeinsamkeiten der beiden Konzepte erläutert und anhand eines Prototyps für die Additive Fertigung erklärt.

Sebastian Trinks ist wissenschaftlicher Mitarbeiter und Doktorand am Institut für Wirtschaftsinformatik an der TU Bergakademie Freiberg. Seine Forschungsinteressen sowie der Schwerpunkt seiner Dissertation liegen im Spannungsfeld der Industrie 4.0 sowie der Smart Factory. Herr Trinks forscht in diesem Kontext zu Themen aus den Bereichen Real Time Analytics, Edge Computing sowie Image Processing und Image Mining.
Sven Kurrle
Sebastian Trinks
Sven Kurrle
Vortrag: Mi 5.4-1

Vortrag Teilen

Sebastian Trinks
Vortrag: Mi 5.4-2
flag VORTRAG MERKEN

Vortrag Teilen

15:40 - 16:10
Break
Break
Break

16:10 - 16:50
Mi 1.5
Echte Transformation durch die Arbeit an Sichtweisen (Bias)!
Echte Transformation durch die Arbeit an Sichtweisen (Bias)!

Für jede Transformation gilt: Sie ist der Übergang vom Bewährten zum Neuen! Es versteht sich, dass es dabei Befürworter und Skeptiker gibt. Beide Parteien wollen dabei nur das Beste für ihre Organisation und folgen einer in sich schlüssigen Logik. Mit der Zeit entstehen Gräben und es bilden sich Fronten. Dies mündet in einen Teufelskreis, der die Zusammenarbeit erschwert und in Kompromisse, die am Ende beiden Lagern recht geben. Der Referent zeigt anhand von Kundenbeispielen wie Führungsteams in vier Schritten gemeinsam die Zukunft gestalten.

Zielpublikum: Project leader, decision makers, Transformation Leads
Vorraussetzungen: Transformationserfahrung oder Erfahrung mit komplexen Projekten und Veränderungen
Schwierigkeitsgrad: Fortgeschritten

Hermann Ladner vereint naturwissenschaftliches Denken mit betriebswirtschaftlichem Verständnis. Seit 25 Jahren beschäftigt er sich an vorderster Front mit der Arbeit an Sichtweisen von Menschen und Bias. Im Life Institut ist er für das Thema den Fortschritt nutzen und Unternehmenstransformation verantwortlich. Unter seiner Führung entstand das «Gestalte die Zukunft!» Programm. Damit nutzen Organisationen den Fortschritt und gestalten die Zukunft.
Hermann Ladner
Hermann Ladner
Vortrag: Mi 1.5
flag VORTRAG MERKEN

Vortrag Teilen

16:10 - 16:50
Mi 2.5
Starterkit Data Governance für die Deutsche Bahn
Starterkit Data Governance für die Deutsche Bahn

Die Wertschöpfung durch Daten ist heute ein zentrales Thema. CDOs werden installiert, BICCs als zentrale Einheiten für die Schöpfung von Potenzialen der Daten geschaffen. In der Operationalisierung stellt sich dann schnell heraus, dass es eines Fundamentes bedarf. Data Governance gibt Antworten auf diese Fragen. Das Data Governance Starterkit DB ermöglicht einen strukturierten Einstieg ins Thema, gibt Orientierung, macht den Standort transparent und weist den Weg.

Zielpublikum: CDO, CIO, Data Office, Data Council, Verantwortliche für datengetriebene Initiativen und Programme
Voraussetzungen: Ambitionen im Kontext datengetriebener Initiativen
Schwierigkeitsgrad: Fortgeschritten

Dipl.-Ing. Maschinenbau, seit 2001 bei DB Systel. Als Product Owner des Teams Data Strategy berät er dort verschiedene Kunden aus dem gesamten DB-Konzern im Hinblick auf die strategische und fachliche Umsetzung von Analytics- und Big Data-Themen.
Sein Beratungsschwerpunkt liegt im Bereich Datenstrategie und Data Governance sowie Aufbau und Implementierung datengetriebener Governance und Compliance Management Systeme. Außerdem agiert er als interner Trainer für verschiedene Projektthemen.
Ulrich Prätorius
Ulrich Prätorius
Vortrag: Mi 2.5
flag VORTRAG MERKEN

Vortrag Teilen

16:10 - 16:50
Mi 3.5
Machine learning raises industry 4.0 to the next level
Machine learning raises industry 4.0 to the next level

How is machine learning used in the real world? How did our customer Liebherr mitigate the problem of unreliable suppliers, therefore making their manufacturing process more efficient? How can our customers work their way through thousands of documents, quickly identifying the relevant ones? In this talk, Data Scientist Björn Heinen will elaborate on his past and current projects in the manufacturing industry by explaining how tangible customer problems have been solved using classical machine learning algorithms, computer vision and more.

Target Audience: The session is intended to reach those interested who are working in the machine and system engineering industry or those in other sectors who would like to optimize their processes with the help of AI and use business data successfully in the long term.
Prerequisites: No prerequisites needed.
Level: Basic

Björn Heinen is a Senior Data Scientist at INFORM. He is involved in both, internal projects in which existing INFORM products are enhanced with machine learning functionalities, as well as external projects, which he follows from development to implementation.
Björn Heinen
Björn Heinen
Track: IoT
Vortrag: Mi 3.5
flag VORTRAG MERKEN

Vortrag Teilen

16:10 - 16:50
Mi 5.5
Designing Role-Specific Self-Service Business Intelligence & Analytics Systems in the Data Science Ecosystem
Designing Role-Specific Self-Service Business Intelligence & Analytics Systems in the Data Science Ecosystem

06/2019 – ongoing: Research Assistant at KIT in ”Self-Service Business Intelligence and Analytics”-Industry Project together with the Robert Bosch GmbH
05/2018 – 05/2019: Data Scientist at the Robert Bosch GmbH, Business Unit Indirect Purchasing
10/2015 – 04/2018: M.Sc. Information Engineering and Management at the Karlsruher Institute of Technology (KIT)
10/2014 – 09/2015: Key Account Manager at www.adtelligence.com External Link (Website Personalization Solutions)
10/2011 – 09/2014: B.A. Digital Media at DHBW Mannheim in Cooperation with www.suchdialog.de External Link (Online Marketing Agency)
Sven Michalczyk
Sven Michalczyk
Vortrag: Mi 5.5
flag VORTRAG MERKEN

Vortrag Teilen

16:50 - 17:00
Short Break
Short Break
Short Break

17:00 - 18:10
Mi 2.6
AI as a Service – Machine Learning mit Kubeflow
AI as a Service – Machine Learning mit Kubeflow

Kubeflow ist ein mächtiges Framework für die Entwicklung, Überwachung und Operationalisierung von KI. Die Ressourcen für das Trainieren, Optimieren oder das Serving der Modelle stellt Kubeflow 'As a Service' bereit. Einzelne Schritte werden in einer Pipeline mit Kubernetes in einem Cluster ausgeführt On Premise, in der Cloud oder Hybrid in verschiedenen Umgebungen. Dabei werden notwendige Ressourcen dynamisch allokiert. In einer Live Demonstration wird Kubeflow zusammen mit Tensorflow und Tensorflow Extended (TFX) vorgestellt.

Zielpublikum: Data Scientists, project leader,
Voraussetzungen: Grundkenntnisse KI
Schwierigkeitsgrad: Advanced

Extended Abstract:
Kubeflow ist eine auf Kubernetes aufsetzende Applikation, die aus mehr als 80 einzelnen Microservices zusammengestellt ist. Kubeflow ist von Google entwickelt worden und als Open Source Projekt veröffentlicht worden. Kubeflow läuft auf Kubernetes und damit wahlweise in der Cloud oder On Premise. Alle großen Cloudprovider bieten Kubeflow 'as a Service' an, was das Provisioning sehr einfach macht. Kubeflow setzt auf Argo als Workflow Engine auf. Einzelne Schritte wie die Datenvalidierung, die Modellerstellung, das eigentliche Trainieren oder das Serving, also die Verwendung von KI in den operativen Prozessen eines Unternehmens, werden von Argo orchestriert. Kubeflow kann als Multi-Tenant Solution aufgesetzt werden, um unterschiedliche Projekte und Kunden gleichzeitig zu unterstützen. Selbstverständlich ist Kubeflow Multi-User fähig und bringt eine eigene Benutzerverwaltung mit. Die Entwicklung geschieht über Notebook-Server, die Jupyter Notebooks dem Entwickler zur Verfügung stellen.

Kubeflow kann mit anderen KI-Frameworks, beispielsweise Tensorflow und Tensorflow Extended (TFX) kombiniert werden. Alle Prozesse werden als Pipeline designed und ausgeführt. Die Überwachung der Pipelines geschieht über einen Metadata Store. Dies beinhaltet vom Data Scientist definierte Metriken zur Überwachung ebenso wie einen direkten Zugriff auf Tensorboard für eine weiterführende Analyse. Die dafür notwendigen Artefakte werden in Minio persistiert, einem Open Source Object Store.

The speaker Matthias Braun studied Mathematics and Physics. He works as consultant for Business Intelligence and Business Analytics for more than 10 years. Matthias Braun started in 2015 at Trevisto AG, a consultant company for digitalisation, Business Intelligence and AI. At Trevisto, he is responsible for the development of an AI framework including the full project life cycle starting from a proof-of-concept phase until operation and monitoring of the solution. He has worked in various data scientist projects.
Matthias Braun
Matthias Braun
Vortrag: Mi 2.6
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:10
Mi 3.6
Deepfakes 2.0 – Wie neuronale Netze unsere Welt verändern
Deepfakes 2.0 – Wie neuronale Netze unsere Welt verändern

Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz.

Zielpublikum: Data Engineer, Data Scientist, Project Leader, Decision Makers
Voraussetzungen: Basic AI Knowledge
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.

In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.

Martin Förtsch ist ein IT-Berater der TNG Technology Consulting GmbH und studierte Informatik. Seine Arbeitsschwerpunkte sind Agile Development (hauptsächlich) in Java. Als Oracle JavaOne Rockstar, Intel Software Innovator und Black Belt Developer ist er darüber hinaus in der Entwicklung von Open-Source Software im Bereich der 3D-Kameratechnologien und dem Internet of Things involviert.
Thomas Endres arbeitet in der Rolle eines Partners als IT-Consultant für TNG Technology Consulting in München. Neben seinen Tätigkeiten für Kundenprojekte, entwickelte er für das TNG Innovation Hacking an Anwendungen im Bereich der AR/VR, KI sowie der Gestensteuerung. Darüber hinaus ist er in verschiedenen Open-Source-Projekten in Java, C# und allen Spielarten von JavaScript involviert.
Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Deepfakes, Mixed Reality KI-Kunstwerken und autonom fliegenden Minidrohnen. 
Martin Förtsch, Thomas Endres, Jonas Mayer
Martin Förtsch, Thomas Endres, Jonas Mayer
Track: IoT
Vortrag: Mi 3.6
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:10
Mi 5.6
Panel: Business Intelligence & Analytics und KI – getrennte Welten?
Panel: Business Intelligence & Analytics und KI – getrennte Welten?

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Sebastian Olbrich is a graduated economist from the University of Mannheim. He wrote his master thesis in collaboration with McKinsey & Company which won an award for technological innovation sponsored by Fraunhofer Institute. He holds a doctoral degree from the School of Business Administration and Economics, department of Management Information Systems, Philipp’s University at Marburg; which was written in collaboration with SAP and the state of Hessen. He has extensive working experience as managing consultant, interim manager and data scientist. He worked most of his career with PricewaterhouseCoopers (PwC) / Strategy& (Booz) in the fields of Corporate Performance Management (CPM), Business Intelligence (BI) and IT Strategy / CIO Advisory Services.
Currently he is employed as Senior Director with Capgemini Invent in the practice of Insights Driven Enterprise (IDE). He leads Insights-Driven Business Innovation (IDBI) a group of 35+ Data Scientists and Business Analysts in DACH region.
Dr. Olbrich (co-)authored more than 50 academic articles. He received his tenure (PD) from the University Duisburg-Essen where he is still involved in several research projects concerning Business Technology & Innovation (BTI) and lecturing in the Master program for Analytics as well as supervising PhD theses. He is a highly demanded speaker at conferences and lecturer for executive education – mainly in the fields of Artificial Intelligence and the monetization of data assets. He served as professor for Information Systems and Digital Business at European Business School (EBS) in Östrich-Winkel. His overall research agenda focuses on data-driven innovation, information management and analytical business models.
Dr. rer. pol. Henning Baars ist Akademischer Oberrat am Lehrstuhl für ABWL und Wirtschaftsinformatik 1 der Universität Stuttgart und Sprecher der Fachgruppe „Business Intelligence“ der Gesellschaft für Informatik. Seit 2003 ist er an der Universität Stuttgart beschäftigt. Aktuelle Forschungsthemen sind „Agile Business Intelligence“, „BI und Big Data“, „BI in the Cloud“ sowie „BI und Analytics im Internet of Things“.
Dr. Ralf Finger arbeitet seit 1992 erfolgreich in Projekten zur Konzeption, Realisierung und Einführung individueller Business Intelligence, Analytics und Data Warehouse Lösungen für namhafte deutsche Großunternehmen. Aktuelle Beratungsschwerpunkte bilden strategische Technologieentscheidungen, Analytics Strategien sowie der Wertbeitrag von Datenstrategien. Dr. Finger studierte Betriebswirtschaft mit den Schwerpunkten Organisation und Unternehmensrechnung und promovierte in Wirtschaftsinformatik. Dr. Finger ist als CIIA und CEFA zertifizierter Finanzanalyst und Certified BI Professional (CBIP). Er ist Lehrbeauftragter für Business Intelligence an der Universität Stuttgart, Fachbeirat des TDWI (The Data Warehousing Institute e.V.) und TDWI Europe Fellow. Ferner ist er stellvertretender Sprecher der Arbeitsgruppe Smart Analytics in der Deutschen SAP Anwendergruppe e.V. (DSAG) und Mitglied des Leitungsgremiums der Fachgruppe Business Intelligence in der Gesellschaft für Informatik e.V. (GI). Dr. Finger ist Co-Author diverser Strategieleitfäden, so z.B. für SAP HANA Strategie sowie SAP Advanced Analytics der DSAG e.V. oder den TDWI Leitfäden zu Big Data und Cloud BI. 
Carsten Felden, Sebastian Olbrich, Henning Baars, Ralf Finger
Carsten Felden, Sebastian Olbrich, Henning Baars, Ralf Finger
Vortrag: Mi 5.6
flag VORTRAG MERKEN

Vortrag Teilen

Zurück