TDWI@Home-Programm

Sie schaffen es leider nicht nach München, möchten aber bei der TDWI Konferenz 2022 mit dabei sein? Dann nutzen Sie unser TDWI@Home-Ticket. Wir freuen uns auch wieder virtuell auf Sie!
 
» Direkt zur Ticketbuchung

Aktueller Stand des des Programms vom 23.05.2022. Weitere Vorträge folgen in Kürze.

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Montag
    20.06.
  • Dienstag
    21.06.
  • Mittwoch
    22.06.
, (Montag, 20.Juni 2022)
09:30 - 10:30
KeyMo1
ERÖFFNUNG und KEYNOTE: Welcome to the Real World: Data, Science and Supply Chain network optimization at Amazon
ERÖFFNUNG und KEYNOTE: Welcome to the Real World: Data, Science and Supply Chain network optimization at Amazon

Have you ever ordered a product on Amazon websites and, when the box arrived, wondered how you got it so fast, how much it would have cost Amazon, how much carbon it emitted and what kinds of systems & processes must be running behind the scenes to power the whole operation?

Let’s take a look behind the scenes and open the doors of Amazon Data and Analytics teams to explore how the combination of our people and our advanced algorithms are working together to deliver to our customers millions of diverse products every day all across the globe. 

From the moment we order products from our vendor partners, until we deliver to our customer doorsteps, we use dozens of systems, pieces of software, Machine Learning algorithms and Petabytes of data to optimize our operations. Together, they orchestrate what we call our fulfillment network and optimize the reliability, delivery speed, cost and carbon emissions of our products, packages and trucks. 

Together, we will follow the journey of a customer order, and dive into the different steps of our fulfillment operations:

  1. Forecasting how much volume will flow on our network
  2. Buying the right quantities and placing our inventory at the right location
  3. Designing an efficient outbound network
  4. Executing operational excellence to delight customers

We strive to be the earth’s most customer centric company, today let’s take a look into what it means! 

Dominique Vitali is Director of the EU Customer Experience team at Amazon and in charge of Supply Chain and Transportation network optimization through analytics for the European customers – Delivery accuracy/Delivery
Speed/Fulfillment Cost Reduction/Carbon Intensity reduction. Managing a team of 25 analysts, program managers and data scientists.

Dominique Vitali
Dominique Vitali
Track: #Keynote
Vortrag: KeyMo1
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:15
Mo 2.1
ROOM K3 | Datenethik - Kompass für werteorientierte Data Governance
ROOM K3 | Datenethik - Kompass für werteorientierte Data Governance

Wir erleben zurzeit, wie die Digitalisierung unsere Realität dramatisch verändert. So verwundert es nicht, dass in diesem Zusammenhang Fragen zur Ethik, nach einem verlässlichen Koordinatensystem von Werten, immer häufiger gestellt werden. Im Fokus des Vortrags steht der 'richtige' Umgang mit Daten im analytischen Ökosystem des Unternehmens und beleuchtet u.a. folgende Aspekte:

  • Aufbau von Vertrauen und Akzeptanz als Schlüssel in der Kundenbeziehung
  • DSGVO und Datenethik 
  • Rollenspezifische Aspekte der Datenethik (Entwickler, Designer, Nutzer)

Zielpublikum: für alle, die sich professionell mit Daten beschäftigen
Voraussetzungen: Keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Inhalt in der Struktur wie der Vortrag beim RT in Hamburg. Natürlich mit aktualisierten Insights aus Praxis und Wissenschaft.
Wir erleben zurzeit, wie die Digitalisierung unsere Realität dramatisch verändert. Gesetze und Prinzipien, die über lange Zeit ihre Gültigkeit hatten, müssen auf den Prüfstand gestellt werden, weil die Veränderungen nie dagewesene Handlungsoptionen bieten - im Guten wie im Schlechten. So verwundert es nicht, dass gerade im Zusammenhang mit der Digitalisierung und Big Data Fragen zur Ethik und Moral, nach einem verlässlichen Koordinatensystem von Werten, immer häufiger gestellt werden.
Die Auswirkungen der Datenverarbeitung und Datenanalyse auf den Einzelnen und auf die Gesellschaft werden immer gravierender, daher wird der Ruf nach verbindlichen Richtlinien für die Berufsgruppen, die sich professionell mit dem Sammeln, Verarbeiten und Analysieren von Daten beschäftigen, immer dringlicher. Brauchen wir eine Berufsethik für den Data Scientist?
Die aktuell geführten Debatten zur Datenethik sind geprägt durch Auswirkungen von KI und algorithmischen Entscheidungsverfahren auf unseren Alltag, wie beim autonomen Fahren oder in der Pflege (Pflegeroboter). Ein weiterer oft diskutierter Aspekt ist das hemmungslose Sammeln von Daten der IT-Giganten wie Google oder Facebook, was zu den Begriffen Daten- bzw. Überwachungskapitalismus geführt hat.
Im Fokus des Vortrags steht der 'richtige' Umgang mit Daten im analytischen Ökosystem eines Unternehmens. Dabei werden u.a. folgende Aspekte und Fragestellungen betrachtet:
Was versteht man unter Datenethik?
Wie kann Vertrauen und Akzeptanz bei den Kunden durch den richtigen Umgang mit den Daten auf- bzw. ausgebaut werden?
Wem gehören die Daten?
Was heißt Corporate Digital Responsibility?
Was hat die DSGVO mit Datenethik zu tun?
Analytisches Ökosystem und Datenethik (Perspektive auf die Daten, Perspektive auf die Algorithmen)
Rollenspezifische Aspekte der Datenethik im analytischen Ökosystem (Entwickler, Designer, Nutzer)

Seit über 20 Jahren berät Christian Winter in Software und regulatorischen Projekten. Als Volljurist, Datenschutzbeauftragter und zertifizierter Datenschutzauditor ist es ihm ein besonderes Anliegen, die gesetzlichen Rahmenbedingungen anschaulich und zielgruppenorientiert zu vermitteln.
Als Co-Autor wird er Insights aus dem im Juni 2022 erscheinenden FINCON E-Book „Datenethik - Wege zu einer neuen Datenkultur in Zeiten von Digitalisierung und KI” präsentieren.

Seit 1998 berät und coacht Lars von Lipinski Unternehmen bzgl. Data Governance und Analytic-Themen in verschiedensten Rollen und verantwortet die externe Strategie der FINCON Unternehmensberatung für dieses Kompetenzcenter.
Er verfasste u. a. das TDWI E-Book 'Die neue EU-Datenschutzgrundverordnung - Auswirkungen auf Geschäftsprozesse und Analytische Informationssysteme'.

Christian Winter, Lars von Lipinski
Christian Winter, Lars von Lipinski
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:15
Mo 5.1
ROOM K4 | Operationalizing Machine Learning in the Enterprise
ROOM K4 | Operationalizing Machine Learning in the Enterprise

What does it take to operationalize machine learning and AI in an enterprise setting? This seems easy but it is difficult. Vendors say that you only need smart people, some tools, and some data. The reality is that to go from the environment needed to build ML applications to a stable production environment in an enterprise is a long journey. This session describes the nature of ML and AI applications, explains important operations concepts, and offers advice for anyone trying to build and deploy such systems.

Target Audience: analytics manager, data scientist, data engineer, architect, IT operations
Prerequisites: Basic knowledge of data and analytics work
Level: Basic

Extended Abstract:
What does it take to operationalize machine learning and AI in an enterprise setting?
Machine learning in an enterprise setting is difficult, but it seems easy. You are told that all you need is some smart people, some tools, and some data. To travel from the environment needed to build ML applications to an environment for running them 24 hours a day in an enterprise is a long journey.
Most of what we know about production ML and AI come from the world of web and digital startups and consumer services, where ML is a core part of the services they provide. These companies have fewer constraints than most enterprises do.
This session describes the nature of ML and AI applications and the overall environment they operate in, explains some important concepts about production operations, and offers some observations and advice for anyone trying to build and deploy such systems.

Mark Madsen is a Fellow in the Technology & Innovation Office at Teradata where he works on the use of data and analytics to augment human decision-making and evolve organizational systems. Mark worked for the past 25 years in the field of analytics and decision support, starting with AI at the University of Pittsburgh and robotics at Carnegie Mellon University. He is also on the faculty of TDWI.

Mark Madsen
Mark Madsen
flag VORTRAG MERKEN

Vortrag Teilen

12:30 - 13:00
TDWInsights Mo
TDWI Themenzirkel Self-Service und Analytics
TDWI Themenzirkel Self-Service und Analytics

Der Themenzirkel richtet sich an Fachabteilungen die planen, Self Service im Unternehmen aktiv zu nutzen sowie BI und IT Verantwortliche, die den Roll Out koordinieren wollen. Im Rahmen der TDWI München 2022 geben die Sprecher einen Einblick in die Themen und Erfahrungen des Themenzirkels.

Carsten Blöcker ist Gründer und Geschäftsführer der cloudimpulse GmbH und kann dort sein Herzensthema Business Intelligence in allen Facetten ausleben. Mit über 20 Jahren Berufserfahrung im Banking mit Schwerpunkt auf Datenmanagement und Reportingsysteme liegt ihm die Verbindung zwischen effizientem und qualitativ hochwertigem Reporting und einem funktionierenden Backend sehr am Herzen. Mit cloudimpulse macht er es sich zur Aufgabe, die Schnittstelle zwischen Fachbereich und IT im Rahmen von BI-Projekten effizient zu strukturieren und Klarheit über die Schnittstellen zu schaffen. Hilfe zur Selbsthilfe und Standardisierung von Prozessen stehen dabei im Vordergrund seiner Beratungsleistungen.

Artur König ist Informatiker mit aktuellem Tätigkeitsschwerpunkt in den Bereichen BI-Beratung, Daten-Architektur und Datenanalyse. Er ist seit 2016 bei der Scopevisio AG tätig, einem mittelständischen Hersteller von Cloud Unternehmenssoftware mit Sitz in Bonn. 

Zurzeit verantwortet er das Customizing und die Umsetzung individueller Lösungen in Kundenprojekten, wobei ein wesentlicher Schwerpunkt Erweiterungen im Bereich des Reporting sind. Die Aufgaben umfassen die Entwicklung von Reporting-Standards und Konzeption sowie Umsetzung von kundenindividuellen Datenstrukturen und  Auswertungen.

Zuvor war er acht Jahre bei der DATEV eG im Consulting mit dem Fokus auf IT-Compliance und IT-Sicherheit tätig. Er besitzt mehrere Zertifizierungen im Bereich der IT-Sicherheit und des Datenschutzes und hat umfassende Erfahrung als Referent für Sicherheits- und Compliance-Themen sowie bei der Umsetzung rechtlicher Anforderungen in der betrieblichen Praxis.

Neben den beruflichen Tätigkeiten ist er als Dozent bei der FOM, als Organisator der Berliner Power BI Usergroup sowie in mehreren Themenzirkeln des TDWI aktiv.

Philipp von Loringhoven ist Designer, Entwickler, Marketeer und Daten-Nerd. Als Freelancer ist er gefangen zwischen Marketing, Produktentwicklung, Business Intelligence und Analytics - er hilft Unternehmen ihre Kunden besser zu verstehen, um mit ihnen zielführender zu kommunizieren. Gleichzeitig ist Host des DataEngage Podcasts und der daily-data.news Plattform.

TDWI Young Guns über Ihren Community Talk und den Interaktiven Stadtrundgang
TDWI Young Guns über Ihren Community Talk und den Interaktiven Stadtrundgang

Im Konferenzprogramm der TDWI München 2022 sind die TDWI Young Guns mit zwei Sessions vertreten. In diesem Kurzformat geben Julian Ereth und Raphael Branger einen kurzen Einblick in den TDWI Community Talk "Data Management 4 AI" und den "interaktiven Stadtrundgang durch Agile BI City".

Julian Ereth is a researcher and practicioner in the area of Business Intelligence and Analytics. As a solution architect at Pragmatic Apps he plans and builds analytical landscapes and custom software solutions. He is also enganged with the TDWI and hosts the TDWI StackTalk.

Raphael ist Co-Autor des Buchs „How to succeed with Agile Business Intelligence”, welches 2022 erscheint. Er arbeitet als Principal Consultant Data & Analytics bei der IT-Logix AG. Er hilft Organisationen, ihre Anforderungen rund um Daten und 'Analytics' zu erheben und umzusetzen. Er ist zugleich Stratege, Architekt, Requirements Engineer, Agile Coach, aber auch Entwickler. Dadurch bringt er eine ganzheitliche Sicht in seine Projekte ein.

Carsten Blöcker, Artur König, Philipp von Loringhoven
Julian Ereth, Raphael Branger
Carsten Blöcker, Artur König, Philipp von Loringhoven
Vortrag: TDWInsights Mo1

Vortrag Teilen

Julian Ereth, Raphael Branger
Vortrag: TDWInsights Mo1
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 4.2
ROOM K3 | Helping organizations to master the data challenge
ROOM K3 | Helping organizations to master the data challenge

Missing data leadership, lack of vision, data-unliterate business units, data in silos, no data- and analytics-governance - The symptoms of a missing data strategy are unmistakable. Whilst organizations strive to exploit the benefits promised from data & analytics, corporate well thought data strategies are rather an exception than rule. We would like to exchange best practices and experiences for designing & implementing sustainable yet pragmatic data strategies for organizations.

Target Audience: Practitioners for data strategy consulting, (Data-) decision makers in organizations, Data leaders, BI & AI team leaders
Prerequisites: Experience and knowledge in the area of analytics, BI or AI; data use cases
Level: Basic

Extended Abstract:
TOC draft

  • Overview elements of a data strategy
  • Typical initial situations in organizations
  • Toolkits and methodologies when designing data strategies
  • Exchange of experiences & best practices 

Jens is a seasoned Data Scientist and Strategist with more than 15 years of professional experience in generating business value from data using Analytics, Data Science & AI. He led many data projects with measurable success for renowned international clients. Today, he helps organizations to design and implement data strategies for their digital transformation journeys.

Boris and his team are working passionately to drive the adoption of solutions and processes that enable people to make healthy, data driven decisions. These approaches cover the entire data value added chain starting from raw data to sophisticated Business Intelligence Applications or AI solutions based on modern data science.

Jens Linden, Boris Michel
Jens Linden, Boris Michel
Vortrag: Mo 4.2
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 5.2
ROOM K4 | KI-Lösung ist das Ziel - mit ML Engineering erreichen Sie es
ROOM K4 | KI-Lösung ist das Ziel - mit ML Engineering erreichen Sie es

Künstliche Intelligenz ist schon längst dem Pionierzeitalter entwachsen. Doch um mit dem Einsatz von KI einen echten Mehrwert für das Unternehmen zu schaffen, kommt es auf die qualitativ hochwertige Bereitstellung von Daten an. Hier kommt ML Engineering ins Spiel - ein Konzept zur Bewältigung der hohen Komplexität von Daten bei der Entwicklung von KI-Systemen. Im Vortrag wird eine ML Engineering Roadmap vorgestellt, mit der dieses häufig unterschätzte und doch so kritische Konzept erfolgreich eingesetzt werden kann.

Zielpublikum: Data Engineer, Data Scientist, Unternehmer mit praktischem KI-Interesse
Voraussetzungen: Interesse an KI- und ML-Themen, Grundlagen- bis fortgeschrittene Kenntnisse in den Bereichen Data Science und/oder Data Engineering
Schwierigkeitsgrad: Fortgeschritten

Lars Nielsch ist als Principle Solution Architect Analytics & Cloud bei Adastra tätig. Nach seinem Studium der Angewandten Informatik an der TU Dresden ist er seit 1998 in der BIA-Beratung tätig. Seine besonderen Interessen liegen in den Themen Enterprise BI, Large Databases, Data Engineering (ETL-Design), Data Science (MLOps) und Big-Data-Architekturen (Data Vault, Data Lake, Streaming).

ROOM K4 | One Size Does Not Fit All: Make The Right Data Mesh For You
ROOM K4 | One Size Does Not Fit All: Make The Right Data Mesh For You

As the data mesh paradigm takes the industry by storm, the conversation deep dives into the architecture, neglecting the socio-organizational element. Data driven organizations must invest not only in infrastructure but also data organization and culture. 

Target Audience: Executive, senior business managers
Prerequisites: None
Level: Basic

Jennifer Belissent joined Snowflake as Principal Data Strategist in early 2021, having most recently spent 12 years at Forrester Research as an internationally recognized expert in establishing data and analytics organizations and exploiting data's potential value. Jennifer is widely published and a frequent speaker. Previously, Jennifer held management positions in the Silicon Valley, designed urban policy programs in Eastern Europe and Russia, and taught math as a Peace Corps volunteer in Central Africa. Jennifer earned a Ph.D. and an M.A. in political science from Stanford University and a B.A. in econometrics from the University of Virginia. She currently lives in the French Alps, and is an avid alpinist and intrepid world traveler.

Lars Nielsch
Jennifer Belissent
Lars Nielsch

Vortrag Teilen

Jennifer Belissent
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:45
Mo 4.3
ROOM K3 | Kleine Daten, kleine Sorgen, große Daten, große Sorgen
ROOM K3 | Kleine Daten, kleine Sorgen, große Daten, große Sorgen

Höher, schneller, weiter scheint immer noch das Grundprinzip der Data & Analytics Community zu sein.

In Zeiten von Informations- und Kommunikationsüberfluss stellt sich die Frage, ob mit mehr Daten der Mehrwert in gleichem Maß steigt. 

Der Vortrag möchte aufzeigen, warum wir umdenken sollten. Relevanz steht vor Menge - es geht nicht um die Menge der verarbeiteten Daten, sondern um die Menge der sinnvoll genutzten Daten.

Es wird aufgezeigt, wie Anwender gezielter unterstützt und Prozesse automatisiert werden können.

Zielpublikum: Business Users, Head of BICC, CIO
Voraussetzungen: None
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Höher, schneller, weiter scheint immer noch das Grundprinzip der Data & Analytics Community zu sein. Mit immer besseren Technologien, die auf der Grundlage von Cloud-Services immer einfacher zugreifbar werden, werden immer mehr Daten, immer schneller und immer intelligenter verarbeitet.

In Zeiten von Informations- und Kommunikationsüberfluss stellt sich die Frage, ob mit mehr Daten der Mehrwert in gleichem Maß steigt. Werden wirklich mehr Use-Cases zu Business-Cases oder an welcher Stelle wird getrieben durch Daten das Geschäftsmodell verbessert.

Der Vortrag möchte aufzeigen, warum wir umdenken sollten. Relevanz steht vor Menge - es geht nicht um die Menge der verarbeiteten Daten, sondern um die Menge der sinnvoll genutzten Daten.
Zunächst wird aufgezeigt, warum das Problem nicht erst mit Big Data aufgekommen ist, sondern vielmehr schon ein Dauerbrenner bei der Analyse von Daten ist.
Im Weiteren wird dargestellt, wie Anwender besser dabei unterstützt werden können, Informationen einfacher und gezielter zu verarbeiten. Dabei wird die Bedeutung von Data Governance oder auch aktuellen Trendthemen wie Data Democracy oder Data Literacy näher beleuchtet.

Weil es sich um einen zentralen Punkt bei vielen Digitalisierungsprojekten handelt, geht es abschließend darum, sich mit dem Potenzial der Automatisierung von Entscheidungen und damit von Prozessen auf der Grundlage von Daten auseinanderzusetzen. 

Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Oktober 2021 ist er Senior Advisor New Business & Strategy bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge zur Entwicklung des Data & Analytics-Marktes veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Klaus-Dieter Schulze ist seit 2012 Mitglied im Vorstand des TDWI e.V.

Dr. Jörg Westermayer leitet das Competence Center Data Strategy & Governance bei b.telligent. Er verfügt über mehr als 20 Jahre Beratungs- und Führungserfahrung im Bereich Business Intelligence. Seine aktuellen Beratungsschwerpunkte sind Datenstrategie, Data Governance und Datenqualitätsmanagement. Zu diesen Themen hat er Fachartikel, Buchbeiträge und Fachvorträge vorgelegt.

ROOM K3 | Optimierte Geschäftsentscheidung durch humanisierte Analytik
ROOM K3 | Optimierte Geschäftsentscheidung durch humanisierte Analytik

In diesem Vortrag werden die Teilnehmer 

  • die drei wesentlichen Säulen einer guten Geschäftsentscheidung kennenlernen
  • erfahren, wie sie diese am Beispiel kundenzentrierter Prozesse anwenden können
  • ein Framework zur nachhaltigen Etablierung auf Basis des SAP-Lösungsportfolios kennenlernen.

Zielpublikum: Entscheidungsträger, an Customer Experience interessierte Teilnehmer
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Intelligente Unternehmen zeichnen sich durch gute Geschäftsentscheidungen aus. Diese Entscheidungen basieren auf Daten, entstehen in konkreten Prozessen und haben Auswirkungen auf die Geschäftsentwicklung. 
Am Beispiel der kundenzentrierten Prozesse (Vertrieb, Service, Marketing, eCommerce) und deren Abbildung im SAP Customer Experience Portfolio werden diese Komponenten insbesondere im Hinblick auf das Zusammenspiel mit den beteiligten Personas dargestellt.

Wir geben einen Überblick über die beteiligten Produkte und zeigen, wie die konsequente Einbeziehung von Personas Geschäftsentscheidungen optimiert.

Dr. Thomas Zachrau hat in theoretischer Physik promoviert und beschäftigt sich seit über 25 Jahren leidenschaftlich mit Analytik. Die Analyse kundenzentrierter Prozesse und die Bedeutung von Geschäftsentscheidungen für Anwender und Kunden liegen ihm besonders am Herzen. Als Senior Manager bei Syskoplan Reply ist er für den Bereich Analytik auf Basis von SAP-Lösungen verantwortlich.

Klaus-Dieter Schulze, Jörg Westermayer
Thomas Zachrau
Klaus-Dieter Schulze, Jörg Westermayer
Vortrag: Mo 4.3-1

Vortrag Teilen

Thomas Zachrau
Vortrag: Mo 4.3-2
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:45
Mo 5.3
ROOM K4 | Data Management 4 AI - TDWI Community Talk inkl. Panel
ROOM K4 | Data Management 4 AI - TDWI Community Talk inkl. Panel

The real magic of AI lays in well managed data to build and train the underlying models. Accordingly, streamlined data management process are essential for success in AI. In this session we are going to discuss data management for AI and ask questions like 'What is data management for AI?', 'Are there difference to well-known approaches from BI & Analytics' and 'Do we need special AI data engineers?'.
TDWI Community Talk is an open format to discuss current topics in the area of data analytics within the TDWI community.

Target Audience: All data entheusiasts
Prerequisites: No prerequisites
Level: Basic

Extended Abstract:
The area of artificial intelligence is currently trending and transforms BIA landscapes in many organizations. There are many new initiatives and promises, however, to build all these fancy applications a well-thought data management is necessary. Nevertheless, the discussion of AI often focuses various models and cool programming languages and the underlying data engineering is often neglected. This is why this session focuses data management for AI and discusses approaches and best practices with the TDWI community.

The goal of this session is:

  1. Give the audience an overview what 'Data Management for AI' means and what basic terms are.
  2. Discuss current best practices and challenges with experts and the audience.
  3. Reflect different views on differences between processes in AI and BI, the role of a data engineer, software tools and many more.

The 'TDWI Data Schnack' is an interactive format that wants to engange the discussion in the TDWI community. It provides a plattform that highlights different aspects of a current topic and inspires discussions between experts and other community members. Therefore, the course of a Data Schnack session contains a short introduction talk that introduces a basic understanding of the topic. Followed by a panel discussion with experts from different fields. Lastly, an open discussion integrates the audience to share knowledge between all participants.

Julian Ereth is a researcher and practicioner in the area of Business Intelligence and Analytics. As a solution architect at Pragmatic Apps he plans and builds analytical landscapes and custom software solutions. He is also enganged with the TDWI and hosts the TDWI StackTalk.

Timo Klerx ist Gründer und Data Scientist von und bei paiqo und hilft Kunden bei der Konzeption und Umsetzung von Projekten im Bereich Artificial Intelligence / Data Science / Machine Learning.
Die ersten Berührungen mit AI hatte Timo in einem Forschungsprojekt zur automatischen Manipulationserkennung von Geldautomaten.
Bevor er sein eigenes Startup gründete, sammelte er Erfahrungen in einem anderen Data Science Startup und fokussierte sich dort auf den Bereich Machine Analytics inkl. Use Cases wie Predictive Maintenance und Predictive Quality.
Weiterhin engagiert sich Timo bei diversen Data Science Meetups in Paderborn, Münster und gesamt NRW.

Malte Lange ist Produktverantwortlicher für Data Analytics bei der Finanz Informatik, dem zentralen Digitalisierungspartner in der Sparkassen-Finanzgruppe.
Die Schaffung von datengetriebenen Banking Lösungen ist seit 2019 sein Themenschwerpunkt. Unter anderem verantwortet er die omni-channelfähige Kundenansprache „Next Best Action“ für die digitale Finanzplattform OSPlus und sorgt für die Weiterentwicklung der zentralen Data Analytics Plattform für analytische Anwendungsfälle im OSPlus. Gemeinsam mit Partnern in der Sparkassen-Finanzgruppe entwickelt er neue datengetriebene Lösungsansätze für Sparkassen, um das Potential vorhandener Daten zu realisieren.    

Julian Ereth, Timo Klerx, Malte Lange
Julian Ereth, Timo Klerx, Malte Lange
flag VORTRAG MERKEN

Vortrag Teilen

17:15 - 18:30
Mo 5.4
ROOM K4 | Explainable AI - Why interpret-able models are good models
ROOM K4 | Explainable AI - Why interpret-able models are good models

Machine learning and AI have changed the world of data processing and automation at a breathtaking pace, at the cost of turning algorithms into hard-to-control and monitor black boxes.
We present methods and concepts of explainable AI that aim to open the black box and tame these algorithms.

Target Audience: Decision-Makers/Stake Holders in AI & model development, Data Scientists
Prerequisites: general awareness of modeling pipeline and challenges, no coding/math skill required
Level: Basic

Maximilian Nowottnick is a Data Scientist at the full-service data science provider Supper & Supper GmbH from Germany. He has a B.Sc. and a M.Sc. in Physics and extensive knowledge in developing AI solutions in the areas of GeoAI and Mechanical Engineering. He was one of the driving engineers to develop the first SaaS solution of Supper & Supper, called Pointly for 3D point cloud classification.

ROOM K4 | Harness the power of language with NLP in the Cloud
ROOM K4 | Harness the power of language with NLP in the Cloud

Natural Language Processing (NLP) allows us to deeply understand and derive insights from language, ultimately leading to more automated processes, lower costs, and data-driven business decisions. 
Google is recognized as a market leader in AI and has built a range of solutions incorporating NLP to address a myriad of business challenges. This talk will introduce a few possible solutions, as well as some business use cases on how to incorporate them in a variety of industries.

Target Audience: Middle and upper-level management, Business users with AI/machine learning challenges, BI/Data professionals
Prerequisites: Basic knowledge of machine learning and cloud technology, interest in NLP
Level: Intermediate

Catherine King is a Customer Engineer at Google Cloud and is a Google Cloud Certified Professional Data Engineer. She works with customers in the Public Sector and supports them in digital transformations, big data analytics, and artificial intelligence implementations. Before Google, she worked for many years in the Translation Industry designing Machine Translation models for enterprise clients.
Catherine holds an MSc in Data Science and is passionate about decision science and data-driven cultures.

Maximilian Nowottnick
Catherine King
Maximilian Nowottnick

Vortrag Teilen

Catherine King
flag VORTRAG MERKEN

Vortrag Teilen

17:15 - 18:30
Mo 6.4
ROOM K3 | DWH-Migration in die AWS Cloud - Fast and Easy
ROOM K3 | DWH-Migration in die AWS Cloud - Fast and Easy

Porsche hat in den vergangenen Jahren ein DWH mit konsolidierten Fertigungsdaten on premises aufgebaut. Entsprechend der Cloud-Strategie werden nun sukzessive Lösungen in die Cloud migriert. Dieser Cloud-Move der DWH-Lösung ist aber nicht nur ein trivialer Wechsel von on prem in die Cloud. Neben der Datenplattform betrifft dieser Wechsel natürlich auch die Datenflüsse. Dank des eingesetzten Metadata-Driven Ansatzes ist die Migration aber kein Hexenwerk. Im Vortrag werden die Migrationsschritte aufgezeigt und erläutert.

Zielpublikum: Data Engineer, Project leader, decision makers, ...
Voraussetzungen: Basic knowledge, experience in data warehousing and cloud technologies
Schwierigkeitsgrad: Einsteiger

Gregor Zeiler ist seit dreißig Jahren in verschiedenen Funktionen in der Business Intelligence-Beratung tätig. Im Zuge seiner beruflichen Tätigkeit konnte er umfangreiche Projekterfahrung in vielen Branchen und auf Basis eines breiten Technologiespektrums sammeln. Zahlreiche Publikationen und Vorträge begleiten seine berufliche Tätigkeit. Als CEO bei biGENIUS AG kommt er seiner Passion die Prozesse in der Entwicklung von Data Analytics Lösungen zu optimieren nach.

Gregor Zeiler
Gregor Zeiler
flag VORTRAG MERKEN

Vortrag Teilen

18:45 - 19:30
KeyMo2
SPECIAL KEYNOTE: Haie, Höhlen, tiefes Wasser – Expeditionen unter dem Meer
SPECIAL KEYNOTE: Haie, Höhlen, tiefes Wasser – Expeditionen unter dem Meer

Im Leben des Unterwasserfotografen und Terra X Moderators Uli Kunz bedeutet ein Büro-Tag, dass er von winzigen Booten ins bodenlose Blau des Meeres springt, von Haien umringt oder von Robben angeknabbert wird, mit 150 Kilogramm Ausrüstung durch wassergefüllte Höhlen schwimmt, gefährliche Geisternetze aus dem Wasser zieht oder singenden Walen in der Arktis lauscht.
Der Meeresbiologe nimmt regelmäßig an abenteuerlichen Forschungsexpeditionen teil, von denen er faszinierende Unterwasserfotos mit nach Hause bringt. Für die aufwendigen Arbeiten in der Tiefe gelten die gleichen Prinzipien wie an Land: Projekte müssen genau geplant und effizient durchgeführt werden, die Mitglieder des Teams müssen motiviert miteinander kommunizieren und der Umgang mit riskanten Situationen muss mehrfach trainiert werden. Selbstüberschätzung führt bei der Bedienung einer Kaffeemaschine meist nur zu unschönen Flecken und schlechtem Geschmack. Beim Tauchen stellt sie ein tödliches Risiko dar.
In seiner Show berichtet Uli Kunz von denkwürdigen Begegnungen mit den faszinierenden Lebewesen der Ozeane, von gewaltigen Unterwasserwäldern, neugierigen Robben und riesigen Buckelwalen, von denen er fast verschluckt wurde. Da er die Begegnung heil überstanden hat, kann er nun auch davon erzählen...
Uli möchte mit seinen Erzählungen und Bildern den Schutz der Ozeane vorantreiben, den größten Lebensraum auf der Erde, dessen Geheimnisse wir gerade erst zu verstehen beginnen. 

Im Leben des Unterwasserfotografen und Terra X Moderators Uli Kunz bedeutet ein Büro-Tag, dass er von winzigen Booten ins bodenlose Blau des Meeres springt, von Haien umringt oder von Robben angeknabbert wird, mit 150 Kilogramm Ausrüstung durch wassergefüllte Höhlen schwimmt, gefährliche Geisternetze aus dem Wasser zieht oder singenden Walen in der Arktis lauscht.

Uli Kunz
Uli Kunz
Track: #Keynote
Vortrag: KeyMo2
flag VORTRAG MERKEN

Vortrag Teilen

, (Dienstag, 21.Juni 2022)
09:00 - 10:15
Di 3.1
ROOM K3 | Data Architecture: Data Lake vs Lakehouse vs Data Mesh
ROOM K3 | Data Architecture: Data Lake vs Lakehouse vs Data Mesh

In order to succeed in creating a data driven enterprise it is clear that choosing the right data architecture is now critical. This session explores the evolution of data and analytics architecture and looks at what is needed to shorten time to value and create a data driven enterprise. It looks at the pros and cons of data lake, lakehouse and data mesh architectures and asks: Is there a best approach? Is a lot more than this needed to succeed?

Target Audience: Data architects, CDOs, CAOs, enterprise architects, data scientists, business analysts
Prerequisites: Basic understanding of data architectures used in supporting analytical workloads
Level: Advanced

Extended Abstract:
In many companies today the desire to become data driven goes all the way to the boardroom. The expectation is that as more and more data enters the enterprise, it should be possible to understand and use it to quickly and easily drive business value. In order to succeed in creating a data driven enterprise it is clear that choosing the right data architecture is now critical. However, data and analytics architecture has been evolving over recent years to a point where now there are multiple options. Is it a data lake that is needed? Is it a lakehouse? Or is it a data mesh? Should this be the focus or is it just vendor hype to fuel their own interests?  What are the pros and cons of these options? Is there a best approach? Is a lot more than this needed to succeed? This session explores the evolution of data and analytics architecture and looks at what is needed to shorten time to value and create a data driven enterprise.

  • Data and analytics - where are we?
  • Data and analytics architecture evolution
  • Architecture options and their pros and cons - data lake Vs lakehouse Vs data mesh
  • The shift to data fabric, DataOps, and MLOps to industrialise pipeline development and model deployment
  • Using a data and analytics marketplace to putting analytics to work across the enterprise

 

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

Mike Ferguson
Mike Ferguson
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:15
Di 4.1
ROOM K4 | Best Practice Self Service & Analytics in großen Unternehmen
ROOM K4 | Best Practice Self Service & Analytics in großen Unternehmen

Die Einführung von Self Service in größeren Unternehmen bringt eine hohe Komplexität mit sich. Die Session zeigt Best-Practice-Ansätze, wie man Data Literacy unternehmensweit etabliert, wie man ein Schulungsprogramm aufsetzt und welche technischen Herausforderungen es zu beachten gilt. Die daraus folgende Data Culture und Governance im Umgang mit Daten und welche Potenziale sich ergeben werden anschaulich aufgezeigt.

Zielpublikum: IT-Leiter, Fachabteilungen, Controlling, BI-Verantwortliche
Voraussetzungen: Basic Knowledge
Schwierigkeitsgrad: Einsteiger

Der Buchautor und Dashboardexperte Andreas Wiener hat über 10 Jahre Erfahrung im Erstellen und der Etablierung von Dashboards in Unternehmen. Er hat zahlreiche Bücher und Artikel geschrieben und gehört zu einem der führenden Visualisierungs- und Dashboardexperten in Europa.

Oliver Ulbrich ist Head of Consulting bei der reportingimpulse GmbH. Er ist Multi-Projektleiter für Konzerne und den wachstumsstarken Mittelstand. Seine Beratungsthemen sind Self Service, Analytics, Dashboarding und Visualisierung. Zudem entwickelt er stetig neue Lösungen für seine Kunden vor allem in den Bereichen Einführung und Transformation von modernen Analytics Anwendungen. Darüber hinaus ist er Host in wöchentlichen Streams zum Thema Data sowie Moderator im BI or DIE Podcast mit über 25.000 Abonnenten. In seiner Freizeit beschäftigt er sich mit Cryptowährungen und NFTs und checkt gelegentlich die Fußball Ergebnisse vom FC St. Pauli.

Andreas Wiener, Oliver Ulbrich
Andreas Wiener, Oliver Ulbrich
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:00
Di 3.2
ROOM K3 | Data Lakehouse: Marketing Hype or New Architecture?
ROOM K3 | Data Lakehouse: Marketing Hype or New Architecture?

The data lakehouse is the new popular data architecture. In a nutshell, the data lakehouse is a combination of a data warehouse and a data lake. It makes a lot of sense to combine them, because they are sharing the same data and similar logic. This session discusses all aspects of data warehouses and data lakes, including data quality, data governance, auditability, performance, historic data, and data integration, to determine if the data lakehouse is a marketing hype or whether this is really a valuable and realistic new data architecture.

Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists
Prerequisites: General knowledge of databases, data warehousing and BI
Level: Basic

Extended Abstract:
The data lakehouse is the new kid on the block in the world of data architectures. In a nutshell, the data lakehouse is a combination of a data warehouse and a data lake. In other words, this architecture is developed to support a typical data warehouse workload plus a data lake workload. It holds structured, semi-structured and unstructured data. Technically, in a data lake house the data is stored in files that can be accessed by any type of tool and database server. The data is not kept hostage by a specific database server. SQL engines are also able to access that data efficiently for more traditional business intelligence workloads. And data scientists can create their descriptive and prescriptive models directly on the data.  

It makes a lot of sense to combine these two worlds, because they are sharing the same data and they are sharing logic. But is this really possible? Or is this all too good to be true? This session discusses all aspects of data warehouses and data lakes, including data quality, data governance, auditability, performance, immutability, historic data, and data integration, to determine if the data lakehouse is a marketing hype or whether this is really a valuable and realistic new data architecture.

Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.

Rick van der Lans
Rick van der Lans
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:00
Di 4.2
ROOM K4 | Data Vault Automatisierung in der Cloud
ROOM K4 | Data Vault Automatisierung in der Cloud

Beim Aufbau moderner DWHs kann man sich dem Thema 'Cloud' nur noch schwer entziehen. Echte Cloud-Datenbank wie z.B. Snowflake weisen den Weg konsequent in Richtung einer skalierbaren Datenplattform. Aufseiten der ETL-Werkzeuge kristallisiert sich mit Matillion ein herausragendes Werkzeug für Cloud DWH heraus. Mithilfe eines intelligenten Frameworks und einer agilen Vorgehensweise zeigt dieser Vortrag, wie Unternehmen die Data Vault-Modellierung mit der Skalierbarkeit der Cloud verbinden können.

Zielpublikum: DWH & BI-Experten, BI-Manager, Data Engineer
Voraussetzungen: DWH Grundwissen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Moderne DWHs basieren in der Regel auf einer Data Vault-Modellierung. Data Vault zeichnet sich durch eine extreme Flexibilität und Erweiterbarkeit aus, die aber u.a. durch eine Vielzahl an Datenbankobjekten mit entsprechend vielen Referenzen erkauft wird. Eine manuelle Erstellung eines Data Vault-Modells inkl. der Ladroutinen verbietet sich schon vor dem Hintergrund des zu erwartenden Arbeitsaufwandes. Vielmehr noch schreit ein Data Vault-Modell aufgrund der hohen Standardisierung geradezu nach einer Automatisierung oder zumindest automatisierten Generierung.  

Matillion bietet auf den ersten Blick keine Möglichkeit, komplexe Datenmodelle zu erzeugen oder gar ELT-Prozesse zu automatisieren. Matillion bietet aber sehr wohl das technische Grundgerüst, um eine Automatisierung zu entwerfen und auszuführen. Dieser Herausforderung hat sich areto angenommen und einen DV-Generator-Framework entwickelt, das den Aufbau eines Data Vault-basierten DWHs automatisiert und sowohl die Datenmodellierung als auch die Datenbewirtschaftung anhand weniger Metadaten realisiert.  

Der areto DV-Generator basiert auf Matillion Standardoperator und der Fähigkeit Matillions, alle Operatoren mittels Variablen zu dynamisieren. Der Anwender muss lediglich ein paar Metadaten pflegen und die Fragen beantworten, die im Zuge jeder Data Vault-Modellierung gestellt werden. Auf Basis dieser Daten wird dann ein komplettes Data Vault 2.0-Modell generiert und beladen. Dem Entwickler steht somit eine Ergänzung zu Matillion zur Verfügung, die es ermöglicht, innerhalb sehr kurzer Zeit ein komplett standardisiertes und auf Best Practices basierendes DWH zu generieren und sukzessive zu erweitern.

 

André Dörr, BI Consultant und Data Engineer bei areto consulting. Als zertifizierter Data Vault 2.0 Practitioner (CDVP2) verfügt er über mehr als 12 Jahre Erfahrung in BI-Projekten in verschiedenen Industriesektoren. Er ist derzeit ein führender Data-Warehouse-Architekt bei areto, Sprecher auf Konferenzen und Autor des auf Sportwetten fokussierten Data Science Blogs https://beatthebookie.blog. André hat eine Leidenschaft dafür, Daten zum Leben zu erwecken und interessante Geschichten zu erzählen, die den digitalen Wandel in Unternehmen vorantreiben.

André Dörr
André Dörr
flag VORTRAG MERKEN

Vortrag Teilen

12:15 - 13:00
KeyDi
KEYNOTE: The information enabled company – a long way to digital transformation
KEYNOTE: The information enabled company – a long way to digital transformation

Digital transformation is in a way a never-ending journey. Recent trends put high expectations on AI technologies for process automation, insight generation and decision support. In Hilti, we see information generated from our data as substantial contribution to the success of our business. 
We will describe how we put the user and the usage of information in the center of our initiative of an information enabled company. Hilti’s journey towards process, data and system consolidation serves as an excellent foundation for that. We present the foundational technologies we put in place to manage the increasing amount and variety of data, as well as our “Integrated Information Management” approach. We will especially focus on advanced analytics and AI and give examples for successful implementations, but also highlight challenges, especially when it comes to change management and taking the organization along.

In his function as Head of Information Management in Global IT, Ralf Diekmann is responsible for all reporting, data engineering, and analytics solutions of Hilti AG globally. Ralf holds a PhD in Computer Science from the Paderborn Center of Parallel Computing. He joined Hilti AG 22 years ago as research engineer and since then held various positions in business and IT incl. Global Process responsibility, SAP implementation manager, Head of Process Governance, and various leadership functions in Hilti’s Global IT department. 

Andreas Wagner is leading the Data Science team at Hilti. In this role he is delivering DS projects, shaping the DS strategy at Hilti, recruiting Data Scientists and further developing the necessary ML toolbox. Andreas Wagner has more than five years’ experience in this field and is nine years at Hilti. Andreas holds a PhD in theoretical Physics. 

Ralf Diekmann, Andreas Wagner
Ralf Diekmann, Andreas Wagner
Track: #Keynote
Vortrag: KeyDi
flag VORTRAG MERKEN

Vortrag Teilen

13:15 - 13:45
TDWInsights Di
Interview with Brian O'Neill
Interview with Brian O'Neill

At TDWI München Brian will hold a Workshop on "Designing Human-Centered Data Products". In this interview, he provides insights about what participants can expect in the workshop.

Brian T. O'Neill helps data product leaders use design to create indispensable ML and analytics solutions. In addition to helping launch several successful startups, he's brought design-driven innovation to DellEMC, Tripadvisor, JP Morgan Chase, NetApp, Roche, Abbvie, and others. Brian also hosts the Experiencing Data podcast, advises at MIT Sandbox, and performs as a professional percussionist.

Data Management 4 AI
Data Management 4 AI

Henning Baars und Julian Ereht berichten über Ihr neues Seminar "Data Management 4 AI". Warum ist das Thema gerade jetzt so aktuell? Welche Inhalte behandeln die beiden in Ihrem Seminar? Und wie entsteht eigentlich ein TDWI-Seminar? Einblicke hinter die Kulissen der TDWI Seminare.

Julian Ereth is a researcher and practicioner in the area of Business Intelligence and Analytics. As a solution architect at Pragmatic Apps he plans and builds analytical landscapes and custom software solutions. He is also enganged with the TDWI and hosts the TDWI StackTalk.

Dr. rer. pol. Henning Baars ist Akademischer Oberrat am Lehrstuhl für ABWL und Wirtschaftsinformatik 1 der Universität Stuttgart und Sprecher der Fachgruppe „Business Intelligence“ der Gesellschaft für Informatik. Seit 2003 ist er an der Universität Stuttgart beschäftigt. Aktuelle Forschungsthemen sind „Agile Business Intelligence“, „BI und Big Data“, „BI in the Cloud“ sowie „BI und Analytics im Internet of Things“.
Brian O'Neill
Julian Ereth, Henning Baars
Brian O'Neill
Vortrag: TDWInsights Di1

Vortrag Teilen

Julian Ereth, Henning Baars
Vortrag: TDWInsights Di2
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 16:00
Di 3.3
ROOM K3 | How to Design a Logical Data Fabric?
ROOM K3 | How to Design a Logical Data Fabric?

A popular new architecture for offering frictionless access to data is the data fabric. With a data fabric, existing transactional and data delivery systems are wrapped (encapsulated) to make all of them look like one integrated system. A data fabric enables all data consumers to access and manipulate data. Technically, data is accessed and used through services. But data fabrics cannot be bought, they need to be designed and developed. This session discusses key guidelines for designing data fabrics.

Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists
Prerequisites: General knowledge of databases, data warehousing and BI
Level: Advanced

Extended Abstract:
Companies are becoming increasingly dependent on data. Having access to the right data at the right time is essential. This implies that users need frictionless access to all the data, wherever it is stored, in a transactional database, a data warehouse, or a data lake. It does not matter to users where data comes from as long as it meets all their requirements. Users do not want to be hindered by all the data delivery silos. They want one system that gives them access to all the data they need.

The solution to provide frictionless access cannot be data warehouse-like, wherein all the data is copied (again) to one big central database. In this second era of data integration, integration must be achieved without copying. A new solution must be based on a single universal entry point to access all data. Where and how the data is stored, whether it is stored in various databases, must be completely hidden from data users.

A popular new architecture that supports this approach is data fabric. With a data fabric, existing transactional and data delivery systems are wrapped (encapsulated) to make all the independent systems look like one integrated system.  

A data fabric is formed by a software layer that resides on top of all the existing transactional silos and data delivery silos, enabling all data consumers to access and manipulate data. Technically, data is accessed and used through services.  

A real data fabric supports any type of service, whether this is a more transactional or analytical service. And especially the second group of services is complex to develop. Maybe analytical services based on predefined queries are not that complex to develop, but how are such services developed that need to deal with ad-hoc queries?

This session explains the need for data fabrics that support all types of services and discusses key guidelines for designing data fabrics. Technologies are discussed that help with developing such services.

  •  What a data fabric is, and why you need one
  • How you can architect a service-centric fabric to gain flexibility and agility
  • The data management and integration capabilities that are most relevant
  •  Where to start your journey to data fabric success
  •  What is logical data fabric?

 

Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.

Rick van der Lans
Rick van der Lans
Vortrag: Di 3.3
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 16:00
Di 6.3
ROOM K4 | Wie Sie das IoT im Modern Data Warehouse effektiv nutzen
ROOM K4 | Wie Sie das IoT im Modern Data Warehouse effektiv nutzen

Dank hoch flexibler Cloud-Technologien ist das Modern Data Warehouse wie geschaffen für den Aufbau von Internet-of-Things(IoT)-Lösungen. Doch wie sieht eine leistungsfähige Architektur aus? Insbesondere, wenn immer mehr Streaming-Quellen direkt in die Datenanalyse einfließen sollen?  

Jens Kröhnert und Christoph Epping bauen vor den Augen des Publikums eine vollständige IoT-Infrastruktur auf und spielen konkrete Einsatzszenarien durch. Dabei werden von Lambda über Kappa bis hin zu DataMesh die aktuell wichtigen Architekturtrends angesprochen.

Zielpublikum: Data Engineers, Data Scientists, Projektleiter, Entscheider
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger

Jens Kröhnert verfügt über langjährige Erfahrung in der Planung und Umsetzung von Digitalisierungsprojekten. Als Innovationsexperte hat er für ORAYLIS immer die neuesten Technologien und Entwicklungen im Blick.

Christoph Epping gehört zu den Top-IoT-Experten bei ORAYLIS. Gemeinsam mit Unternehmen aus verschiedensten Branchen realisiert er Echtzeit-Lösungen von der Ideenfindung bis zur konkreten Umsetzung.

Jens Kröhnert, Christoph Epping
Jens Kröhnert, Christoph Epping
Vortrag: Di 6.3
flag VORTRAG MERKEN

Vortrag Teilen

16:30 - 18:00
Di 3.4
ROOM K3 | Transition towards a collaborative Data Mesh cloud platform
ROOM K3 | Transition towards a collaborative Data Mesh cloud platform

SWICA historically runs a data warehouse built by a centralized team and in parallel, multiple isolated solutions for domain specific analyses, which afford high maintenance and an extensive effort to stay compliant.

Modernizing our analytical environment, we are building a collaborative platform on MS Azure, utilizing the Data Mesh paradigms of data domain and data product.

We aim to deliver a managed data marketplace for all data domains to provide their data products on a modern platform with low maintenance and built-in security & compliance.

Target Audience: Data Analysts, Data Engineers, Project Leaders, Decision Makers
Prerequisites: Basic understanding of the data mesh concept, data warehouse architectures and the challenges of diverse analytical use cases from multiple lines of business
Level: Advanced
 

15 years of BI industry experience as a project manager, analyst, team lead and solution architect. Closely following new concepts and technologies, aiming for practical application in the enterprise world.

Building planning and reporting solutions for small and medium-sized enterprises for more than 15 years, the opportunity to build a modern cloud based data platform for SWICA the leading health insurance company in Switzerland, is a challenge to develop my personality and skills. A special candy comes with the usage of the latest cloud technologies and a high flexibility for building the solution.

Tobias Rist, Philipp Frenzel
Tobias Rist, Philipp Frenzel
Vortrag: Di 3.4
flag VORTRAG MERKEN

Vortrag Teilen

16:30 - 18:00
Di 6.4
ROOM K4 | So hilft Machine Learning im Bereich Predictive Maintenance
ROOM K4 | So hilft Machine Learning im Bereich Predictive Maintenance

Kostensenkung durch weniger Wartungsarbeiten, ein effizienterer Support und zufriedenere Kunden: Das verspricht Predictive Maintenance. Der Vortrag führt in das Thema ein und beschreibt anhand von Kundenprojekten, wie mittels Machine Learning-Verfahren die Wartung optimiert werden kann. Die Referenten stellen dabei verschiedene Methoden vor (Rainflow-Analyse sowie Anomaly Detection) und geben Tipps für die Praxisanwendung von ML-Ansätzen im Bereich Predictive und Condition-Based Maintenance.

Zielpublikum: Entscheider, Data Scientists, Interessierte
Voraussetzungen: Interesse, Grundkenntnisse Statistik und Data Science
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
In vielen Unternehmen wird eine Vielzahl unterschiedlicher Daten gesammelt, ohne dass es dafür schon konkrete Anwendungsfälle gibt. Auf der Suche nach passenden Use-Cases, mit denen Kosten gesenkt, Einnahmen erhöht oder die Qualität verbessert werden soll, fällt häufig das Schlagwort Predictive Maintenance. Durch datengestützte Predictive Maintenance sollen Wartungsleistungen seltener anfallen, zielgerichteter sein und somit die Kundenzufriedenheit verbessert werden.

Im Vortrag werden zwei Projekte aus dem Maschinenbau vorgestellt, bei denen Predictive Maintenance in Kombination mit Machine Learning-Verfahren zum Einsatz kommt. Das erste Projekt beschreibt die Optimierung der Wartungsbetreuung, die auf dem tatsächlichen Zustand der Komponenten basiert (Condition-Based Maintenance). 

Das zweite Projekt, das der Vortrag vorstellt, nimmt sich der Herausforderung von Datenanomalien im Machine Learning an. Dabei werden diese Ausreißer nicht als Störung interpretiert, sondern als Indikator für bisher unbekannte Muster. Wie eine Anomaly Detection in konkreten Predictive Maintenance-Projekten aussehen kann und welche Algorithmen dabei eingesetzt werden können, beschreiben die Referenten in ihrem Vortrag.

Für den Vortrag ist in erster Linie Interesse am Thema gefordert. Die Referenten führen in die jeweiligen Fragestellungen ein und entwickeln daraus praxisrelevante Lösungsansätze. 

Nach seiner Promotion in theoretischer Physik ist Aman Steinberg als Consultant tätig und beschäftigt sich mit Data Science sowie Machine Learning im Business-Umfeld. Er betreut Kundenprojekte für Predictive Maintenance in der Maschinenbauindustrie.

Nach dem Masterstudium der Volkswirtschaftslehre an den Universitäten Mannheim und Bonn ist Benedikt Kauf als Consultant aktiv. Mit umfassenden Erfahrungen mit Datenvisualisierung, -transformation und -aufbereitung hat er sich auf Machine Learning im Business-Umfeld und Big Data-Engineering spezialisiert. Er ist in einem Kundenprojekt zu Predictive Maintenance in der Halbleiterindustrie tätig.

Aman Steinberg, Benedikt Kauf
Aman Steinberg, Benedikt Kauf
flag VORTRAG MERKEN

Vortrag Teilen

, (Mittwoch, 22.Juni 2022)
09:00 - 10:30
Mi 2.1
ROOM K4 | Transforming Retail with Cloud Analytics - Petrol Case Study
ROOM K4 | Transforming Retail with Cloud Analytics - Petrol Case Study

Petrol is Slovenian company that operates in 8 countries in SEE with 5BEUR annual revenue. As traditional publicly-owned company, Petrol has faced necessity for transformation to stay ahead in highly competitive market. Use of BIA was mainly reactive, but in recent years it has transformed into competitive advantage by using cloud technologies and industry specific analytical models and focusing on the content and creating business value. This value is now being leveraged as competitive advantage through proactive use of data and analytics. 

Target Audience: Decision Makers, Data Architects, Project Managers 
Prerequisites: None 
Level: Basic 

Extended Abstract: 
Petrol is Slovenian company that operates in 8 countries in SEE with 5BEUR annual revenue. Main business activity is trading in oil derivatives, gas and other energy products in which Petrol generates more than 80 percent of all sales revenue and it also has a leading market share in the Slovenian market. Petrol also trades with consumer goods and services, with which it generates just under 20 percent of the revenue. Use of BIA was mainly reactive, but in recent years it has transformed into competitive advantage by using cloud technologies and industry specific analytical models and focusing on the content and creating business value. This value is now being leveraged as competitive advantage through proactive use of data and analytics. Presentation will cover main business challenges, explain technology architecture and approach and discuss results after three years of system development and use. 

Andreja Stirn is Business Intelligence Director with more than 20 years of experience working in the Oil & Energy and Telco industry. Skilled in Data Warehousing, Business Intelligence, Corporate Performance Management, Market Research and People Management.

Dražen Orešcanin is Solution Architect in variety of DWH, BI and Big Data Analytics applications, with more than 25 years of experience in projects in largest companies in Europe, US and Middle East. Main architect of PI industry standard DWH models. Advised Companies include operators from DTAG, A1 Group, Telenor Group, Ooredoo Group, Liberty Global, United Group, Elisa Finland, STC and many companies in other industries such as FMCG and utilities.

Andreja Stirn, Dražen Oreščanin
Andreja Stirn, Dražen Oreščanin
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:30
Mi 4.1
ROOM K3 | Deepfakes am Limit - Fake-Videocalls mit KI
ROOM K3 | Deepfakes am Limit - Fake-Videocalls mit KI

Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare 'Doppelgänger' einer Person zu erzeugen. TNG forscht seit 2019 intensiv an der KI rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. In dem Vortrag zeigen wir die verschiedenen Evolutionsschritte der Deepfake-Technologie inkl. Live-Demos, beginnend mit dem 'Ur'-Deepfake und endend mit Echtzeit-Deepfakes des gesamten Kopfes. 

Zielpublikum: Software-Entwickler, Entscheider, Manager, IT-Fachkräfte, Arbeitende im HomeOffice 
Voraussetzungen: Keine 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Seit ihrer Entstehung im Jahr 2017 haben sich Deepfakes von einer KI-Spielerei zu einem mächtigen Werkzeug weiterentwickelt. Auch Medienformate wie Leschs Kosmos, Galileo und anderen Sendungen arbeiten inzwischen mit TNG-Deepfakes. 

Wir gehen in dem Vortrag auch auf die Cybersecurity-Aspekte ein, da Mitarbeitende durch Deepfakes in Zeiten von Corona schnell hinter das Licht geführt werden könnten, da sie z.B. einem vermeintlichen Deepfake in einer Videokonferenz vertrauliche Informationen weitergeben. 

Martin Förtsch ist ein IT-Berater der TNG Technology Consulting GmbH mit Sitz in Unterföhring bei München und studierte Informatik. Seine Arbeitsschwerpunkte sind Agile Development (hauptsächlich) in Java, Suchmaschinentechnologien, Information Retrieval und Datenbanken. Als Intel Software Innovator und Intel Black Belt Software Developer ist er darüber hinaus intensiv in der Entwicklung von Open-Source-Software im Bereich der 3D-Kameratechnologien und dem Internet of Things involviert. Darüber hinaus hält er zahlreiche Vorträge auf nationalen und internationalen Konferenzen zu den Themen Künstliche Intelligenz, Internet der Dinge, Augmented Reality und Test-Driven Development. Er wurde u.a. mit dem Oracle JavaOne Rockstar ausgezeichnet.

Thomas Endres ist studierter Informatiker (TU München) und leidenschaftlicher Softwareentwickler. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award.

Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Deepfakes, Mixed Reality KI-Kunstwerken und autonom fliegenden Minidrohnen.

Martin Förtsch, Thomas Endres, Jonas Mayer
Martin Förtsch, Thomas Endres, Jonas Mayer
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:30
Mi 1.2
ROOM K3 | Automatisierter Liquiditätforecast
ROOM K3 | Automatisierter Liquiditätforecast

USE CASE: DKV Mobility 

Das Tagesgeschäft der DKV Treasury-Abteilung ist von sehr hohen Ein- und Auszahlungen geprägt. Damit das Unternehmen weiterhin erfolgreich agieren und zahlungsfähig bleiben kann, ist eine gute operative Planung essenziell. In Zusammenarbeit mit avantum wurde diese Planung auf das nächste Level gehoben. Mithilfe von intelligenten Machine-Learning-Methoden wird täglich eine Prognose der Liquidität für die kommenden Wochen auf Tagesbasis erstellt. Wir stellen Ihnen die Ausgangslage, die Herausforderungen und die Lösungen vor. 

Zielpublikum: Data Scientist, Controller, Planner, Finance, DWH Architects, Project Manager, CFO 
Voraussetzungen: Basiswissen 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Fortführung des obigen Abstracts: [...] Die Planungslösung wurde mit einer Software auf Basis von IBM Planning Analytics with Watson und dem IBM SPSS Modeler implementiert. Zur Erhöhung der Prognosegüte wurden externe Variablen eingefügt und Muster in den Zahlungen der einzelnen Cashflow-Kategorien untersucht. In diesem Vortrag stellen wir Ihnen die Ausgangslage, die Herausforderungen und die Lösungen vor. 

Thomas Olak ist Consultant bei der avantum consult GmbH. Seit 2020 berät er Kunden in diversen Predictive-Analytics- sowie Data-Science-Projekten. Sein Fokus liegt neben der Datenmodellierung vor allem auf der Prognose von Finanzkennzahlen und Predictive Maintenance.

Daniel Sabel ist Treasurer beim DKV EURO SERVICE GmbH + Co. KG mit dem Fokus auf das zentrale Liquiditäts- und Währungsmanagement, M&A Integration, verschiedene Projektarbeiten sowie der Weiterentwicklung der Treasury-Abteilung. Zuvor war Daniel bei KPMG im Finanz- und Treasury-Management für verschiedene nationale und internationale Projekte zuständig.

ROOM K3 | Die Automobilindustrie auf dem Weg zu einer KI-basierten Vertriebssteuerung
ROOM K3 | Die Automobilindustrie auf dem Weg zu einer KI-basierten Vertriebssteuerung

Die KI hält Einzug in vielen Bereichen der Autoindustrie, insbesondere autonomes Fahren oder intelligente Fertigungssysteme stehen im Fokus. Aber auch abseits dieser Hot Topics schreitet die datenbasierte Revolution voran. In diesem Vortrag legen wir den Fokus auf die Vertriebssteuerung. 
Die Möglichkeiten eines datenbasierten Vertriebs aber auch die Herausforderungen auf dem Weg dorthin werden anhand einer konkreten Initiative bei unserem Mutterkonzern beleuchtet.

Hierbei beleuchten wir vor allem die Etablierung einer konzernweiten digitalen Plattform, die sowohl die Zentrale als auch die Märkte bei Reporting und Steuerung ihres Vertriebsgeschäfts unterstützt. Dabei ermöglicht die Plattform auf sämtliche vertriebsrelevante Daten (Sales, Finance, Wettbewerb) in einem Tool zuzugreifen und diese verknüpft auswerten zu können. Die Lösung wird zudem Schritt-für-Schritt interaktiver und intelligenter gestaltet, um KI-basierte Prognosen und Empfehlungen zu ermöglichen. 

Als Fazit wollen wir aufzeigen, wie ein lernendes und flexibles Ökosystem aussehen könnte und welcher Weg für die Industrie ein sinnvoller sein könnte, um eine flexible, KI-basierte und maßgeschneiderte Vertriebssteuerung zu etablieren.

Zielpublikum: alle Interessierte
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Dr. Maximilian Hausmann ist Principal und Leiter des Data Science & Strategy Teams bei rpc - The Retail Performance Company, einem Joint Venture der BMW Group und der h&z Unternehmensberatung. Er arbeitet an der Schnittstelle zwischen Business und IT und entwickelt gemeinsam mit seinem Team kundenzentrierte Datenstrategien und generiert mit den richtigen Use Cases echten Mehrwert. Seit mehr als 12 Jahren berät er Unternehmen aus den unterschiedlichsten Branchen und unterstützt sie auf dem Weg zum datengetriebenen Unternehmen.
Als Berater, Trainer und Coach unterstützt Dr. Maximilian Hausmann seine Kunden bei der Konzeption und Umsetzung von unternehmensweiten Datenstrategien und befähigt Mitarbeiter, die Chancen einer datengetriebenen Arbeitsweise zu nutzen.

Thomas Olak, Daniel Sabel
Maximilian Hausmann, Maarten Goossens
Thomas Olak, Daniel Sabel

Vortrag Teilen

Maximilian Hausmann, Maarten Goossens
flag VORTRAG MERKEN

Vortrag Teilen

12:45 - 13:15
TDWInsights Mi
Einblicke in den TDWI e.V und die TDWI Themenzirkel
Einblicke in den TDWI e.V und die TDWI Themenzirkel

Was ist der TDWI e.V., wie kann ich mich dort engagieren und welche Vorteile bringt mir eine Mitgliedschaft?
Was sind die TDWI Themenzirkel, wie sind diese entstanden und wie kann ich an einem Themenzirkel teilnehmen? 

Carsten Felden und Leif Hitzschke geben Insights in Welt des TDWI e.V und die Themenzirkel.

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Leif Hitzschke, stellv. Vorstandsvorsitzender des TDWI e.V., ist Leiter Analytik bei der comdirect bank AG in Hamburg. Er hat in seiner bisherigen Laufbahn ein breites Spektrum an Erfahrungen in den Bereichen Datenmodellierung, ETL, Visualisierung und Analytics gesammelt. Sein Fokus liegt auf der pragmatischen Definition und Umsetzung von BI-Architekturen und -Organisationformen. Er macht sich besonders stark für den Austausch von Anwendern in den unterschiedlichen Bereichen der Business Intelligence. So organisiert er in Hamburg beispielsweise die Tableau User Group und ist Mitorganisator des Hamburger TDWI Roundtables. Über seine Tätigkeit und Erfahrungen berichtet er auf verschiedenen Veranstaltungen.
Leif Hitzschke ist sei 2018 Mitglied im Vorstand des TDWI e.V.

TDWI Young Guns - Was ist das eigentlich?
TDWI Young Guns - Was ist das eigentlich?

Du hast dich schon immer gefragt was sich hinter den TDWI Young Guns verbirgt? Dann sei dabei wenn die Young Guns einen Einblick in Ihre Community Aktivitäten geben.

Carsten Felden, Leif Hitzschke
Carsten Felden, Leif Hitzschke
Vortrag: TDWInsights Mi1

Vortrag Teilen

Vortrag: TDWInsights Mi2
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 3.3
ROOM K4 | Merging User Research with Data Analytics – how adding a customer centric view into the analytics advances insights driven data culture
ROOM K4 | Merging User Research with Data Analytics – how adding a customer centric view into the analytics advances insights driven data culture

Data Analysts and Data Scientists invest an immense amount of time into optimizing models and interpreting data, all in the quest to promote better business decision making and more efficient product development. We oftentimes however fail to take a step back and answer the overarching question: Why does the user show the observed behavior pattern? Why does a certain variable improve the accuracy of our prediction model? Despite all the advances we have made in analytics, even predictive analytics and ML models cannot truly answer what the user was thinking and why they act in a certain way. 

Adding the customer perspective into the insights equation opens up a whole new perspective on this problem. As a consequence, XING merged the User Research and Analytics departments to create a more holistic approach to insights generation. This presentation walks through the problem statements, the differences in the professional fields (analytics and research) and how the individual segments of both disciplines are complementary and lead to a more user centric decision making organization.

Target Audience: anyone open to thinking outside of the regular patterns of analytics and AI/DS 
Prerequisites: none 
Level: Basic 
 

Marc Roulet is Director of Analytics, Research and SEO at XING, the leading business networking platform in Germany. In this role he supports the top management, business managers, product teams and marketing with insights to drive performance. This includes quantitative and qualitative user research, experimentation, forecasting, KPI definition, data visualization and analytical deep dives. A data evangelist at heart, Marc is dedicated to promoting a truly data driven mindset within the organization, breaking down complex data material into digestible and actionable insights for the business. Prior to his role at XING Marc worked in various leadership positions in the eBay Classifieds Group, at mobile.de and at ImmobilienScout24 in Business Development and as a Marketing and Sales Analyst. Marc started his career at eBay as a Business Analyst in the Trust and Safety Department, analyzing buyer and seller behavior and deriving seller standards.

Marc Roulet
Marc Roulet
Vortrag: Mi 3.3
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 5.3
ROOM K3 | Über Low-Code zum Pro-Code: Der Weg zur App in Großprojekten
ROOM K3 | Über Low-Code zum Pro-Code: Der Weg zur App in Großprojekten

Wir beschreiben einen Weg der Digitalisierung und Automatisierung von manuellen Aufgaben in Fachabteilungen zu technisch ausgereiften Lösungen - mit Fokus auf die Zwischenstation Low-Code-Applikation und deren Vorteile für die Anwendungsentwicklung. Wie kann die Nutzung von Low-Code-Entwicklungsmöglichkeiten schnell die Datenqualität in Großprojekten erhöhen, ohne dabei gleichzeitig eine langfristige, stabile Lösung zu vernachlässigen, und welche Voraussetzungen braucht es dafür? 

Zielpublikum: Data Engineers, Projektmanager, Decision Makers, Data Specialists, Project Information Manager 
Voraussetzungen: Erfahrung in Datentransformation 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Typischerweise führen verschiedene Fachabteilungen in großen Unternehmen regelmäßig die gleichen, wiederkehrenden, datengetriebenen Aufgaben für verschiedene Projekte aus. Oft behelfen sich Nutzer hierbei mit Mehrzweck-Desktop-Applikationen wie z.B. Tabellenkalkulationen. 

In diesem Vortrag zeigen wir eine Möglichkeit, entsprechende Vorgänge zu digitalisieren und Teile zu automatisieren, ohne zu Beginn dieses Weges bereits alle einzelnen Facetten und Anforderungen in den verschiedenen Projekten eines Unternehmens zu kennen. Hierbei spielen Low-Code-Applikationen eine entscheidende Rolle - als Zwischenstationen auf dem Weg zu einer ausgereiften, aber auch aufwendigen Lösung. So können schnell Erfolge erzielt und die Datenqualität erhöht werden, während eine langfristige, stabile Lösung nicht aus den Augen verloren wird. 

Andreas Artinger arbeitet als Managing Consultant für das IT-Dienstleistungsunternehmen PRODATO Integration Technology GmbH. Seit 2017 berät er Kunden zu den Themen Datenintegration und Reporting sowie Low-Code-Applikationen und entwickelt Lösungen für datenzentrierte Fragestellungen in Großprojekten des Anlagenbaus.

Konstantin Leichte ist Master of Science in Systems Engineering und seit mehr als 10 Jahren für die Linde GmbH in Pullach tätig. Als Lead Data Manager beschäftigt er sich mit den Herausforderungen der Automatisierung, des Reportings und von Datentransfers für Großprojekte des Anlagenbaus.

Andreas Artinger, Konstantin Leichte
Andreas Artinger, Konstantin Leichte
Vortrag: Mi 5.3
Themen: Low Code
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
KeyMi
KEYNOTE: VUCA-World on speed – keeping the promise of digitalization roadmaps in turbulent times
KEYNOTE: VUCA-World on speed – keeping the promise of digitalization roadmaps in turbulent times

For many years, technology gurus, transformation evangelists and many more have pictured a world that will dramatically change with incredible pace. Consequently, it was predicted that impacts on society, economy, environment, and political landscapes will leave no stone unturned. As a matter of fact, the current times feel as if these predictions have eventually become reality. The VUCA world is not only part of our daily life, but also even a nucleus in itself that demands resilience from individuals as well as societies and organizations. 
While climate change and pandemics seem to be part of the “new normal”, global conflicts get closer to the western world resulting in even more severe instabilities of supply chains, natural resource availabilities and much more - clearly stretching the long-held promise of a flourishing globalization. 
To avoid the “Uber yourself before you get Kodaked” pitfall, companies no matter what size are finding themselves coping with an environment that is certainly fiercer these days but at the same time allowing for new opportunities that need to be discovered and unlocked. But what’s the right strategy to capitalize on these opportunities if strategies itself are not even worth the paper written on? How to keep the pace with rapidly shortening technology lifecycles or tech innovations that don’t seem to deliver against their promise? Is it even worth to define comprehensive roadmaps on digital strategies and transformations? 
In his keynote, Thomas Kleine reflects on the value of defining digital roadmaps from a company perspective. He will incorporate not only his personal experiences but also refer to his employer’s journey over the last two years specifically propelled to the frontline of fighting the COVID-19 disease. What are the key learnings and what about the half-value time of these learnings if tomorrow comes with a completely different set of challenges? 

Since January 2017, Thomas Kleine has been CIO and Head of Digital at Pfizer Germany. He is a Master of Business Administration (MBA) and studied at the Universities of Osnabrück, Augsburg and Pittsburgh, PA. After graduating in 2001, he initially spent 5 years at KPMG Consulting/BearingPoint as a senior consultant before moving to Coca-Cola Germany in 2006. There he had various management positions within IT.

Thomas Kleine
Thomas Kleine
Track: #Keynote
Vortrag: KeyMi
flag VORTRAG MERKEN

Vortrag Teilen

Zurück