Hinweis: Die aktuelle TDWI-Konferenz finden Sie hier!

Fachforen / Freies Programm

Fachforen

Nach Tracks filtern
Alle ausklappen
  • Montag
    21.06.
  • Dienstag
    22.06.
  • Mittwoch
    23.06.
09:00 - 10:00
KeyMo
KEYNOTE und Eröffnung: What is work & What is human – in a superhuman future
KEYNOTE und Eröffnung: What is work & What is human – in a superhuman future

For the work we do in the long-term-vision-labs and strategy team for the Technology & Innovation board area at SAP is one of the playgrounds for the title question. These topics are good, because they generate exiting and abundant questions, that we believe should be asked by everyone.

How does the future work, the mechanics of change? What is the future of human work and our interactions with machines and each other? Is industrialization of space and 3d printed organs really a “thing” and how do you relate to these? What are the methods to innovate desirable futures? How do you structure such a vast and complex fabric of possibilities in your domain, team, business, boardroom? How long is the history of the future and how does that affect our fear and counter reactions to it in socio-political movement? Most importantly, who designs the future, that you your community will live in? 

We talk about change, but what are the mechanics and the dynamics behind it? How fast is it? What it means to be an innovator, is transforming faster than before, from classic product and service definition of the superficial to computational system design of everything, including social and political systems, deeply rooted in a space of challenges and promises between cutting edge tech and humanism. In an exponential and converging digital-fueled future, we design a relationship, a behaviour, that the product will follow.

What comes before strategy? We love to act on strategies, derive tactics, execute and operate, it is our psychological bias, we love to do what we are good at. But how do we derive a strategy? From what point of view, what narratives, what builds up a “Future fabric” that these narratives a woven from? And who does it in your enterprise? We will have, high level look at how we build a desirable future with these questions in mind, and also what we in our labs consider to be a desirable future of work, at least for the coming decade.

This exponential change is our innovation brief and the stakes are high, It is just too important to be left only to... any single team. Technology is the human evolution, the prior named HuMachine creates a playground for “Human centered“-adventure, this opens new worlds for our imagination in a time when “now” has never been so temporary. Bringing these thoughts together we need to answer the question “What is human, and what is work in a superhuman future?”

Main chapters

  1. How Science-Fiction is becoming science-fact, and... business fact, now. The narratives and examples of current futures.
  2. What values, attitudes, most of all methods and frameworks can we use to derive our
  3. What we, SAP derived as our direction for the future of work and the tech to support it from, the above 2 insights.
"I want to innovate what we call "work" out-of our lives via an empathic symbiosis between human ingenuity and machine intelligence." Martin Wezowski works as Chief Futurist for SAP’s Technology & Innovation. He is lecturing as a faculty member of Futur/IO, a European future institute and other education programs. He moved across a range of disciplines from UX, to systemic design to define innovation visions and strategies. Right now, he is on the mission to map, build and inspire a future we want to live in, more specifically, he crafts future outlooks, concepts,  products, defines and runs innovation frameworks to find out what’s next and beyond for SAP’s vast ecosystem and the future of work. 2017 he was named 1 of 100 most innovative minds in Germany as the “Software visionary” (“Handelsblatt”). Prior to joining SAP in 2013, he worked for Sony Ericsson (Sweden) as creative director later he lived in Shenzhen, China for 2 years while serving as director of the strategic UX board (Huawei). He builds on his international adventures stretching from Poland, Sweden, China to Germany, and frequently shares his passion for the future of humans and work around the world (Duke University, as EU-advisor and keynote speaker, SxSW, TEDx, Singularity-U Summit, BOMA, CES, Tech Open Air - TOA, HUB Berlin, DMEXCO, WEBIT, Ada Lovelace festival, TWIN Global, CeBIT, CES. WeAreDevelopers, etc.)
Martin Wezowski
Martin Wezowski
Track: Keynote
Vortrag: KeyMo
10:10 - 10:50
FF 1.1.1
Endlich Echtzeit im Mittelstand: Confluent Cloud und Apache Kafka als Enabler der nachhaltigen Lebensmittelverarbeitung
Endlich Echtzeit im Mittelstand: Confluent Cloud und Apache Kafka als Enabler der nachhaltigen Lebensmittelverarbeitung

Der Mittelstand profitiert von der Digitalisierung und hier insbesondere vom Internet of Things. IoT ermöglicht die schnellere Umsetzung von neuen Geschäftsmodellen, die bessere Nutzung von Ressourcen und die langfristige Reduzierung von Kosten. Damit einhergehend versuchen immer mehr Unternehmen auch in der Entwicklung agiler zu werden und setzen hierbei auf Event-Driven Microservices, um monolithische Umgebungen hinter sich zu lassen. Denn die Erwartungshaltung an digitale Kundenerlebnisse und vollständig integrierte Echtzeitabläufe passt nicht mit Daten- und Infrastruktur-Silos zusammen. Mit anderen Worten: Wenn ein Unternehmen zunehmend software-definiert wird, braucht es eine Datenplattform, die primär für „Data in Motion” ausgelegt ist und weniger für „Data at Rest”.
 
Stefan Frehse, Principal Software Architect der BAADER zeigt, gemeinsam mit den Experten von Confluent, wie Apache Kafka und Confluent Cloud als zentrale Komponenten der Daten-Architektur eingeführt wurde und wie Streaming-Anwendungen, die auf IoT-Daten basieren, neue Geschäftsmöglichkeiten und eine optimierte Zusammenarbeit mit den Partnerunternehmen schaffen.

Stefan Frehse, Marie Czupalla, Özgür Dumlu
Stefan Frehse, Marie Czupalla, Özgür Dumlu
Vortrag: FF 1.1.1
10:10 - 10:50
FF 1.2.1
Beam me Up - Wie Talend das Apache Beam Framework verwendet
Beam me Up - Wie Talend das Apache Beam Framework verwendet

Daten kommen heute in allen erdenklichen Formen aus verschiedensten Quellen und wollen verarbeitet werden. Gleichzeitig wird es immer wichtiger schneller auf die Daten zu reagieren.
Der nächtliche Batch-Umlauf hat zwar noch seine Daseinsberechtigung, Echtzeitverarbeitung mittels Streaming wird allerdings immer wichtiger und mittlerweile geht der Trend Richtung Streams First Architekturen.
Um beide Welten transparent zu vereinen hat Google ein SDK entwickelt und im Jahr 2016 an die Apache Software Foundation übergeben. Apache Beam war geboren.
In diesem Vortrag lernen Sie Apache Beam kennen und wie Sie mit demselben Programmiermodel sowohl Batch als auch Streaming abdecken können.
Darüber hinaus wird Arne Ottens zeigen, wie Talend einen Schritt weiter geht und das Ganze in einer No-Code-Umgebung ermöglicht.

Arne Ottens ist Solutions Engineer bei Talend und verantwortlich für Kunden mit Fokus auf Datenmanagement in Big-Data- und Cloud-Umgebungen. Zu seinen großen Leidenschaften zählen innovative Technologien, elegante Lösungen komplexer Herausforderungen sowie alles rund um Daten.
Arne Ottens
Arne Ottens
Vortrag: FF 1.2.1
11:00 - 11:40
FF 1.1.2
Plattformwechsel des EDWH in die Cloud - innerhalb von nur 10 Monaten?
Plattformwechsel des EDWH in die Cloud - innerhalb von nur 10 Monaten?

Das europäische Enterprise Data Warehouse der C&A versorgt über 3.900 Anwender mit Analytical Insights und Reporting. Die Nutzung ist in den vergangenen Jahren beständig weiter angestiegen. Insbesondere am Ende jeder Verkaufswoche ist die Nutzung des Systems um ein vielfaches höher als an Normaltagen. Die Elastizität einer Cloud Technologie wie Snowflake erlaubt es gerade an ""Schwerlasttagen"" flexibel die Leistung des Systems hochzufahren. Ein weiteres wichtiges Argument für die Migration nach Snowflake war die schnelle Provisionierung von Data Warehouse Umgebungen für User Acceptance Tests, sowie Developer Sandboxes - als ein Enabler für agile Projektteams. Gleichzeitig war ein langwieriger Migrationsprozess zu vermeiden, um die Weiterentwicklung des DWH in zwei parallelen Systemen so kurz wie möglich zu halten.
Doch wie lässt sich der Plattformwechsel in diesem kurzen Zeitraum sicher erreichen?
Der Vortrag berichtet über die Migrationsstrategie und die Faktoren die zum erfolgreichen Wechsel geführt haben. Dabei gehen wir auch auf die Learnings ein. Nach 5 Monaten Betrieb lohnt sich ein erster Rückblick auf die erreichten Benefits und auf den Ausblick ""what's next"".

Lutz Bauer ist seit 2019 als Data Warehouse Architekt bei der IT-Tochter der C&A tätig. Seine fachlichen Schwerpunkte sind Data Integration, DWH Plattformen und die Modernisierung von DWH Architekturen. Er blickt auf über 20 Jahre Erfahrung im Bereich Data Warehousing und BI zurück und war bereits mehrfach Sprecher auf der TDWI Konferenz und anderen Veranstaltungen.
Florian Schmidt ist Manager der Snowflake Unit, bei der Business Intelligente Beratungsfirma Target Reply. Mit über 6 Jahren BI Consulting Erfahrung, die er in verschiedensten Kundenprojekten aus dem Bereichen Media und Retail gesammelt hat, kann er auf diverse leitende Rollen wie Technical Lead DWH, Cloud Architekt sowie Projektleiter zurückschauen.
Lutz Bauer, Florian Schmidt
Lutz Bauer, Florian Schmidt
Vortrag: FF 1.1.2
11:00 - 11:40
FF 1.2.2
Active Intelligence statt passive BI – Mit aktiven Konzepten die neuen Herausforderungen meistern
Active Intelligence statt passive BI – Mit aktiven Konzepten die neuen Herausforderungen meistern

Die Anforderungen der digitalen Wirtschaft verändern unser Verständnis von moderner BI. Informationen sollen permanent zur Verfügung stehen und dank aktueller Echtzeitdaten das sofortige Durchführen von Maßnahmen unterstützen. Business Intelligence, die nur informiert, kann diesen Anforderungen nicht mehr gerecht werden. Wer sein Unternehmen aktiv voranbringen will, braucht Active Intelligence.

In unserem Vortrag erfahren Sie, wie Sie:
•    mit automatisierten Pipelines und Change Data Capture (CDC) schnell und sicher alle benötigten Daten integrieren und bereitstellen,
•    für die Analyse die Associative Engine, Artificial Intelligence und Interaktion in natürlicher Sprache kombinieren, um jederzeit und überall Erkenntnisse zu gewinnen,
•    mit der Technologie und in der Cloud Ihrer Wahl Kennzahlen überwachen und Maßnahmen in Echtzeit vorantreiben.

Mihael Radosevic verfügt über umfangreiche Erfahrung in der Software-Entwicklung. Als BI-Experte hat er ein breites Wissen über Datenmodellierung, Big Data, Visualisierung, Embedded Analytics und AI. Seit 2012 arbeitet Mihael Radosevic mit den Analytics Lösungen von Qlik und unterstützt Kunden dabei, Einblicke in ihre Daten zu erhalten.
Mihael Radosevic
Mihael Radosevic
Vortrag: FF 1.2.2
11:50 - 12:30
FF 1.1.3
Modernes Datenmanagement mit SAP HANA Cloud Services
Modernes Datenmanagement mit SAP HANA Cloud Services

Erfahren Sie, wie Sie mit den SAP HANA Cloud Services Ihr Datenmanagement neu ausrichten, und das volle Potential Ihrer Daten ausschöpfen können.
Verbinden Sie Ihre Daten, reichern Sie sie an und orchestrieren Sie diese zur idealen Verwendung für Ihre Endanwender.
Der Vortrag wird Ihnen aufzeigen, wie Sie Entscheidungen in Echtzeit, auf Basis von vertrauenswürdigen Daten treffen können und somit einen wirklichen Mehrwert aus Ihren Daten generieren können.

Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Herr Stemmler das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.

Matthias Stemmler
Matthias Stemmler
Vortrag: FF 1.1.3
11:50 - 12:30
FF 1.2.3
Wie Schmuckhersteller PAUL HEWITT es geschafft hat eine zukunftssichere Datenarchitektur aufzubauen
Wie Schmuckhersteller PAUL HEWITT es geschafft hat eine zukunftssichere Datenarchitektur aufzubauen

In dieser Session wird Sie Jan-Niklas Mühlenbrock Schritt für Schritt durch den Prozess führen, wie er mit Delta Lake by Databricks und automatisierter Datenintegration von Fivetran eine zukunftssichere Datenarchitektur für den Schmuck- & Accessoires-Hersteller PAUL HEWITT aufgebaut hat.
Die Entwicklung ging von einer sehr fehleranfälligen Strategie und der Nutzung vieler Excel Tabellen hin zu einem „Modern Data Stack“ der das Marketing-Team mit zuverlässigen Echtzeitdaten versorgt und jeden Mitarbeiter in der Firma dazu befähigt Entscheidungen datengetrieben zu treffen. So gelang es PAUL HEWITT auch während der Corona Pandemie ihr Geschäft was zuvor zu 60% aus Offlineverkäufen bestand zu 100% in den eCommerce Bereich zu verlagern. Wir freuen uns auf Ihre Teilnahme!

Jan-Niklas ist ein Data & Analytics-Profi mit fünf Jahren Berufserfahrung in Fach- und Führungsrollen. Neben der Einführung eines ERP-Systems für die PAUL HEWITT GmbH lag es zudem in seiner Verantwortung, gemeinsam mit seinem Team eine moderne wie zugleich skalierende BI-Applikationslandschaft in der Cloud zu etablieren. Die Konzeption und Durchsetzung der unternehmensweiten Datenstrategie der Jewelry & Accessories Brand ist seine Aufgabe und Motivation.
Jan-Niklas Mühlenbrock
Jan-Niklas Mühlenbrock
Vortrag: FF 1.2.3
11:50 - 12:30
FF 1.3.3
Enabling a Customer Data Platform Using Data Virtualization
Enabling a Customer Data Platform Using Data Virtualization

In today’s digital economy, customers are all-powerful. They have the ability to search for and find products and services, find reviews and ratings, find out about alternative products and services via search and social networks, ask questions of others about products and services, and find comparison sites. All of this can be done from a mobile device while on the move and with so many options available to them. They can switch to a competitor at the touch of a mobile phone screen or the click of a mouse.
 
In this kind of economy, customer loyalty is cheap and so it is essential to know more about your customers, if you want to keep them. However, in many companies, customer data is fractured across many different systems with no way to share and access integrated customer data and insights across all channels to offer up a consistent, personalized customer experience.
 
In this session we will look how data virtualization can be used to create a Customer Data Platform solving this challenge:
- Digital transformation and the impact on customers
- The importance of the customer in the boardroom
- Customer interaction - the impact of COVID-19 pandemic
- Current problems facing many companies in the front-office from fractured customer data
- The need for a Customer Data Platform to engage and retain customers while improving their overall experience
- The central role of data virtualization as a foundation for a customer intelligent front-office

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

Mike Ferguson
Mike Ferguson
Vortrag: FF 1.3.3
13:30 - 14:00
L&L Mo1
From Dashboard to Fastboard with SingleStore
From Dashboard to Fastboard with SingleStore

Over the last many years, dashboards have proliferated enterprises from the board room to the manufacturing line. As businesses have become increasingly more reliant on analytics, end users have started to demand snappier performance from their dashboards. In this session, we discuss how SingleStore powers your business-critical, highly-concurrent applications with Speed, Scalability, Simplicity and a familiar SQL interface.

Sukki is responsible for the Client Technical Services group across the International Region for SingleStore.  Based out of the UK, Sukki gets to work across many different data initiatives across all industries and domains.  Over the last couple of decades working with OLTP data analytics and systems.  Come and listen to some of his experience in data migrations, customers and prospect outcomes.
Antoine Stelma co-founded with Erik Fransen, Connected Data Group and has an extensive background in Data and Analytics for more than 20 years. As one of the early adopters of Data Vault modelling and Data Virtualization, Antoine has a deep knowledge of data modelling and designing Data & Analytics environments.
Sukhvinder S. Sandhar, Antoine Stelma
Sukhvinder S. Sandhar, Antoine Stelma
Vortrag: L&L Mo1
14:00 - 14:40
FF 1.2.4
Empowering the Analyst
Empowering the Analyst

Data Governance hat in den letzten Jahren stark an Interesse gewonnen vorwiegend wegen regulatorischem Druck durch DSGVO, Basel IV, Solvency II usw.  Den Regulator glücklich zu machen ist zwar wichtig aber operativ nicht wirklich gewinnbringend.  Wenn aber Data Governance in einer durchgängige und klar strukturiere Dokumentation der vorhandenen Data Assets in Form eines Data Catalogs mündet, kann eine solche Initiative durchaus zu erheblichen Zeitersparnissen bei der Datensuche führen.  Und wenn der Data Catalog mit einer benutzerfreundlichen Oberfläche zum Design von Pipelines integriert wird resultiert eine Umgebung, in der ein Analyst unabhängig von der IT schnell und effektiv Daten finden, zusammenführen und auswerten kann.
Anhand einer Live-Demo wird vorgeführt, wie das Leben eines Analysten erleichtert werden kann.

Anthony Ibrahim ist seit 33 Jahren in der IT tätig.  Am Anfang seiner Karriere hat er ERP-Systemen in unterschiedlichen Branchen implementiert.  Seit 18 Jahren beschäftigt sich H. Ibrahim mit der Unterstützung von Ab Initio Kunden und der Ausbau des Ab Initio-Geschäfts in den deutschsprachigen Ländern sowie Zentral- und Osteuropa.
Empowering the Analyst
Empowering the Analyst

Data Governance hat in den letzten Jahren stark an Interesse gewonnen vorwiegend wegen regulatorischem Druck durch DSGVO, Basel IV, Solvency II usw.  Den Regulator glücklich zu machen ist zwar wichtig aber operativ nicht wirklich gewinnbringend.  Wenn aber Data Governance in einer durchgängige und klar strukturiere Dokumentation der vorhandenen Data Assets in Form eines Data Catalogs mündet, kann eine solche Initiative durchaus zu erheblichen Zeitersparnissen bei der Datensuche führen.  Und wenn der Data Catalog mit einer benutzerfreundlichen Oberfläche zum Design von Pipelines integriert wird resultiert eine Umgebung, in der ein Analyst unabhängig von der IT schnell und effektiv Daten finden, zusammenführen und auswerten kann.
Anhand einer Live-Demo wird vorgeführt, wie das Leben eines Analysten erleichtert werden kann.

Anthony Ibrahim ist seit 33 Jahren in der IT tätig.  Am Anfang seiner Karriere hat er ERP-Systemen in unterschiedlichen Branchen implementiert.  Seit 18 Jahren beschäftigt sich H. Ibrahim mit der Unterstützung von Ab Initio Kunden und der Ausbau des Ab Initio-Geschäfts in den deutschsprachigen Ländern sowie Zentral- und Osteuropa.
Anthony Ibrahim
Anthony Ibrahim
Anthony Ibrahim
Vortrag: FF 1.2.4
Anthony Ibrahim
Vortrag: FF 1.2.4
14:00 - 14:40
FF 1.1.4
Cloud Data Warehouse & Data Lake Design, Architekturen & Best Practices
Cloud Data Warehouse & Data Lake Design, Architekturen & Best Practices

Unsere Spezialisten beschäftigen sich täglich mit Architekturen zur Cloud-Modernisierung. Dabei arbeiten wir eng mit Unternehmen unterschiedlichster Branchen zusammen, die ihre bestehenden On-Premise-Data-Warehouses, Big-Data-Umgebungen und Data Lakes sowohl migrieren als auch modernisieren wollen - und zwar, um die Vorteile moderner Architekturansätze in der Cloud zu nutzen. Ich führe Sie durch einige der gängigen Architekturmuster, die wir sehen, ihre relativen Stärken und warum Sie sie in Betracht ziehen sollten.

Thomas Telgheider ist Senior Manager Solution Consulting bei der Informatica GmbH. Er arbeitet aktuell in den Schwerpunkten Datenarchitekturen sowie Cloud Ecosysteme. Seine langjährige Erfahrung erstreckt sich über diverse (Cloud)DataManagement Technologien, deren Bewirtschaftung sowie dem MetaDatenmanagement.
Thomas Telgheider
Thomas Telgheider
Vortrag: FF 1.1.4
14:50 - 15:30
FF 1.1.5
Data Management im modernen Cloud Data Warehousing am Beispiel von Snowflake
Data Management im modernen Cloud Data Warehousing am Beispiel von Snowflake

In diesem Vortrag werden allgemeine Strategien, Herausforderungen, Lösungen und Projekt-Erfahrungen zum Data Management in Cloud Data Warehouse Architekturen am Beispiel von Snowflake vorgestellt.  Während der Präsentation werden unter anderem Themen wie Migrationsstrategien, Data Governance, Data Quality Management, Datenschutz und das Data Lifecycle Management besprochen und Möglichkeiten aufgezeigt, wie die damit einhergehenden Herausforderungen mit den Mitteln einer modernen Cloud-Umgebung bewältigt werden können.

Niels Warnecke hat Mathematik mit Schwerpunkt Wahrscheinlichkeitstheorie studiert und ist seitdem als Berater bei der saracus consulting GmbH tätig. Im Rahmen seiner Aufgaben konnte Niels Erfahrungen in den Bereichen Data Engineering, Data Warehousing und BI in den Clouds von Amazon, Google und Microsoft sammeln, sowie dem anbieterunabhängigem Cloud Data Warehouse Snowflake.
Niels Warnecke
Niels Warnecke
Vortrag: FF 1.1.5
14:50 - 15:30
FF 1.2.5
BSGroup Data Analytics presents the Power BI Administrator
BSGroup Data Analytics presents the Power BI Administrator

«Mit wachsender Anwenderzahl steigt uns die Power BI-Administration über den Kopf. Gibt es eine Möglichkeit, wie wir unseren Power BI Tenant unternehmensweit effizienter verwalten können? - Wie können wir feststellen, welche Datasets und Reports überhaupt von den Fachbereichen verwendet werden und von wem genau? - Wir müssen ein Backup unseres gesamten Power BI Tenants haben. Könnt ihr uns helfen?»
Mit diesen Fragen unserer Kunden und der Anforderung, mit dem Launch des schweizer Datacenters Tenant-Migrationen zwischen regionalen Datacentern durchzuführen, entstand Mitte 2020 die Idee für die Entwicklung des Power BI Administrators.
Für die Migration und das Backup des Tenants haben unsere Consultants im Selbstversuch zunächst eine Migration unseres eigenen Power BI Tenants gestartet und mussten hierbei feststellen, dass es nur eine sehr umständliche Möglichkeit gibt. Sie mussten jedes einzelne Objekt, d.h. jedes Dataset, jeden Bericht, jede Berechtigung etc. einzeln und manuell herunterladen, die dazugehörigen Metadaten ändern und dann im neuen Tenant mitsamt Verknüpfungen und Abhängigkeiten wieder manuell erstellen - ein Alptraum bzw. kaum mit einem adäquaten Zeitaufwand und in einer angemessenen Qualität machbar.
Uns war sofort klar, dass unseren Kunden hier ein wirklich grosser Stolperstein im Weg lag, Power BI optimal zu nutzen und dass darüber hinaus dieser Aufwand dafür sorgen wird, dass nur wenige Firmen ihre Datenhaltung in die Schweiz oder ein regionales Datacenter verlegen werden. Auch für das Thema Power BI Administration konnten wir mit den bestehenden Microsoft-Services keine adäquate Lösung finden.
Aus diesem Grund hat das Team der BSgroup Data Analytics im Herbst 2020 entschieden, eine eigene Lösung zu entwickeln, die diese Anforderungen abdeckt.
Der Power BI Administrators ist mittlerweile bei einer Vielzahl unserer Kunden erfolgreich im Einsatz und kostenlos über den Marketplace verfügbar.
In unserem Vortrag werden wir praxisnah und mit vielen Kundenbeispielen die einzelnen Funktionen des  Power BI Administrators vorstellen und aufzeigen, wie es anhand von Backup/Restore möglich ist, einen gesamten Tenant zu sichern oder zu migrieren und wie die Überwachung des Power BI Tenants unternehmensweit zum Kinderspiel wird. Ausserdem wird Ihnen Roger Unholz seinen Report präsentieren, mit dem Power BI Administratoren zukünftig auf einen Blick sehen, wie häufig Reports wirklich verwendet werden oder ob es Reports oder Datasets gibt, die nicht mehr benutzt werden und somit aufgeräumt werden können.

«Die BSgroup Data Analytics hat uns in den letzten 2 Jahren optimal bei der Ausrollung von Power BI in den Fachbereichen unterstützt. Der Power BI Administrator unterstützt uns optimal bei der Umsetzung unser Cloud-Strategie und in der Verwaltung von Power BI- unternehmensweit. Bei der wachsenden Anzahl von Anwender in unserem Unternehmen hat uns die BSgroup eine Lösung zur Verfügung gestellt, die uns 100% Transparenz gibt und uns im operativen Betrieb optimal unterstützt»

Roger Unholz ist Power BI-Profi und in seiner Rolle als Partner und Senior Consultant bei der BSgroup Data Analytics seit mehr als 15 Jahren unermüdlich dafür im Einsatz, dass seine Kunden Reports und Dashboards nach den neusten Tech-Standards bekommen. Insbesondere die Themen Data Visualization und Information Design sind seine grosse Leidenschaft - aber auch die Weiterentwicklung des Service-Angebots liegt in seiner fachlichen Verantwortung  und so ist auch der Power BI Administrator, das jüngste Tool-Kit der BSgroup Data Analytics-Familie aus seinem Innovationsgeist heraus entstanden.
Roger Unholz
15:40 - 16:20
FF 1.1.6
How to Leverage Modern Real-Time Analytics with Legacy Applications
How to Leverage Modern Real-Time Analytics with Legacy Applications

Because of the cost-saving benefits, competitive advantages, and new market opportunities, many data leaders feel the pressure to accelerate cloud adoption. However, implementing hybrid and multicloud strategies is daunting—incompatibility between diverse systems introduces too much complexity, and traditional ETL tools are slow and resource-intensive.

While you gradually adopt the cloud, you can still deliver immense business value and actionable insights without impacting existing on-premises SAP ERP, CRM, HCM, SCM, and other enterprise applications. By building real-time data pipelines, you can meet current demands while setting the foundation for the future.

During this session, you will learn:

- How to implement a continuous data streaming method that securely and efficiently leverages data residing in SAP and other on-premises enterprise applications without impacting them
- How HVR's advanced log-based CDC technology securely accelerates high-volume data delivery in complex environments so it's available in real-time for immediate decision making, advanced analytics, and ML/AI
- Real-world examples of how hundreds of organizations leverage HVR to extract value from legacy systems to achieve a more dynamic and agile business

Bradley Flemming is a Senior Sales Engineer at HVR with around 30 years of IT experience, 20 of which have been in the data integration and data management domains working with companies such as Liaison Technologies (now OpenText) Talend and Attunity (now Qlik) prior to joining HVR.
Bradley Flemming
Bradley Flemming
Vortrag: FF 1.1.6
15:40 - 16:20
FF 1.2.6
Digitalisierung einer Impfstraße – Zusammenspiel zwischen ausführenden und verwaltenden Prozesseinheiten orchestrieren
Digitalisierung einer Impfstraße – Zusammenspiel zwischen ausführenden und verwaltenden Prozesseinheiten orchestrieren

Ein Teil des Lösungsweges aus der aktuellen Herausforderung der Corona-Pandemie ist einfach gesagt: die Impfung einer ausreichend großen Menge an Menschen. Das macht dieses Thema zu einem gesamtgesellschaftlich Bedeutsamen. So offensichtlich wichtig Schnelligkeit und Flexibilität aller Beteiligten hier ist, greift Bürokratie intensiv in das Geschehen ein, was naturgemäß nicht zur Beschleunigung der Abläufe führt. Die Verbesserung der Prozessleistungsfähigkeit muss also dass Zusammenspiel zwischen Impfausführung und Impf-Bürokratie adressieren, um beispielsweise Impfberechtigungen etc. treffgenau verwalten zu können. Dabei sind Formulare auszufüllen, zu digitalisieren und weiterzuleiten, Termine für eine Impfung zu vergeben und umzuplanen, Impfdosen zu verwalten, Personal bereitzustellen und nicht zuletzt auch Menschen mitzunehmen. Erfahren Sie in diesem Vortrag von den Herausforderungen eines solchen Projektes und was man hieraus für die eigene Business Process Intelligence lernen kann. Profitieren Sie von den Erfahrungen für Ihre eigenen Prozess-Digitalisierungsprojekte!

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

Dominik Wuttke ist Data Scientist bei der Marmeladenbaum GmbH. Seine Themenschwerpunkte sind Predictive Analytics und Textmining. Er setzte bereits eine Vielzahl von Data Science Projekten in den Bereichen Medizintechnik, Versicherung und Energiewirtschaft erfolgreich um. Zudem hat er als Dozent bereits umfassende Erfahrungen und platziert seine Themen erfolgreich auf den relevanten Konferenzen.
Carsten Felden, Dominik Wuttke
Carsten Felden, Dominik Wuttke
Vortrag: FF 1.2.6
15:40 - 17:10
Workshop 4
Wie gehen SAP Kunden die Transformation mit SAP Data Management Lösungen an?
Wie gehen SAP Kunden die Transformation mit SAP Data Management Lösungen an?

Profitieren Sie in der Paneldiskussion von den Erfahrungen unserer Kunden Stadtwerke München, Porsche und Randstad und lernen Sie deren Anwendungsfälle kennen.
Erfahren Sie aus erster Hand mehr zu Best-Practices und möglichen Herangehensweisen zu Ihrer digitalen Transformation mit Hilfe der SAP Data Management Lösungen.

Hakan Keles ist seit 2012 in verschiedenen Rollen und Projekten im Bereich Business Intelligence, Data Management & Analytics tätig.
Aktuell ist er bei der Porsche AG im Bereich AI Platforms & Data Management aktiv.
Dort ist er Product Expert für SAP Business Warehouse, SAP Analytics Cloud und SAP Data Warehouse Cloud und berät Projekte und Fachbereiche in Themen rund um Business Intelligence, Data Management & Analytics.
Zudem ist er dort mit verantwortlich für die Planung, den Aufbau, den Betrieb und die Weiterentwicklung von Data Management & Analytics Plattformen.
Ausbildung zum IT-Kaufmann
Studium Wirtschaftsinformation
SAP Berater (Business Warehouse und Master Data Management) in der chemischen Industrie (seit 2006)
SAP Berater für Business Warehouse bei Randstad (seit 2012)
Abteilungsleiter Analytics & Reporting Applications bei Randstad (seit 2017)
Ich bin nach einigen Jahren in der Beratung seit 2006 den SWM in unterschiedlichen Positionen beschäftigt. 2010 startete ich im BI-Umfeld als Requirements Engineer.  Hier habe ich mich um die Einführung von Standards und viele Projekte in unterschiedlichsten Fachbereichen begleitet. 2013 habe ich die Teamleitung des BI Bereichs und seit 2016 verantworte ich die Abteilung Data Analytics. Wichtig ist mir vor allem die strategische Weiterentwicklung des Bereichs im Hinblick auf die Bedarfe bei den Stadtwerken.

Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Herr Stemmler das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.

Hakan Keles, Andreas Förger, Brigitte Ecker, Matthias Stemmler
Hakan Keles, Andreas Förger, Brigitte Ecker, Matthias Stemmler
Track: Workshop
Vortrag: Workshop 4
16:30 - 17:10
FF 1.2.7
Accelerating the path to Analytics Maturity
Accelerating the path to Analytics Maturity

Data and Analytics maturity is directly related to operational efficiency and a successful business strategy that is designed to capitalize on future opportunities. We will explore how an understanding of your organisations data and analytical maturity level can help design a data strategy to move from “Excel Hell” towards the highest levels of prescriptive analytics. Along the way, we will show how an organisation’s journey to data and analytics maturity can be shortened and identify a data strategy approach to enable this acceleration.

Graham Sharpe was previously Director Consumer Analytics at Adidas Group where he spent 22 years designing and building their BI and Analytics capabilities from the ground up. From 2015 through to 2021, Graham positioned Exasol as the core data analytics technology to allow him and his teams to help take the adidas E-commerce operations from 20 to 250 Million registered customers representing €4.5 Billion in revenue for the year ending 2020. Enabling analytics in the adidas eCom world played a major part in this growth success by developing capabilities such as Deep Consumer Profiling, In-Season Forecasting, Market Pricing Intelligence, Dynamic Pricing, Assortment Analytics as well as paving the way for self-service reporting and a world class Consumer Features Store designed to accelerate the use of Data Science in adidas’s digital channels.
Graham Sharpe
Graham Sharpe
Vortrag: FF 1.2.7
16:30 - 17:10
FF 1.1.7
DWH Migration into Cloud based on Metadata
DWH Migration into Cloud based on Metadata

Viele Unternehmen stehen vor dem Problem, dass bestehende on premises DWH Lösungen in die Cloud migriert werden müssen. Meist werden dazu auch komplett neue Datenplattformen genutzt. Eine einfache Migration der bestehenden Lösung in einen gleichwertigen Cloud Service ist daher nicht möglich. Im Vortrag wir aufgezeigt wie man Metadaten getrieben bestehende on premises Lösungen in die Cloud migrieren kann. Basis für dieses Vortrag ist sind konkrete Umsetzungsprojekte von Anwenderunternehmen.

Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.

Gregor Zeiler ist seit dreißig Jahren in verschiedenen Funktionen in der Business Intelligence-Beratung tätig. Im Zuge seiner beruflichen Tätigkeit konnte er umfangreiche Projekterfahrung in vielen Branchen und auf Basis eines breiten Technologiespektrums sammeln. Zahlreiche Publikationen und Vorträge begleiten seine berufliche Tätigkeit. Als CEO bei biGENIUS AG kommt er seiner Passion die Prozesse in der Entwicklung von Data Analytics Lösungen zu optimieren nach.

Peter Welker, Gregor Zeiler
Peter Welker, Gregor Zeiler
Vortrag: FF 1.1.7
18:15 - 19:15
Welcome Reception
Welcome Reception
Welcome Reception

Digital Welcome Reception

Vortrag: Welcome Reception
09:00 - 09:45
KeyDi1
KEYNOTE: Die Entwicklung einer wertebasierten und chancenorientierten Datenpolitik
KEYNOTE: Die Entwicklung einer wertebasierten und chancenorientierten Datenpolitik

Mit der „Berliner Erklärung“ haben sich die EU Staaten zu einer wertebasierten digitalen Verwaltung verpflichtet. Die Bundesregierung nimmt sich mit ihrer Datenstrategie dieser Aufgabe an und will den Staat zum Vorreiter für Digitale Souveränität und Open Data machen. Das 2. Open Data Gesetz und das Dashboard Deutschland haben dazu bereits den Weg geebnet und weiten das Daten- und Informationsangebot des Bundes aus. In weiteren Schritten soll die Nutzung der Daten über Datencockpits und Visualisierungstools vereinfacht und verbessert werden. Damit werden auch in verschiedener Hinsicht positive Auswirkungen auf Unternehmen einhergehen.

seit 09/2020: Abteilungsleiterin DG (Digitale Gesellschaft; Informationstechnik)
IT-Beauftragte des Bundesministeriums des Innern, für Bau und Heimat
seit 2000:Verschiedene Positionen im Bundesministerium des Innern, für Bau und Heimat
rund um IT und Informationsgesellschaft, Personal, Verwaltungsmodernisierung und -organisation; zuletzt Leiterin der Unterabteilung Z I (Zentrale Dienste I)
1993 – 2000: Bundesamt für Sicherheit in der Informationstechnik
1988 – 1992: Organisatorin und Beraterin in einer Unternehmensberatung
Pia Karger
Pia Karger
Track: Keynote
Vortrag: KeyDi1
10:00 - 10:40
FF 2.1.1
How the pandemic has accelerated the adoption of data virtualization?
How the pandemic has accelerated the adoption of data virtualization?

The pandemic of 2020 drove organisations to react to an ever-changing landscape. Organizations needed to be able to understand better their customers, suppliers, and partners. They needed to react in real time to ever changing events. In this presentation we will touch on the value that Data Virtualization brings to organizations, helping them understand their data assets in real time. We will discuss how data is everywhere from being in on premise data stores such as legacy databases to cloud-based data warehouses and data lakes to even third party data sources such as social media or supply chain data. We will look at how data virtualization helps bring together these sources into a logical data fabric, allowing data citizens to interrogate and report on the data in real time. Helping organizations make data driven business decisions.

Otto Neuer
Otto Neuer
Vortrag: FF 2.1.1
10:00 - 10:40
FF 2.2.1
Automation neu gedacht: Moderne Paradigmen für eine volatile Weltordnung
Automation neu gedacht: Moderne Paradigmen für eine volatile Weltordnung

Automatisierung ist ein gesetztes Thema in der IT und alles andere als neu.
Neu hingegen sind die modernen Möglichkeiten der digitalen Datenverarbeitung sowie des „kognitiven“ Machine Learning / Deep Learning, welche weit über Stapelverarbeitung von gestern hinaus gehen.
Dieser Vortrag beleuchtet die Chancen, die sich daraus ergeben.

Mit seinen über 14 Jahren an Erfahrung in mittelgroßen, großen Unternehmen, gemischt als Consultant und auch in-house etwa als Solution sowie als Enterprise Architect, hat Mohammed schon so manche ""Transformations""-Übung erlebt und einige auch selbst erfolgreich geleitet.
Er ist Generalist mit einem starken Fokus auf den geschäftlichen Aspekt, Hand in Hand mit der Technologie, die es unterstützen soll. Fachlich stehen ihm Themen rund um CRM (Sales, Service, Marketing) sowie Cloud (Azure, AWS, Google Cloud) sehr nahe. Intelligent Automation ist eine Leidenschaft von ihm, in all ihren vielen Facetten.
Seit 2021 arbeitet er als Managing Consultant für Opitz Deutschland und berät derzeit vor allem zu Intelligent Automation – Themen.
Mohammed Brückner
Mohammed Brückner
Vortrag: FF 2.2.1
10:10 - 11:40
Workshop 5
Wie Ihnen Snowflake helfen kann ein datengetriebenes Unternehmen zu werden
Wie Ihnen Snowflake helfen kann ein datengetriebenes Unternehmen zu werden

Die meisten Unternehmen haben im Laufe der Jahre diverse Datensilos über Unternehmensteile, Organisationseinheiten und teilweise sogar innerhalb von Abteilungen aufgebaut. Zudem nimmt die Datenmenge schier unaufhaltsam zu, so dass neben den klassischen Enterprise Data Warehouses auch immer öfter Data Lakes zum Einsatz kommen. Oft sind die vorhanden Systemlandschaften aber zu komplex um daraus sinnvolle Erkenntnisse zu gewinnen oder schlicht zu schwierig zu benutzen.
Erfahren Sie in diesem Vortrag was die Snowflake Cloud Architektur so einzigartig macht, warum sich bereits mehr 4.500 Kunden für Snowflake entschieden haben und wie Sie die Zügel wieder in die Hand nehmen können, um ein echtes datengetriebenes Unternehmen zu werden.

Zielpublikum: "Jeder der mit Daten effizienter, schneller und kostengünstiger arbeiten möchte (Data Engineers, Data Analysts, Data Scientists, Entwickler, Business User bis hin zum CDO)

Voraussetzungen: Grundkenntnisse zu Data & Analytics

Schwierigkeitsgrad: Anfänger

Extended Abstract:
Im Workshop werden wir einführend auf die Snowflake Cloud Plattform eingehen, die auf AWS, Microsoft Azure oder Google Cloud aufsetzt. Durch den Cloud basierten Ansatz eröffnen sich Ihnen nahezu unbegrenzte Speicher- und Datenauswertungsmöglichkeiten bei gleichzeitig nahezu unbegrenzter Performance. Somit brechen Sie Ihre Datensilos durch einen zentralisierten Daten Layer auf. Mit Snowflake können Sie Data Warehouse, Data Lake und Data Science Use Cases abbilden, da nativ sowohl strukturierte, semi-strukturierte (wie JSON, XML, Parquet, ORC, Avro) als auch unstrukturierte Daten unterstützt werden.
Zudem können Sie sehr feingranular über Rollen das passende Security und Governance Modell steuern und über dynamische Maskierung Daten nur den Personen anzeigen, die hierfür die Berechtigung haben. Auch werden wir auf spannende Funktionen eingehen, die die Bereitstellung z.B. von Testumgebungen (“Zero-Copy-Clone”) oder das Wiederherstellen von vorherigen Datenbeständen (“Time Travel”) kinderleicht machen.
Erfahren Sie ebenfalls etwas über die Multi-Cloud, Multi-Region Fähigkeiten, die Ihnen erlaubt Daten innerhalb ihres Unternehmens, mit Partner oder Kunden nahtlos auszutauschen. Entweder sicher mittels Data Exchange, oder über den heute schon größten und schnell wachsenden Public Data Marketplace, bei dem schon heute über 500 Datenprovider teilnehmen.
Auch für Entwickler haben wir spannende Möglichkeiten im Gepäck, so dass in ihren präferierten Sprachen wie Java, Scala - und bald auch Python - Geschäftslogiken abgebildet werden können, die direkt in Snowflake ausgeführt werden (“Snowpark” & Java UDFs - User Defined Functions) .
Viele Funktionen werden wir Live in einer Demo zeigen und wir gehen natürlich gerne auf Ihre Fragen ein. Wir freuen uns auf Ihre Teilnahme!

Tobias Kutzer arbeitet als Senior Solution Engineer für Snowflake Computing und unterstützt Unternehmen beim Aufbau oder Modernisierung ihrer Daten- und Analyseplattformen. Zuvor war er in seiner 15-jährigen IT-Laufbahn bei IBM, Worksoft und ServiceNow als Solution Consultant, Solution Architect und in Presales-Funktionen in der DACH-Region und außerhalb tätig.

LinkedIn URL: linkedin.com/in/tobias.kutzer
Saša Mitrović arbeitet als Senior Sales Engineer bei Snowflake und hilft Unternehmen innovativer, schneller und kosteneffizienter den Mehrwert aus eigenen Daten im Cloud zu erzeugen.

Zuvor war er in Unternehmen wie FIS, Ericsson, Here und MarkLogic als Software Entwickler, Enterprise Architekt, Product Owner und Sales Engineer tätig. Seine Spezialgebiete sind Systemarchitektur, Datenintegration und Infrastructure Modernisation im Cloud. Er spricht regelmäßig auf Meetups und Konferenzen und bloggt gerne.

Tobias Kutzer, Sasha Mitrović
Tobias Kutzer, Sasha Mitrović
Track: Workshop
Vortrag: Workshop 5

 

10:50 - 11:30
FF 2.1.2
Journey from Data Warehouse Automation Sceptic to Advocate at Toyota Kreditbank
Journey from Data Warehouse Automation Sceptic to Advocate at Toyota Kreditbank

This session, given in an interview format, explores Carsten’s journey from Data Warehouse Automation sceptic to advocate, and what this transition has allowed his team to achieve at Toyota Kreditbank.
 
Carsten’s BI team received data from nine countries in different formats, at different times and with different frequencies, varying from daily to monthly. For this reason, fulfilling regulatory requirements with hand coding and ETL tools was a real challenge.
 
The group BI team was looking for a new solution to harmonise  the data model, renew the technical infrastructure and implement a unified data delivery. Carsten had used Data Warehouse Automation at a previous company and was very sceptical about the success , but now realises this was a problem of mindset across the team and not the technology.
 
During this session, you will learn:
·      Why Toyota Kreditbank chose Snowflake and Data Vault modelling
·      How the company automated their manual repetitive processes for long-term time savings
·      What a switch from manual ETL to automated ELT has achieved
·      How to get full documentation and lineage out of the box
·      Lessons learned from two DW automation implementations
·      How to do 2.5 years’ worth of batch reloads in just 2 hours

Carsten has been Senior Manager Business Intelligence at Toyota Financial Services since January 2020. He previously worked for von Essen Bank / ConsorsFinance, C&A Bank, Citibank and Barclaycard in different Positions around BI, Risk and Operations, focusing on data sourcing, aggregation and reporting.
Carsten Griefnow
Carsten Griefnow
Vortrag: FF 2.1.2
10:50 - 11:30
FF 2.2.2
Datenbasierte Lead-Generierung im Bereich Aftersales durch Predictive Maintenance
Datenbasierte Lead-Generierung im Bereich Aftersales durch Predictive Maintenance

Das ehrgeizige Ziel eines Automobilherstellers ist es, den Großteil seiner Kunden im Händlernetz zu halten. Denn derzeit sind nur weniger als die Hälfte der Kunden im After-Sales-Bereich loyal und vor allem Besitzer älterer Fahrzeuge suchen zumeist aus Kostengründen lieber freie Werkstätten auf. Da es in den meisten Fällen keinen proaktiven Kundenkontakt bezüglich des Service- oder Reparaturbedarfs gibt und zudem die Kunden oft erst dann zum Händler kommen, wenn sie Probleme mit ihren Fahrzeugen haben, schöpft der OEM nur einen geringen Prozentsatz des Marktpotenzials aus. Durch ein Pilotprojekt mit rpc konnte auf Basis eines neu entwickelten prädiktiven Datenmodells ein erhebliches Konvertierungspotenzial aufgezeigt werden. Das Projekt fokussierte beispielhaft die Prognose der Lebensdauer der Starterbatterie. Deren Ausfall ist für den Kunden besonders kritisch und die Komponente bietet ein hohes Geschäftspotenzial für den Handel. Das Ergebnis der Pilotanwendung mit mehreren Handelsbetrieben bei Fahrzeugen außerhalb der Gewährleistung war eine deutlich gesteigerte Kundenzufriedenheit und -loyalität, sowie eine Optimierung der Werkstattabläufe durch bessere Planbarkeit der Kundentermine. Der Ansatz lässt sich dabei auch auf andere Fahrzeugkomponenten übertragen und wird vom OEM entsprechend weiter ausgebaut.

Bruce Jeong ist Principal und verantwortet den Bereich Digital Products & Solutions bei rpc - The Retail Performance Company, einem Joint Venture der BMW Group und der h&z Unternehmensberatung. 
Er bringt langjährige Erfahrung mit, um Unternehmen bei der Hebung von Data Assets zur Optimierung von Geschäftsprozessen zu unterstützen und robust für die Zukunft auszurichten. Hierbei sind die Themen rund um die digitale Transformation ein treibender Faktor. Gerade in Zeiten, wo Wissen schnell an Wert verliert und volatile und disruptive Anforderungen die Positionierung und Erfolg eines Unternehmens stark beeinflussen, ist es notwendig eine fluide und lernende Organisation im digitalen Wandel intelligent auszurichten und die notwendige Transformation dazu umzusetzen.

Frau Marina Ehrenreich ist Senior Consultant in der Data Analytics Service Line bei rpc – The Retail Performance Company. Sie begleitet und berät Kunden – zumeist aus der Automobilindustrie – rund um Data Science. Bereits während ihres Statistik Studiums fokussierte sie sich auf Themen wie z.B. Predictive Maintenance oder auch Text Analytics, sowie die zugehörigen Methoden und Algorithmen.
Bruce Jeong, Marina Ehrenreich
Bruce Jeong, Marina Ehrenreich
Vortrag: FF 2.2.2
11:40 - 12:20
FF 2.1.3
Back to the Future: Drei Jahre Zeitreise mit einer DQ-Lösung
Back to the Future: Drei Jahre Zeitreise mit einer DQ-Lösung

In Anknüpfung an einen vor drei Jahren bei der TDWI München gehaltenen Vortrag zu Datenqualität bei der Raiffeisen Bank International AG blickt Christian Trapichler, Senior Data Quality Governance Manager, nun mit einem Erfahrungsbericht aus Anwendersicht auf den Projektabschluss und Produktionsstart zurück und zieht eine vorläufige Bilanz. Beantwortet werden unter anderem folgende Fragen:

•    Wurden die Ziele erreicht und Erwartungen erfüllt? (Über Grenzen des Expectation Managements und unerwartete positive Nebeneffekte)

•    Ist Datenqualität messbar und auch besser geworden? (Über Ambition Levels, Trends und Anomalien in Ergebnissen und Statistiken)

•    Welche begleitenden Maßnahmen waren erforderlich? (Organisatorische Maßnahmen und warum komplexe Workflow-Systeme kontraproduktiv sind)

•    Was waren die Stolpersteine und Lessons Learned? („Weniger ist Mehr“ in jeder Hinsicht und warum „Data Quality as a Service“ immer wichtiger wird)

Zum Abschluss wird noch ein Ausblick gewagt: Wie geht es weiter? Mit diesem Erfahrungsbericht der Raiffeisen Bank International AG, die als „Beste Bank in Zentral- und Osteuropa“ und als „Beste Bank in Österreich“ ausgezeichnet wurde, erhalten Sie einen Einblick in erlebtes Datenqualitäts-Management aus der Praxis.

Christian Trapichler ist bei der Raiffeisenbank International schon seit mehreren Jahren als Data Quality Governance Manager tätig.
Er kann auf eine mittlerweile jahrzehntelange Erfahrung in den Schwerpunkt-Bereichen DWH, BI, Datenanalyse und Visualisierungen verweisen.
Der Umgang mit Daten gehörte immer zum daily business und wurde dabei aus unterschiedlichsten Blickwinkeln (IT, Business-Anwender, Kunde, Consulter) in den verschiedensten Branchen (Finanzbereich, Handel, Logistik) und oftmals in speziellen Aufgabenbereichen (Analysen, Profiling, IT-Security, Betrugserkennung, Visualisierungen) gepflegt.

Christian Trapichler
Christian Trapichler
Vortrag: FF 2.1.3
11:40 - 12:20
FF 2.2.3
Agile AI – Best Practices zur Komplexitätsüberwindung in KI-Projekten
Agile AI – Best Practices zur Komplexitätsüberwindung in KI-Projekten

Künstliche Intelligenz verspricht enorme Wertschöpfungspotenziale – doch auf dem Weg dahin begegnen Organisationen immer wieder ähnlichen Herausforderungen. Fehlende Akzeptanz und Erklärbarkeit der Technologie, hoher Ressourcenbedarf oder mangelnde Datenverfügbarkeit erschweren eine schnelle Umsetzung. Erfahren Sie anhand von erfolgreich durchgeführten Projektbeispielen aus der Automobilindustrie und dem Healthcare-Bereich, welche Erfolgsfaktoren bei der agilen KI-Entwicklung zu berücksichtigen sind.

Dr. Peter Kullmann ist bei der iteratec GmbH am Standort Stuttgart als Projektleiter und Software-Architekt tätig. Am Standort ist er u.a. verantwortlich für den projektübergreifenden Austausch zu architektonischen Themen. Er beschäftigt sich schon seit seiner Studienzeit intensiv mit verschiedenen KI-Methoden und hat mit diesem Hintergrund mehrere KI-Projekte erfolgreich durchgeführt und begleitet.
Dr. Michael Gebhart ist Projektbereichsleiter bei der iteratec GmbH am Standort Stuttgart sowie Vorstandsmitglied der neu gegründeten iteratec nurdemteam eG. In dieser Doppelfunktion verantwortet er mehrere Projekte im Tagesgeschäft und begleitet aktiv den Gründungsprozess der neuen Genossenschaft. Seine Schwerpunkte liegen in den frühen Phasen von Projekten mit dem Ziel, Kunden durch den Einsatz neuer Technologien wie Künstlicher Intelligenz und Blockchain zu digitalen Champions zu entwickeln. Vor seiner Zeit bei der iteratec war er mehrere Jahre als Berater in verschiedenen Umfeldern tätig. Er legt außerdem hohen Wert auf die Zusammenarbeit und den Austausch mit Universitäten und Hochschulen, weshalb er nach seiner Promotion in der Informatik bis heute zusätzlich als Lehrbeauftragter und Gastdozent aktiv ist.
Peter Kullmann, Michael Gebhart
Peter Kullmann, Michael Gebhart
Vortrag: FF 2.2.3
11:50 - 13:20
Workshop 6
Advanced Data Analytics - Das Leben eines Data Scientists
Advanced Data Analytics - Das Leben eines Data Scientists

Heutzutage sind Daten allgegenwärtig. Sie werden in Datenbanken, Applikationen, On-Premise und in der Cloud gespeichert und ständig von Systemen, Maschinen, Websites und anderen Feeds erstellt. Wie können Data Scientists auf all diese Daten zugreifen und Nutzen daraus ziehen? Die Herausforderung besteht darin, relevante Daten für die Analyse, das Prototyping und Modelltraining zu finden, zu verstehen, darauf zuzugreifen und zu verwenden. Sobald sich ein neues Modell als erfolgreich erwiesen hat, kann es problemlos in eine automatisierte Datenpipeline integriert werden. Dies hilft Unternehmen, neue Wege zu finden, um mit Kunden in Kontakt zu treten, neue Produkt- und Servicemöglichkeiten zu finden und Geschäftsmodelle zu verbessern.
 
In unserem Workshop werden wir Lösungen und Beispiele zeigen, wie Daten aus verschiedenen Quellen katalogisiert werden können, wie Governance angewendet werden kann, um mit Daten auf richtlinienkonforme Weise zu arbeiten, und wie Data Scientists in ihren Kernkompetenzen unterstützt werden können - mit Hilfe von zuverlässigen und qualitativ hochwertigen Daten in ihrer eigenen bevorzugten Sandbox und mit Verarbeitungsfunktionen für die Datenintegration, Datenqualität und Einbindung komplexer ML-basierter Algorithmen.

Dr. Hebach kam 2014 als Senior Solutions Architect zu Informatica. Er unterstützt Kunden und Partnerunternehmen bei der Konzeption von Datenmanagementlösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Vor seiner Tätigkeit bei Informatica war Dr. Hebach in den Bereichen IT-Management, Unternehmensarchitektur und Beratung tätig.

Vincent Loosli ist Solution Architect bei Informatica mit 20 Jahren Erfahrung in Datenmanagement, Datenqualität, Datenintegration und Datengovernance. Er hat Wirtschaftsinformatik in der Schweiz studiert. 
Martin Hebach, Vincent Loosli
Martin Hebach, Vincent Loosli
Track: Workshop
Vortrag: Workshop 6
12:30 - 13:00
Di P2
Panel: Die Zukunft des Beratungsmarktes
Panel: Die Zukunft des Beratungsmarktes

Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Oktober 2021 ist er Senior Advisor New Business & Strategy bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge zur Entwicklung des Data & Analytics-Marktes veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Klaus-Dieter Schulze ist seit 2012 Mitglied im Vorstand des TDWI e.V.

Dr. Ralf Finger arbeitet seit 1992 erfolgreich in Projekten zur Konzeption, Realisierung und Einführung individueller Business Intelligence, Analytics und Data Warehouse Lösungen für namhafte deutsche Großunternehmen. Aktuelle Beratungsschwerpunkte bilden strategische Technologieentscheidungen, Analytics Strategien sowie der Wertbeitrag von Datenstrategien. Dr. Finger studierte Betriebswirtschaft mit den Schwerpunkten Organisation und Unternehmensrechnung und promovierte in Wirtschaftsinformatik. Dr. Finger ist als CIIA und CEFA zertifizierter Finanzanalyst und Certified BI Professional (CBIP). Er ist Lehrbeauftragter für Business Intelligence an der Universität Stuttgart, Fachbeirat des TDWI (The Data Warehousing Institute e.V.) und TDWI Europe Fellow. Ferner ist er stellvertretender Sprecher der Arbeitsgruppe Smart Analytics in der Deutschen SAP Anwendergruppe e.V. (DSAG) und Mitglied des Leitungsgremiums der Fachgruppe Business Intelligence in der Gesellschaft für Informatik e.V. (GI). Dr. Finger ist Co-Author diverser Strategieleitfäden, so z.B. für SAP HANA Strategie sowie SAP Advanced Analytics der DSAG e.V. oder den TDWI Leitfäden zu Big Data und Cloud BI. 
Dr. Marcus Mende ist Director Sales & Marketing bei der infologistix GmbH, einer unabhängigen IT-Consulting mit den Schwerpunkten Data Warehousing und Business Intelligence. 
Nach seinem betriebswirtschaftlichen Studium startete er zunächst in der Management Consulting und konzentrierte sich hier auf die Themen Marketing und Vertrieb. Nach verschiedenen Stationen bei IT-Unternehmen aus dem Segment Marketing Data, CRM und Customer Intelligence konzentrierte er sich auf die Entwicklung und Vermarktung von KI-basierten Anwendungen.
Seit 2018 verantwortet er bei der infologistix die Bereiche Business Development und Sales mit Fokus auf den Bereichen Microsoft, Cloud Native Computing und Advanced Analytics.
Klaus-Dieter Schulze, Ralf Finger, Marcus Mende
Klaus-Dieter Schulze, Ralf Finger, Marcus Mende
Track: Panel
Vortrag: Di P2
12:30 - 13:00
Di P3
Panel: Wo fängt Self-Service wirklich an? Reicht der Filter, oder ist es doch mehr?
Panel: Wo fängt Self-Service wirklich an? Reicht der Filter, oder ist es doch mehr?

Philipp von Loringhoven ist Designer, Entwickler, Marketeer und Daten-Nerd. Als Freelancer ist er gefangen zwischen Marketing, Produktentwicklung, Business Intelligence und Analytics - er hilft Unternehmen ihre Kunden besser zu verstehen, um mit ihnen zielführender zu kommunizieren. Gleichzeitig ist Host des DataEngage Podcasts und der daily-data.news Plattform.

Der Buchautor und Dashboardexperte Andreas Wiener hat über 10 Jahre Erfahrung im Erstellen und der Etablierung von Dashboards in Unternehmen. Er hat zahlreiche Bücher und Artikel geschrieben und gehört zu einem der führenden Visualisierungs- und Dashboardexperten in Europa.

Philipp von Loringhoven, Andreas Wiener
Philipp von Loringhoven, Andreas Wiener
Track: Panel
Vortrag: Di P3
12:30 - 13:00
Di P4
Panel: Quo Vadis Finanzindustrie – KI und Cloud als Chance?
Panel: Quo Vadis Finanzindustrie – KI und Cloud als Chance?

Banken und Versicherungen beschäftigen sich seit Jahren aktiv mit dem Thema Data Analytics. Cloud und Big Data Architekturen sind hier keine Seltenheit. Was sind aber aktuelle Trends in dieser Branche? Im Panel werden die Themen Cloud und KI in der Finanzindustrie beleuchtet und kritisch hinterfragt.

Dr. Andreas Totok ist Geschäftsbereichsleiter Enterprise Information Management bei der Finanz Informatik Solutions Plus GmbH. In dieser Funktion berät er Bankinstitute und Versicherungen der Sparkassen-Finanzgruppe zu strategischen IT-Themen und verantwortet Projekte für die Anwendung Künstlicher Intelligenz und dem Management von Daten. Seine Schwerpunkte liegen in der Fachkonzeption sowie der Architektur- und Organisationsberatung.

Dr. Jan Wiltschut ist im Provinzial Konzern für das Thema 'Künstliche Intelligenz im Schadenbereich' zuständig. Hierbei beschäftigt er sich mit der Identifikation, Bewertung, Entwicklung und Umsetzung von KI-Use-Cases, die die Schadenprozesse hinsichtlich des Ertrags, der Effizienz und/oder der Kundenzufriedenheit verbessern. Er hat über das Thema 'computational neuroscience' promoviert, konkret über die Entwicklung eines biologisch motivierten neuronalen Netzes für den (frühen) Sehprozess von Säugetieren. Vor seiner Zeit bei der Provinzial war er als Consultant bei der Firma Eucon GmbH auf dem Gebiet des 'Automotive Aftersales' beschäftigt.

Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.

Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe (HKA). Dort vertritt er u. a. die Bereiche Business Intelligence und Projektmanagement im Fachgebiet Informatik. Den Bachelor Studiengang 'Data Science' an der HKA hat er maßgeblich mitgestaltet. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.

Andreas Totok, Jan Wiltschut, Michael Zimmer, Uwe Haneke
Andreas Totok, Jan Wiltschut, Michael Zimmer, Uwe Haneke
Track: Panel
Vortrag: Di P4
13:15 - 13:45
L&L Di1
Lunch & Learn – Ihr Weg in die MicroStrategy Cloud
Lunch & Learn – Ihr Weg in die MicroStrategy Cloud

In diesem Austausch zwischenzwischen einem Moderator des TDWI und Marian Plum von MicroStrategy betrachten wir
•    Aktuelle Trends im Hinblick auf Cloud und BI
•    MicroStrategy`s Cloud Positionierung als größter unabhängiger BI Anbieter
•    Einblicke in Kunden, die den Weg in die MicroStrategy Cloud erfolgreich realisiert haben

Marian D. Plum ist Manger Sales Engineering bei MicroStrategy Deutschland und seit 7 Jahren im Unternehmen. Seine Schwerpunkte liegen auf der Neukundengewinnung, der Unterstützung von Projekten sowie der Positionierung von MicroStrategy im Rahmen von Events und digitalen Medien. Nach dem Hochschulstudium an der Uni Maastricht begann er seine Laufbahn im BI-Umfeld als Berater für Predictive Analytics und Planung.
Marian David Plum
Marian David Plum
Vortrag: L&L Di1
14:00 - 14:40
FF 2.2.4
Anwendung von Graph Analytics mit AI in der Finanzindustrie: Beispiele aus den Bereichen Geldwäsche und Kreditkartenbetrug
Anwendung von Graph Analytics mit AI in der Finanzindustrie: Beispiele aus den Bereichen Geldwäsche und Kreditkartenbetrug

Der Schaden für Unternehmen durch Online Betrug wird weltweit auf über 200Mrd USD bis 2024 geschätzt. Banken und andere Finanzinstitute haben eine starke Waffe im Kampf gegen diesen Betrug: Graph Analytics. Komplexe Analysen in Graph Datenbanken können in Echtzeit verdächtige Muster in Zahlungsströmen identifizieren - und so den Betrug stoppen bevor er Schaden anrichtet.

Mario Werner ist bei TigerGraph als Regional Manager für Deutschland, Österreich und die Schweiz zuständig. Er verfügt über mehr als 20 Jahre Erfahrung in den Bereichen Datenmanagement und Big Data und war zuvor unter anderem bei Unternehmen wie EMC, Nutanix und Couchbase tätig. Mario hat an der Universität Göttingen Wirtschaftswissenschaften studiert.
Mario Werner
Mario Werner
Vortrag: FF 2.2.4
14:00 - 14:40
FF 2.1.4
Daten als das neue Öl – was ist der Preis für ein Barrel Rohdaten?
Daten als das neue Öl – was ist der Preis für ein Barrel Rohdaten?

Die Daten das Unternehmens wirklich als Asset zu verstehen erfordert, dass wir ihren Wert ermitteln, verstehen und für einen breiten Kreis sichtbar machen. Für die B2C-Geschäfte der EOS-Gesellschaften in Deutschland wurde diesen Schritt gemacht, um mit dieser neuen Perspektive das Datenmanagement neu zu erfinden. Ein Bericht über eine Datenstrategie als Ausgangspunkt, erste Erfahrungen mit der Wertbestimmung von Daten und den Impact auf unser Datenmanagement mit D-QUANTUM als zentraler Plattform für die Umsetzung dieser Strategie.

Henning Stolze leitet das Data Governance Office für das B2C-Geschäft der EOS-Gesellschaften in Deutschland. Dort entwickelte er die Datenstrategie für dieses Geschäftssegment und koordiniert strategische Projekte auf dem Weg zum datengetriebenen Unternehmen. Seine Wurzeln hat er als Wirtschaftswissenschaftler in der Analytik und weiß daher um die Bedeutung eines guten Datenmanagements.
Jens Koch-Bodes arbeitet als Data Governance Manager im Team von Henning Stolze. Er ist für die Integrierung des Data Governance Frameworks in den deutschen EOS-Gesellschaften verantwortlich inklusive der dezentralen Data Governance Rollen. Ein Schwerpunkt in seiner Arbeit ist die Product Ownerschaft für das Metadatenmanagement (D-Quantum).

Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in unterschiedlichen Branchen (Telekommunika- tion, Banken und Handel). In seiner Funktion als COO der Synabi Business Solution GmbH verantwortet er die Konzeption und Umsetzung von Metadaten und DataGovernance-Projekten.

Henning Stolze, Jens Koch-Bodes, Wolf Erlewein
Henning Stolze, Jens Koch-Bodes, Wolf Erlewein
Vortrag: FF 2.1.4
14:00 - 15:30
Workshop 7
Lang lebe die Datenbank? Endlich Mehrwert aus "Data in Motion" ziehen
Lang lebe die Datenbank? Endlich Mehrwert aus "Data in Motion" ziehen

! Um den Workshop so interaktiv wie möglich zu gestalten füllen Sie bitte die kurze & anonyme Umfrage der Referenten aus:https://forms.gle/dTCbFW3FttksxzSM6

Die Erwartung digitaler Kundenerlebnisse und vollständig integrierter Echtzeit-Operations passt nicht zu Daten- und Infrastruktursilos. Daten müssen kontinuierlich gesammelt, verarbeitet und reaktiv in Anwendungen im gesamten Unternehmen genutzt werden.

Mit anderen Worten: Wenn ein Unternehmen zunehmend software-definiert wird, braucht es eine Datenplattform, die in erster Linie für ""Data in Motion"" und nicht für ""Data at Rest"" ausgelegt ist.

Indem isolierte Datensilos aufgebrochen werden, können Daten besser analysiert und unternehmensübergreifend für Vertrieb, Marketing, Service, Produktion und Logistik nutzbar gemacht werden.

In unserem Data Value Workshop ermitteln wir gemeinsam, welche Herausforderungen in Ihrer aktuellen Umgebung bestehen. Unsere Experten analysieren die aktuelle Situation, um die nächsten Schritte zu bestimmen, die zur Erreichung der Unternehmensziele notwendig sind.

Mark Schulze, Marie Fraune
Mark Schulze, Marie Fraune
Track: Workshop
Vortrag: Workshop 7
14:50 - 15:30
FF 2.1.5
Data Management: Vom Kostentreiber zum Wertschöpfer
Data Management: Vom Kostentreiber zum Wertschöpfer

Daten sind ein essenzielles Element in jedem Unternehmen. Diese werden jedoch von verschiedenen Parteien bearbeitet und sind in verschiedenen Systemen und Datenbanken gespeichert, die durch betriebliche Aktivitäten -  z.B. M&A oder Einführung neuer Tools – vereint werden müssen. Es ist oft unmöglich, eine ganzheitliche Sicht auf die Daten zu erhalten, was zu Schwierigkeiten sowohl bei operativen Prozessen als auch im Reporting führt.

Wir geben Ihnen Best Practices an die Hand, wie Sie Daten systemübergreifend managen und diskutieren die Möglichkeiten der technischen Unterstützung. Im Anschluss stellen wir Ihnen einige wichtige Funktionen des Datenmanagements im Rahmen einer kurzen Demonstration vor.

Christian Schneider ist der Director Data & Analytics bei der QuinScape GmbH. Als Consultant und Projektleiter war er langjährig in internationalen Großprojekten tätig und kennt die vielfältigen Herausforderungen unterschiedlichster Integrations- und Analytikszenarien aus der praktischen Arbeit. Als Speaker und in Publikationen beleuchtet er die Aspekte des Aufbaus von nachhaltigen Dateninfrastrukturen mit einem im späteren Betrieb überschaubaren Kostenrahmen durch eine zielorientierte Data Governance.

Herr Hugentobler ist seit Mai 2020 als CTO bei der BUTOS AG verantwortlich für das Produkt-Management und die Entwicklung von Applikationen zur Steuerung von GDPR-Prozessen und Stammdaten-Management im Allgemeinen. Davor war er während vieler Jahre bei einer Schweizer Grossbank in verschiedenen Funktionen tätig, wobei Stammdaten- und Reporting-Systeme immer ein zentraler Bestandteil waren. In den letzten Jahren lag der Fokus dabei auf Applikationen basierend auf TIBCO EBX.
Herr Hatzinger ist Manager, Presales bei TIBCO Software für die DACH-Region. Als Consultant war er 10 Jahre in verschiedenen Software-Projekten tätig und kennt die Herausforderungen an Digitalisierungsprojekte aus der praktischen Arbeit. Die  Presales-Organisation im DACH-Raum betreut zahlreiche große Enterprise-Kunden bei ihren Initiativen.
Herr Christoffer ist seit fast 20 Jahren bei TIBCO Software beschäftigt. Bevor er vor 6 Jahren in die Rolle des PreSales Consultants wechselte war er als Instructor im Trainingsbereich und als Consultant in verschiedensten Projekten tätig. In seiner aktuellen Position berät er Interessenten und Kunden bei den Themen Integration, Messaging und Master Data Management.
Christian Schneider, Marcel Hugentobler, Ulrich Hatzinger, Timo Christoffer
Christian Schneider, Marcel Hugentobler, Ulrich Hatzinger, Timo Christoffer
Vortrag: FF 2.1.5
14:50 - 15:30
FF 2.2.5
Advanced Analytics: Generalisierung in KI / ML-Projekten - Effizienzsteigerung durch eigene Frameworks
Advanced Analytics: Generalisierung in KI / ML-Projekten - Effizienzsteigerung durch eigene Frameworks

Viele konnten bereits die Erfahrung machen, das es sich bei Datenprodukten im Bereich der künstlichen Intelligenz bzw. dem Machine Learning zumeist um Softwareprodukte handelt.
Durch gezielte Wiederverwendung bestimmter Teile einer Adv. Analytics Pipeline kann die generelle Effizienz in der Entwicklung von Pipelines erhöht werden. Die dadurch gewonnene Zeit können für entsprechende Weiterentwicklungen und die Bearbeitung neuer Experimente genutzt werden.

Philipp Paraguya hat angewandte Mathematik und Informatik studiert und arbeitet seit dem Studim als BI und Adv. Analytics Berater in verschiedenen Branchen und Projekten. Durch seinen Hintergrund als Software Entwickler hat er einen starken Bezug zu klassischem Software Engineering und dem sinnvollen Einsatz von Data Science Lösungen.
Philipp Paraguya
Philipp Paraguya
Vortrag: FF 2.2.5
15:40 - 16:20
FF 2.2.6
People Analytics: Alles nur Bauchgefühl oder doch besser datengetriebene HR-Entscheidungen
People Analytics: Alles nur Bauchgefühl oder doch besser datengetriebene HR-Entscheidungen

People Analytics befindet sich in den letzten Jahren immer wieder unter den Top HR Trends. Aber, ist dies wirklich ein heißes Eisen oder nur ein weiteres Buzzword für Personalcontrolling? Welche Chancen und Risiken bieten technologische Innovationen im Bereich People Analytics? Fest steht, in vielen Unternehmen wird das Thema diskutiert. Daten getriebene Entscheidungsprozesse haben bereits in HR-Bereichen Einzug gehalten. Einflussfaktoren aus der Unternehmensstrategie, neue Anforderungen von Führungskräften und zusätzliche Datenquellen sorgen dafür, dass People Analytics über die Grenzen der Personalabteilungen hinaus relevant ist. Wir blicken in diesem Vortrag aus verschiedenen Unternehmensperspektiven auf diverse Fragen und zeigen Ihnen anhand konkreter Use Cases praxisnahe Beispiele.

Christine Balzer studierte Betriebswirtschaftslehre sowie Wirtschaftsinformatik und startete beruflich als Personalreferentin bei einem mittelständigen Kölner Unternehmen. Dort war sie u. a. für das Personalcontrolling verantwortlich und kam zum ersten Mal mit SAP BW in Berührung. Später war sie für den unternehmensweiten Roll-Out verantwortlich. Seit ihrem Wechsel in die Beratung vor 12 Jahren, war sie in zahlreiche SAP Reporting- und Planungsprojekte in unterschiedlichen Bereichen und Rollen tätig. Heute verantwortet Frau Balzer als Manager mehrere Kunden und ein Team mit Expertise in der Implementierung von SAP Analytics-Lösungen. Mit Bezug auf ihre beruflichen Wurzeln entwickelt sie bei der INFOMOTION das Thema People Analytics und berät unsere Kunden bei konkreten Fragestellungen.
Christine Balzer
Christine Balzer
Vortrag: FF 2.2.6
15:40 - 16:20
FF 2.1.6
Datenqualität: Ein Superheld auch im Kampf gegen Covid-19
Datenqualität: Ein Superheld auch im Kampf gegen Covid-19

Data Governance taucht selten in der Liste der Themen auf, die von den Unternehmen priorisiert werden. Zu Unrecht, wie der Vortrag in anschaulichen Beispielen zeigt! Ähnlich wie ein Superheld, der aus dem Verborgenen für Recht und Ordnung sorgt, verhält es sich mit Data Governance: Oberflächlich als Overhead missachtet, sorgt diese im Hintergrund für Recht und Ordnung in Unternehmensdaten. Im Kampf gegen Covid-19 bspw. setzt Data Governance Ihre „Superkräfte“ in Form eines zentralen datenqualitätsgesicherten Abrechnungsprozesses in der Forschung ein.

Miroslav Herz ist als Head of Business Analytics bei PROCON IT für die Bereiche Reporting & Analytics und Data Warehouse zuständig. Der studierte Informatiker hat zahlreiche BI-Kundenprojekte verantwortet und dafür gesorgt, dass bei diesen Umsetzungen Data Governance- und Compliance-Anteile ihre Superkräfte entfalten konnten.
Isabella Kammerer ist bei PROCON IT im Bereich Reporting & Analytics tätig. In ihrer Masterarbeit, die sie jüngst erfolgreich abgeschlossen hat, sorgt sie dafür, dass Data Governance als Superheld für einen datenqualitätsgesicherten Abrechnungsprozesses innerhalb der Covid-19-Kohortenforschung agiert.
Miroslav Herz, Isabella Kammerer
Miroslav Herz, Isabella Kammerer
Vortrag: FF 2.1.6
16:30 - 17:10
FF 2.2.7
Ein Leben ohne Entwickler? – Integration neu gedacht
Ein Leben ohne Entwickler? – Integration neu gedacht

Die IT unterliegt derzeit einem beschleunigten Modernisierungsdruck.
Zunehmende Integrationsaufwände und diversifizierende IT-Landschaften erschweren den Blick auf unsere Daten und den Fokus unseres Geschäftes.
Moderne Integrationsansätze wie iPaaS (integration Platform as a Service) können hier Abhilfe schaffen. In diesem Vortrag werden wir Vorteile dieser Lösungen für das Data and Analytics-Umfeld unter Nutzung des Frameworks PLATIN by PPI in Verbindung mit der BOOMI Platform aufzeigen.

Gerrit Götze verantwortet bei der PPI AG die Projektleitung, Entwicklung und Lokalisierung technischer Integration,  Compliance, Prozessanalyse und -optimierung inklusive der Implementierung, Rolloutplanung und entsprechenden Durchführung. Sein besonderer Fokus liegt hierbei auf Integration und Workflowmanagement über ERP, CRM und weitere Applikationen hinweg.

Vor seiner Arbeit bei PPI war er Vorstand, CTO bzw. COO bei verschiedenen Unternehmen im Versicherungsmarkt.
Gerrit Götze
Gerrit Götze
Vortrag: FF 2.2.7
16:30 - 17:10
FF 2.1.7
Act Fast with Data Lineage to Recognize and Eliminate Issues in Your Data Pipeline
Act Fast with Data Lineage to Recognize and Eliminate Issues in Your Data Pipeline

The impacts of data incidents that break data pipelines are felt across and often beyond your organization, throwing a wrench into your risk mitigation practices.
While there’s no silver bullet, data lineage can provide the context and the pipeline visibility you need to tackle issues early and speed up your incident resolution.
Join Jan Suchanek Technical Account Manager at MANTA, to learn the strategic approach and best practices for using context and historical lineage to proactively identify and understand issues in a data pipeline in the context of that pipeline.

Jan Suchánek is Technical Account Manager at MANTA with core competencies in RDBMS. After more than 20 years in a data warehouse, consulting, development, and customer services, his focus is now on data lineage and metadata management.
Jan Suchanek
Jan Suchanek
Vortrag: FF 2.1.7
17:20 - 18:10
Special Keynote
SPECIAL KEYNOTE: Lessons from the Racetrack with Gary Paffett, Championship Winning Racing Driver
SPECIAL KEYNOTE: Lessons from the Racetrack with Gary Paffett, Championship Winning Racing Driver

Two-time DTM Champion, Gary Paffett, has competed at the highest levels of professional motorsport for two decades, racing in series including DTM, Formula 1 and the ABB FIA Formula E World Championship. In his role as Sporting & Technical Advisor and Reserve & Development Driver to the Mercedes-EQ Formula E Team, Gary shares his knowledge and expertise in a role that has been a major factor in the development of both the team and the car in Mercedes’ first two seasons within the all-electric street racing series. 
Gary Paffett
Gary Paffett
Track: Keynote
Vortrag: Special Keynote
09:00 - 09:40
FF 3.1.1
Wie Zapp Systems seine EDW- und SAP-Umgebung mithilfe von Datenautomatisierung transformieren konnte.
Wie Zapp Systems seine EDW- und SAP-Umgebung mithilfe von Datenautomatisierung transformieren konnte.

Dr. Schmitz wird die Situation erläutern, die Zapp Systems dazu veranlasste, nach einem Automatisierungstool zu suchen. Hierbei geht er auf die Herausforderung ein, mehrere inkonsistente Quellsysteme - darunter auch Produktionsdaten aus SAP - zusammenzuführen. Anschließend beschreibt er den Prozess des Vergleichs von Automatisierungstools wie WhereScape und Time Xtender in der Proof-of-Concept-Phase. Darauf aufbauend erklärt er wie und warum Zapp sich für einen Neuaufbau der Data-Warehouse Methodik mit WhereScape entschieden hat.

Im Weiteren wird er von der Reise berichten, die sein Team unternommen hat, als es auf eine automatisierte Denkweise umstieg und das Automatisierungstool mit dem Ziel genaue Analysen zu erstellen, erfolgreich mit SAP verknüpfte.  Anschließend erläutert Rainer, wie der tägliche Einsatz von Automatisierungssoftware die Geschäftsstrategie von Zapp beeinflusst und die Fähigkeiten des Datenteams verbessert hat.
 
Dann gibt Moritz einen technischen Deep Dive in die Architektur. Zunächst zeigt er uns die aktuelle Architektur und beschreibt die einzelnen Schichten und deren Funktion. Er wird zeigen, wie:
 
- Das Hinzufügen einer Spalte zum DWH in 15 Minuten möglich ist.
- Eine neue Tabelle aus SAP in einem Tag geladen, und in einer Stunde modelliert ist.
- Mithilfe von Modellkonvertierungen automatisiert Datentypen geändert werden.
- Das Automatisierungstool übersichtlich Abhängigkeiten im DWH visualisiert.
- Metadaten es dem Team ermöglichen, sofort eine vollständige Dokumentation zu erstellen.

Rainer Schmitz beschäftigt sich seit über 20 Jahren unter anderem mit dem Thema Daten Management (ERP Systeme, Prozessdaten, BI, DWA, CRM, Schnittstellen). Als Leiter des Process Management Department der Zapp Systems GmbH ist er mit seinem Team für Abbildung, Optimierung und Digitalisierung aller Geschäftsprozesse der gesamten Zapp Gruppe überwiegend in SAP verantwortlich.
Moritz Jungblut, spezialisierte sich während seines Studiums schon auf den Sektor Buisness Intelligence. Währenddessen arbeitete er in unterschiedlichen Unternehmen und hat sein Wissen in den Bereichen BI und Produktion stetig erweitert. Heute ist Moritz nach Abschluss seines Masterstudiums der Spezialist für BI bei der Firma Zapp Systems. Hier ist er verantwortlich für die strategische Weiterentwicklung, das Qualitätsmanagement sowie die operativen Tätigkeiten im BI. Mit seiner Unterstützung entfaltet das BI-System Tag für Tag mehr Potenzial und wächst zum fundamentalen Werkzeug für alle Abteilungen heran.
Rainer Schmitz, Moritz Jungblut
Rainer Schmitz, Moritz Jungblut
Vortrag: FF 3.1.1
09:00 - 09:40
FF 3.2.1
Data Gravity in der Cloud - das neue Paradies für die Analyse von Unternehmensdaten
Data Gravity in der Cloud - das neue Paradies für die Analyse von Unternehmensdaten

Die zunehmende Verbreitung von Cloud Services hat einen immensen Innovationsschub bei Analyse Methoden und Tools ausgelöst. Big Data Analytics, Deep Learning und Artificial Intelligence sind aber nicht nur für Cloud Anbieter interessant, sondern stellen auch für Unternehmen wichtige Hebel in der Überwachung und Optimierung von Geschäftsprozessen dar. Logistik und Fertigung sind davon besonders betroffen. In unserem Vortrag stellen wie vor, wie Unternehmen moderne Infrastrukturangebote nutzen, um damit verbundene Potentiale zu erschließen.

Seit über zehn Jahren ist Torsten in der Entwicklung, dem Bau und dem Betrieb von Cloud Infrastrukturen unterwegs. Vor seiner Tätigkeit bei Oracle war er als CTO bei Cisco und davor als Leiter des Cloud Entwicklungszentrums für Swisscom im Silicon Valley. Sein besonderes Augenmerk gilt der Nutzung von Cloud Infrastruktur in der Unternehmens-IT. Richteten sich Cloud Angebote ursprünglich an Entwickler, findet Cloud Infrastruktur mittlerweile Einzug im IT Betrieb bei vielen Unternehmen. Damit verändern sich auch Anforderungen an die Anbieter. So stellen die Anbindung und die Absicherung privater Rechenzentren, die Integration des Service Monitoring und Management in vorhandene ITSM Systeme oder die interne Verrechnung von Leistungen neue Anforderung dar. Das führt dazu bestehende Architekturen neu zu überdenken. Die Bereitstellung eines „Software-Defined Data Centers“ erfordert inzwischen hochspezialisierte Hardware und ein Portfolio von Netzwerkdiensten außerhalb von Rechenzentren, wie er in seinem Vortrag erläutert.
Torsten Boettjer
Torsten Boettjer
Vortrag: FF 3.2.1
09:00 - 10:30
Workshop 9
From business definition to DWH implementation – Metadatengetriebene DWH-Automatisierung mit dataspot. und der BSgroup Data Analytics
From business definition to DWH implementation – Metadatengetriebene DWH-Automatisierung mit dataspot. und der BSgroup Data Analytics

Wer von Ihnen schon einmal campen war, der kennt Sie vielleicht auch. Sogenannte Pop-Up Zelte, auch bekannt als Wurfzelte. Sie versprechen bezugsfertiges Camping-Glück binnen Sekunden.

Viele unserer Kunden haben noch immer das gleiche Bild im Kopf, wenn Sie mit uns über DWH-Automatisierung sprechen: Kostengünstig, schnell realisiert, überzeugendes Ergebnis.

Wie auch beim Wurfzelt, das im Gegensatz zu anderen Zeltvarianten zwar deutlich weniger aufwendig im Aufbau und einfacher in der Handhabung, sicher aber kein selbstaufbauendes Wunder ist, so verhält es sich auch mit der DWH-Automatisierung.

Doch wie können wir den Erwartungen unserer Stakeholdern in der Wurfzelt-Diskussion begegnen und was gibt es für Möglichkeiten, entsprechende Zeit- und Kosteneffekte sowie eine optimale Ergebnisqualität in DWH-Projekten zu realisieren?

Unsere Antwort heisst: Metadaten.

Was beim Wurfzelt ausgeklügelte Produktentwicklung ist, ist bei der DWH-Automatisierung die Vorarbeit im Rahmen der Analysephase. Als Projektleiter wissen wir, wie wichtig die Aufnahme der fachlichen Anforderungen an das Data Warehouse ist. Wird diese darüber hinaus in Form eines Fachdatenmodells abgebildet, dokumentiert und zudem noch Data Governance aufgebaut, ist die richtige Vorarbeit geleistet und die anschliessende Entwicklungsphase (fast) ein Klacks.

In unserem 90-minütigen Workshop stellen Barbara Kainz und Roger Unholz Ihnen unser End-2-End-Vorgehensmodell für metadatengetriebene DWH-Entwicklung vor, bei dem anhand der Metadatenmanagement-Software dataspot. ein Fachdatenmodell als Grundlage für die Data Governance und DWH-Entwicklung erstellt wird, das über den Data-Platform-Generator der BSgroup Data Analytics als Core-Modell im DWH umgesetzt wird.

Wer schon lange auf der Suche nach überzeugenden Werkzeugen und Methoden sowie einem Best-Practise-Vorgehen für die DWH-Entwicklung ist und ausserdem Lust hat mit uns die Ärmel hochzukrempeln und gemeinsam ein automatisiertes DWH auf der Grundlage von Metadaten zu entwickeln, der ist bei uns richtig!

Ausserdem werden wir bei unserem Workshop auch einen besonderen Schwerpunkt auf das Thema Data Governance legen, denn dataspot. ist DER Experte wenn es um den exzellenten Umgang mit Ihren Unternehmensdaten und die Umsetzung von Metadatenmanagement- und Data Excellence-Projekten geht.

Ergänzend zu diesem Workshop empfehlen wir Ihnen auch den Vortrag End-to-End-Use Case: Metadata Management & DWH mit Clemens Bousquet von der Oberbank und Lisa Müller von dataspot.

Voraussetzungen
Fortgeschrittene Kenntnisse in Datenmodellierung und DWH-Entwicklung

Zielgruppe

DWH-Architekten/ Solution Architects, BI Consultants, Data Engineers, Data Governance Manager

Level

advanced

Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach. 

Roger Unholz ist Power BI-Profi und in seiner Rolle als Partner und Senior Consultant bei der BSgroup Data Analytics seit mehr als 15 Jahren unermüdlich dafür im Einsatz, dass seine Kunden Reports und Dashboards nach den neusten Tech-Standards bekommen. Insbesondere die Themen Data Visualization und Information Design sind seine grosse Leidenschaft - aber auch die Weiterentwicklung des Service-Angebots liegt in seiner fachlichen Verantwortung  und so ist auch der Power BI Administrator, das jüngste Tool-Kit der BSgroup Data Analytics-Familie aus seinem Innovationsgeist heraus entstanden.
Barbara Kainz, Roger Unholz
Barbara Kainz, Roger Unholz
Track: Workshop
Vortrag: Workshop 9
09:50 - 10:30
FF 3.1.2
30 Minuten zur Analytics Plattform mit Infrastructure as Code
30 Minuten zur Analytics Plattform mit Infrastructure as Code

Analytische Plattformen für PoCs und Evaluation baut man in der Cloud in einer Stunde - mit vorgefertigten Setup-Scripts. Stellt man sich die Services aber frei zusammen, wird’s schon schwieriger. Dass es für Test- und PoC Umgebungen einfacher geht, zeigen wir mit der Open-Source Plattform-In-a-Box „Platys“ (https://github.com/TrivadisPF/platys). Neben Einsatzmöglichkeiten und Beispielen erklären wir Services und ziehen „eben mal kurz“ einen Data Lake mit DB, Event-Hub, Stream-Processing, Blobstore, SQL-Zugriff und Data Science Notebook hoch.

Guido Schmutz ist seit über 30 Jahren als Software-Entwickler, Berater, Architekt, Trainer und Coach tätig. Heute arbeitet er als Platform Architect für das IT-Dienstleistungsunternehmen Trivadis - Part of Accenture. Sein Interesse liegt in der Architektur, dem Design und der Umsetzung von modernen Software-Lösungen. Seit einigen Jahren beschäftigt er sich hauptsächlich mit Big Data & Fast Data und der Frage, wie sich diese neuen Technologien optimal in eine moderne Datenplattform integrieren lassen. Er ist regelmäßiger Sprecher auf internationalen Konferenzen und ist bekannt als Autor von Fachartikeln und diversen Fachbüchern.

Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.

Guido Schmutz, Peter Welker
Guido Schmutz, Peter Welker
Vortrag: FF 3.1.2
09:50 - 10:30
FF 3.2.2
Alles für diesen Moment – Vollautomatisierter Test auf Knopfdruck bei der Tributum Entwicklung
Alles für diesen Moment – Vollautomatisierter Test auf Knopfdruck bei der Tributum Entwicklung

Bei der Entwicklung der Sopra Steria Softwarelösung Tributum zur Berechnung der Abgeltungssteuer funktioniert jeder Test auf Knopfdruck. In diesem praxisorientierten Vortrag erfahren Sie, was bei diesem Knopfdruck passiert und wie viele Drähte „unter dem Armaturenbrett“ gezogen werden mussten, damit vom ersten Testdurchlauf bis zum Regressionstest alles automatisiert läuft.

Cornel Brücher befasst sich seit 1989 mit relationalen Datenbanken und spezialisierte sich 1998 bei Oracle Consulting auf Oracle-Technologien. Seitdem ist er als Berater im Einsatz, seit 2007 im Data-Warehouse-Umfeld. Neben dem klassischen Projektgeschäft bietet er diverse Schulungen an und ist Autor von Fachbüchern zu SQL und Oracle. Aktuell beschäftigt er sich intensiv mit dem Thema Testautomatisierung.
Cornel Brücher
Cornel Brücher
Vortrag: FF 3.2.2
10:40 - 11:20
FF 3.1.3
Focus KI: Lastspitzenmanagement
Focus KI: Lastspitzenmanagement

Lastspitzen treten in vielen vernetzten Systemen auf, wie z.B. Rechenzentren, Logistik und Warenlieferungen, Verkehrssystemen oder Stromnetzen. Sie sorgen für überproportional hohe Kosten, da entweder Überkapazitäten vorgehalten oder Leistungen extern eingekauft werden müssen. Ein Lastspitzenmanagement kann hier Kosten sparen und Ressourcen effizienter auslasten. In diesem Vortrag zeigen wir, wie unsere Forecast Engine den Verbrauch innerbetrieblicher Stromnetze optimiert und damit Kosten reduziert.Innerbetriebliche Stromnetze sind hoch-komplexe Systeme mit vielen individuellen Verbrauchern, deren Energiebedarf sich nur schwer prognostizieren lässt. Künstliche Intelligenz ist in solchen Anwendungsfällen eine effiziente Lösung für ein energetisches Lastspitzenmanagement. Ausgangspunkt ist ein Verfahren, mögliche (teure) Lastspitzen automatisiert zu prognostizieren und damit eine Reduzierung der Energiekosten zu erwirken.

Mittels maschinellen Lernens wurde eine datenbasierte Mustererkennung trainiert, deren Ergebnis eine Betrachtung der maximalen täglichen Lastentnahme ist. Diese automatisierte Betrachtung bietet Unternehmen die Möglichkeit, eine verbesserte Laststromplanung zu entwerfen und umzusetzen, indem ausschlaggebende Energieverbraucher innerhalb eines Unternehmens trotz komplexen Stromnetzen ermittelt und aufgezeigt werden.

Dr. Alexander Wunderle ist Head of Advanced Analytics & AI bei der infologistix GmbH. Er ist verantwortlich für die Entwicklung Analyse-getriebener Geschäftsmodelle und deren Umsetzung/Implementation. Seine Schwerpunkte liegen im Bereich Forschung & Entwicklung und Business Intelligence. Fachlich sind seine Spezialgebiete komplexe, multivariate Analysen und Forecasting Systeme.
Paul Schmidt ist Data Scientist bei der infologistix GmbH. Seine Schwerpunkte liegen im Bereich Industrie und Business Intelligence. Fachlich sind seine Spezialgebiete Mustererkennung und Maschinelles Lernen, sowie Cloud-Integrationen von KI.
Alexander Wunderle, Paul Schmidt
Alexander Wunderle, Paul Schmidt
Vortrag: FF 3.1.3
10:40 - 11:20
FF 3.2.3
Reporting Governance – endlich stimmen die Zahlen im Bericht
Reporting Governance – endlich stimmen die Zahlen im Bericht

Time-to-Market von Auswertungen hat sich massiv verkürzt, Berichte sind katalogisiert und werden nicht mehr redundant erstellt, Fachabteilungen erhalten Self-Service-Angebote und das Top-Management vertraut den Zahlen. Und außerdem ist alles auf Knopfdruck verfügbar. Aber wie erreicht man diese Ziele eines exzellenten Reportings und damit auch exzellenter datengetriebener Entscheidungsgrundlagen? dataspot. zeigt den machbaren Weg zur Vision mit Data Governance & Metadatenmanagement auf.

Michaela Mader ist Geschäftsführerin der dataspot. GmbH.
Jahrelange Beratungserfahrung in Analytics- und BI-Projekten führte zu Expertise in der Erarbeitung von Datenstrategien, Data Governance, fachlichem Bedarfsmanagement, Reporting Governance und Metadatenmanagement-Tools. Sie absolvierte ein wirtschaftswissenschaftliches Diplomstudium mit Schwerpunkt IT.
Michaela Mader
Michaela Mader
Vortrag: FF 3.2.3
11:30 - 12:10
FF 3.1.4
'In-depth' look at Computer Vision: distance measurement in Computer Vision
'In-depth' look at Computer Vision: distance measurement in Computer Vision

Computer vision, one of the hottest areas in Artificial Intelligence, is taking over the 'visual world'. In this talk we discuss about how does the computer interpret and understand the digital images to identify and classify objects. Further, we'll take a look into a very small aspect, i.e. distance measurement, and how impactful it can be in different usecases. We also talk about the current developments and future prospects of Computer Vision.

Akarsha works as a Senior Data Scientist in our Advanced Analytics team. She is skilled in Machine learning overall, but aims to specialise in Computer Vision. Before joining Steadforce, she has gained experience in Telecommunications and Renewable industry.  She comes from Computer Science background with a focus on Data Science, with her research published in two major conferences.
Akarsha Sehwag
Akarsha Sehwag
Vortrag: FF 3.1.4
12:25 - 13:10
KeyMi
KEYNOTE: Corporate IT Is a Theater Piece - What Role Are You Playing?
KEYNOTE: Corporate IT Is a Theater Piece - What Role Are You Playing?

The engagement of IT staff in organizations has been done for decades via a single function or department. Whatever title it bears, the single counter IT takes care of everything under the digital sun. This model generates unhealthy behaviors in the IT ranks that are detrimental to the enterprises that need digital to operate, evolve, transform —or survive. 

Drawing a parallel with a more mature industry, the current distribution of roles is analyzed and compared. It shows that the standard structure is creating conflicts of roles that would be unacceptable —and in some cases illegal— in many other fields of work.  

The typical IT engagement model in organizations has a direct effect on what constitutes success and how it is measured. These measures -in their current state- create a ripple effect on quality and value of digital investments.  

You should come to the inevitable conclusion:  it is more than time to radically re-think how technology teams engage in organizations.

Over three decades, R.M. has held multiple roles in the IT departments of mid to large organizations: programmer, business analyst, tester, database administrator, solution architect, data architect, enterprise architect, systems integrator. He also held several IT management positions, leading teams of architects and designers in insurance, telecommunications, banking, and travel & transportation.  
As a result of that relentless quest for an answer to all sorts of questions, R.M. has published a business book and regularly writes on LinkedIn and his blog about IT strategic management challenges.  He is also a member of the core team of the Intersection Group, a multi-disciplinary focussed on sharing ways to design better enterprises. 
Mr Bastien holds a bachelor’s degree in Management Information Systems and a Research-Oriented Masters in Business Administration. He’s been a certified project management professional PMP© for more than 15 years. When not working professionally, he renovates old houses or skips sailboats across oceans.
R.M. Bastien
R.M. Bastien
Track: Keynote
Vortrag: KeyMi
13:30 - 14:00
L&L Mi1
Ein Neuer Ansatz für Cloud Analytics Governance
Ein Neuer Ansatz für Cloud Analytics Governance

Wenn Unternehmen aus der Pandemie herauskommen, beschleunigen sie die digitale Transformation und modernisieren ihre Cloud-Analytics-Strategie, um datengesteuerte Entscheidungen für wichtige Geschäftsinitiativen zu ermöglichen. Der Druck wächst, vertrauenswürdige Daten für Self-Service-Analytics und AI in einer Multi-Cloud- und Hybridumgebung verfügbar zu machen. Um erfolgreich zu sein, müssen Unternehmen das Bedürfnis nach geschäftlicher Agilität mit Vertrauen, Konsistenz und Transparenz für Data Intelligence in Einklang bringen. In dieser Session werden die Herausforderungen und Anforderungen erläutert, die erforderlich sind, damit eine agile Governance-Strategie für Cloud-Daten und -Analysen vertrauenswürdige Erkenntnisse liefern kann.

Martin Schubert ist Principal Solutions Consultant bei Informatica und auf Datenqualität und Data Governance spezialisiert.
Martin Schubert
Martin Schubert
Vortrag: L&L Mi1

Zurück