PROGRAMM

Die im Konferenzprogramm der TDWI München 2022 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

 

Hier können Sie die Programmübersicht der TDWI München 2022 mit einem Klick als PDF herunterladen.

Track: #Data Architecture

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Montag
    20.06.
  • Dienstag
    21.06.
  • Mittwoch
    22.06.
, (Montag, 20.Juni 2022)
10:45 - 12:15
Mo 3.1
ROOM E101/102 | Operationalisierung von Big Data Use Cases
ROOM E101/102 | Operationalisierung von Big Data Use Cases

Viele Unternehmen haben in den letzten Jahren erfolgreich prototypische Big-Data- und Machine-Learning-Use-Cases auf On-Premises-Umgebungen umgesetzt. Eine wesentliche und oft unterschätzte Herausforderung ist dabei die Operationalisierung und die Integration von Big-Data-/ML-Anwendungen in die Anwendungslandschaft eines Unternehmens. Der Vortrag stellt Methoden und Konzepte vor, die für den Aufbau und die Operationalisierung einer standardisierten, zentralen Big-Data-/ML-Serviceplattform bei einem Versicherungsunternehmen eingesetzt wurden.

Zielpublikum: Data Engineer, Project Leader
Voraussetzungen: Basic knowledge, Erfahrungen mit Big-Data-Architekturen
Schwierigkeitsgrad: Fortgeschritten

  • Bachelor of Science (Wirtschaftsinformatik): Hochschule Furtwangen University, 10/2004 - 02/2008
  • Master of Science (Wirtschaftsinformatik): Hochschule Karlsruhe - University of Applied Sciences, 03/2008 - 06/2009
  • Consultant: integration-factory GmbH & Co. KG, 06/2009 - 09/2017 (Schwerpunkte: Datenintegration und Data Warehousing)
  • Managing Consultant Big Data: integration-factory GmbH & Co. KG, 10/2017 - heute (Schwerpunkte: Datenintegration, Cloud, Big Data)
  • 09.2005 - 02.2009 Hochschule Furtwangen University, Internationale Betriebswirtschaft (BA)
  • 10.2014 - 09.2016 Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen, Internationales Projektmanagement (MBA)
  • 04.2009 - 10.2010 SRH Holding, Controlling/ Management Reporting/ BI
  • 11.2010 - heute SV SparkassenVersicherung, BI/ DWH/ Data Engineering/ Data Analytics
ROOM E101/102 | Vanilla Data Platform - einmal alles richtig machen
ROOM E101/102 | Vanilla Data Platform - einmal alles richtig machen

[Vanilla] steht für einfach, grundlegend, konventionell - und langweilig? Auf keinen Fall! Aber eine Datenplattform - ideal auf die individuellen Anforderungen angepasst und trotzdem einfach - ist der Wunsch vieler BI-Leiter. Aber geht das, 'einfach'? Jein. Damit Du wirklich etwas von Deiner Plattform hast, sind ein paar grundlegende Dinge wichtig. Welche das sind und welche Stolpersteine Du auf dem Weg zur VDP (Vanilla Data Platform) besser vermeiden solltest, zeigen Dir Meik und Thomas (b.telligent) gemeinsam mit Margarethe von Seven.One Media.

Zielpublikum: BI-Teamleiter, BI-Architekten
Voraussetzungen: Grundlegendes Verständnis von BI und der Nutzung von Daten in Unternehmen
Schwierigkeitsgrad: Fortgeschritten

Als Principal Consultant legt Meik den Fokus auf Business Intelligence, Data Warehousing und Integration sowie Datenmodellierung, v.a. für die produzierende Industrie und die Finanzbranche. Er verfügt über mehr als 13 Jahre Erfahrung in der Analyse, Planung, Konzeption und Umsetzung branchenübergreifender Projektvorhaben einschließlich der Prozess- und Anforderungsanalyse und ganz besonders der Architektur von Daten.

Thomas berät Kunden aus verschiedenen Branchen, wie Immobilen und Finanzdienstleistungen, zu den Themen Business Intelligence, Data Warehouse und Reporting. Seine Projekterfahrung umfasst den kompletten Wertschöpfungsprozess von der Analyse, Planung, Konzeption bis hin zur Umsetzung von Projektvorhaben mit Fokus auf Data-Warehouse-Installationen.

Als Head of BI Engineering verantwortet Margarethe die Entwicklung und Architektur aller Business Intelligence-Produkte für den Entertainmentbereich der ProSiebenSat.1. Sie hat über 12 Jahre Erfahrung im Bereich Data Warehousing und dort insbesondere beim Projektmanagement. Aktuell beschäftigt sie sich in der Rolle des Product Owners mit der Cloudmigration einer unternehmensweiten BI Plattform.

Stefan Albrecht, Nadine Keller
Meik Truschkowski, Thomas Voigt, Margarethe Kobylka
Stefan Albrecht, Nadine Keller

Vortrag Teilen

Meik Truschkowski, Thomas Voigt, Margarethe Kobylka
flag VORTRAG MERKEN

Vortrag Teilen

13:45 - 15:00
Mo 3.2
ROOM F111 | Modern Data Stack - Buzzword oder echter Game-Changer?
ROOM F111 | Modern Data Stack - Buzzword oder echter Game-Changer?

Was verbirgt sich hinter dem Trend 'Modern Data Stack' und wie gut eignet er sich für den Aufbau von Analytics-Plattformen? Wir berichten über erste Erfahrungen im Aufbau und der Nutzung des Modern Data Stacks, stellen eine Architektur mit allen Komponenten vor und demonstrieren sie praktisch. Wir gehen auf die Trennung von Ingestion (EL) und Transformation (T) ein, sowie weitere Ideen, wie 'Metrics Store' und 'Reverse ETL'. Abschließend berichten wir von Problemen und Einstiegshürden bei Deployment, Einsatz und der Integration der Komponenten.

Zielpublikum: Data Engineer, Architect, Project Leader
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Einsteiger

Fabian Hardt arbeitet als Senior Consultant bei der OPITZ CONSULTING Deutschland GmbH. Er hat langjährige Projekterfahrung in BI- und Analytics-Projekten und beschäftigt sich mit modernen Architekturen für die gestiegenen Anforderungen im Zeitalter der Digitalisierung.

Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet nun im Bereich Business & IT Innovation der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.

Fabian Hardt, Jens Bleiholder
Fabian Hardt, Jens Bleiholder
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:45
Mo 3.3
ROOM F111 | Wenn KI einen in die Cloud treibt. Vom klassischen DWH zur modernen Data Platform
ROOM F111 | Wenn KI einen in die Cloud treibt. Vom klassischen DWH zur modernen Data Platform

Viele Unternehmen investierten in der Vergangenheit in klassische DWH-Architekturen. Seit einigen Jahren geraten diese durch stark geänderte Anforderung wie Analyseunterstützung durch künstliche Intelligenz oder echtzeitnahe Reports immer stärker unter Druck. 

In diesem Vortrag zeigen wir anhand eines Praxisbeispiels zwei Lösungswege (Managed Cloud Services und OSS-Plattformen) und wie durch eine Kombination von beiden den immer weiter steigenden Anforderungen optimal begegnet werden kann.

Zielpublikum: Geschäftsführer, BI-Analysten, IT-Verantwortliche
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Zahlreiche Unternehmen haben seit über 30 Jahren in eigene Data Warehouse und ETL-Infrastrukturen investiert und geraten in den letzten Jahren immer stärker unter Druck, diese Lösungen an die sich schnell ändernden Anforderungen des Marktes und der Anwender anzupassen. Steigende Kosten für Hardware, Infrastruktur, Administration und Entwicklung sind die Folge. Dennoch kann häufig keine zufriedenstellende Lösung erreicht werden.   

Analyse durch Künstliche Intelligenz, automatisierte Self-Services und echtzeitnahe Reports sind immer gängiger werdende Anforderungen, die damit nicht erfüllt werden können. Zudem sprengen die Anforderungen selbstlernender KI-Systeme oft die Grenzen vorhandener Infrastruktur im eigenen Rechenzentrum. 

Wir zeigen in diesem Vortrag anhand eines Praxisbeispiels zwei Lösungswege für die oben genannten Herausforderungen: Die Nutzung der Managed Cloud Services von Microsoft Azure und einer Kubernetes-basierten Anwendungs- und Datenplattform. Beide Konzepte haben individuelle Stärken und Schwächen, auf die wir näher eingehen werden. Dabei betrachten wir auch die Möglichkeiten einer schrittweisen Migration und gehen kurz auf Aspekte der Data Governance und der IT-Sicherheit ein. Abschließend zeigen wir, wie eine Kombination der beiden Ansätze zu einer individuell optimierten Lösung für unterschiedlichste Anforderungen führen kann.  

Die vorgestellte Lösung bietet: 

  • Flexibilität 
  • Kosteneffizienz 
  • Zukunftssicherheit 
  • Optimale Nutzererfahrung für Kunden und Mitarbeiter

Wolfgang Kettler ist Bereichsleiter für Microsoft BI & Cloud Services bei der infologistix GmbH. Er hat über 12 Jahre Erfahrung im Bereich der Architektur komplexer Daten-Plattformen und BI-Anwendungen. Als Senior Consultant berät er Kunden in den oben genannten Themenfeldern. Seine Spezialität ist die Migration bestehender on-premise Lösungen in moderne, skalierbare Cloud-Lösungen auf Microsoft Azure.

Dr.-Ing. Harald Philipp Gerhards ist Bereichsleiter für Cloud Native Computing bei der infologistix GmbH. Er hat mehrere Jahre Erfahrung als Senior Consultant sowohl für das klassische DWH als auch für verteilte cloud-basierte Systeme. Als Systemarchitekt berät er Kunden mit Fokus auf Container-Plattformen und Erweiterungen für Echtzeit-Analysen bestehender DWH- und BI-Architekturen.

Wolfgang Kettler, Harald Philipp Gerhards
Wolfgang Kettler, Harald Philipp Gerhards
flag VORTRAG MERKEN

Vortrag Teilen

17:15 - 18:30
Mo 3.4
ROOM F129 | Sports Analytics in der Cloud
ROOM F129 | Sports Analytics in der Cloud

Analytics-Lösungen wie Maschinelles Lernen, Künstliche Intelligenz und Hochleistungs-Computing bieten neue Ansätze für Sports Analytics und somit für Innovationen im Sport, Sport-Management sowie der Sportvermarktung. Nationalmannschaften, Ligen, Sendeanstalten und Vermarktungsagenturen nutzen diese Technologien schon heute. Sports Analytics hilft, Spieler effektiver zu trainieren, den Fans individuelle Statistiken und Bildinhalte zur Verfügung zu stellen, vorhandene Fan-Kontakte zu monetarisieren und vieles mehr.

Zielpublikum: BI Manager, Data Scientist, Sport Marketing,
Voraussetzungen: Interesse an cloudbasierten Analytics-Referenzarchitekturen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Im Vortrag wird am Beispiel eines Fußballinformationssystems vorgestellt, wie die areto as a Service Architektur (areto Platform) Unternehmen eine 'Out of the box Architektur' als Service anbietet, die auf die branchen- und unternehmensspezifischen Anforderungen ausgerichtet ist (Architecture as a Service). Die Architektur besteht aus Infrastrukturmodulen, die technologische Anforderungen im Unternehmen bedienen, wie z.B. das Aufsetzen von Data Warehouses und Integration mit Data Lakes und Data Pipelines (Datenverarbeitungsstrecken). Die Plattform bietet eine stabile und skalierbare zentrale Infrastruktur, die alle Abteilungen eines Unternehmens an zentraler Stelle bedienen kann. In der Architektur etabliert areto ausschließlich marktführende Cloud-Technologien von Vorreitern, wie AWS und Microsoft. Die areto Platform vereint Daten aus Branchen-relevanten Datenquellen und stellt diese für unternehmensspezifische Analyse den Fachabteilungen zur Verfügung (Data as a Service). Das optimale BI Tool wird hierfür bereits auf Wunsch bereitgestellt. Darüber hinaus bietet areto eine Vielzahl an vorkonfigurierten Dashboards und Reports, die auf fachliche Fragestellungen einzelner Branchen Antwort geben (Information as a Service). Der Data Platform Service von areto versetzt Unternehmen in die Lage, schnell und flexibel auf Marktanforderungen zu reagieren und ihren Konkurrenten immer einen Schritt voraus zu sein.

Till Sander weist eine fast 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Vor areto war er als Solution Manager bei verschiedenen Beratungsunternehmen tätig. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Business-Intelligence-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran. Seine Ausdauer und seinen Willen immer das Optimum zu erreichen, beweist er nicht nur in den Kundenprojekten sondern auch als passionierter Rennradler. Mehr infos finden Sie hier:  https://tillsander.wordpress.com/

André Dörr, BI Consultant und Data Engineer bei areto consulting. Als zertifizierter Data Vault 2.0 Practitioner (CDVP2) verfügt er über mehr als 12 Jahre Erfahrung in BI-Projekten in verschiedenen Industriesektoren. Er ist derzeit ein führender Data-Warehouse-Architekt bei areto, Sprecher auf Konferenzen und Autor des auf Sportwetten fokussierten Data Science Blogs https://beatthebookie.blog. André hat eine Leidenschaft dafür, Daten zum Leben zu erwecken und interessante Geschichten zu erzählen, die den digitalen Wandel in Unternehmen vorantreiben.

Steffen Görsdorf ist seit Gründung des Instituts für Spielanalyse im Jahr 2011 an Bord und hat an der Humboldt Universität zu Berlin Sportwissenschaft studiert. Seine Arbeitsschwerpunkte sind die Spielanalyse für die Sportpraxis und die datengetriebene Content-Generierung für Medienpartner. In den letzten Jahren lag sein Fokus darauf, Workflows zu entwickeln, die es Analysten in Vereinen und Verbänden ermöglichen, relevante kontextbasierte Spielszenen einer Fußballpartie in einem Dashboard zu identifizieren – ohne dabei die vollen 90 Minuten betrachten zu müssen. Das Ziel dabei ist, die Arbeit von Analysten in Vereinen und Verbänden effizienter zu gestalten und ihnen so mehr Kapazitäten für die Arbeit mit den Athleten zu schaffen. Aber auch ohne einen permanenten spielanalytischen Blick geht er gern ins Stadion oder die Halle, um Spiele im Fußball, Handball oder Basketball zu verfolgen. 

Till Sander, André Dörr, Steffen Görsdorf
Till Sander, André Dörr, Steffen Görsdorf
Vortrag: Mo 3.4
flag VORTRAG MERKEN

Vortrag Teilen

, (Dienstag, 21.Juni 2022)
09:00 - 10:15
Di 3.1
ROOM K3 | Data Architecture: Data Lake vs Lakehouse vs Data Mesh
ROOM K3 | Data Architecture: Data Lake vs Lakehouse vs Data Mesh

In order to succeed in creating a data driven enterprise it is clear that choosing the right data architecture is now critical. This session explores the evolution of data and analytics architecture and looks at what is needed to shorten time to value and create a data driven enterprise. It looks at the pros and cons of data lake, lakehouse and data mesh architectures and asks: Is there a best approach? Is a lot more than this needed to succeed?

Target Audience: Data architects, CDOs, CAOs, enterprise architects, data scientists, business analysts
Prerequisites: Basic understanding of data architectures used in supporting analytical workloads
Level: Advanced

Extended Abstract:
In many companies today the desire to become data driven goes all the way to the boardroom. The expectation is that as more and more data enters the enterprise, it should be possible to understand and use it to quickly and easily drive business value. In order to succeed in creating a data driven enterprise it is clear that choosing the right data architecture is now critical. However, data and analytics architecture has been evolving over recent years to a point where now there are multiple options. Is it a data lake that is needed? Is it a lakehouse? Or is it a data mesh? Should this be the focus or is it just vendor hype to fuel their own interests?  What are the pros and cons of these options? Is there a best approach? Is a lot more than this needed to succeed? This session explores the evolution of data and analytics architecture and looks at what is needed to shorten time to value and create a data driven enterprise.

  • Data and analytics - where are we?
  • Data and analytics architecture evolution
  • Architecture options and their pros and cons - data lake Vs lakehouse Vs data mesh
  • The shift to data fabric, DataOps, and MLOps to industrialise pipeline development and model deployment
  • Using a data and analytics marketplace to putting analytics to work across the enterprise

 

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

Mike Ferguson
Mike Ferguson
flag VORTRAG MERKEN

Vortrag Teilen

10:45 - 12:00
Di 3.2
ROOM K3 | Data Lakehouse: Marketing Hype or New Architecture?
ROOM K3 | Data Lakehouse: Marketing Hype or New Architecture?

The data lakehouse is the new popular data architecture. In a nutshell, the data lakehouse is a combination of a data warehouse and a data lake. It makes a lot of sense to combine them, because they are sharing the same data and similar logic. This session discusses all aspects of data warehouses and data lakes, including data quality, data governance, auditability, performance, historic data, and data integration, to determine if the data lakehouse is a marketing hype or whether this is really a valuable and realistic new data architecture.

Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists
Prerequisites: General knowledge of databases, data warehousing and BI
Level: Basic

Extended Abstract:
The data lakehouse is the new kid on the block in the world of data architectures. In a nutshell, the data lakehouse is a combination of a data warehouse and a data lake. In other words, this architecture is developed to support a typical data warehouse workload plus a data lake workload. It holds structured, semi-structured and unstructured data. Technically, in a data lake house the data is stored in files that can be accessed by any type of tool and database server. The data is not kept hostage by a specific database server. SQL engines are also able to access that data efficiently for more traditional business intelligence workloads. And data scientists can create their descriptive and prescriptive models directly on the data.  

It makes a lot of sense to combine these two worlds, because they are sharing the same data and they are sharing logic. But is this really possible? Or is this all too good to be true? This session discusses all aspects of data warehouses and data lakes, including data quality, data governance, auditability, performance, immutability, historic data, and data integration, to determine if the data lakehouse is a marketing hype or whether this is really a valuable and realistic new data architecture.

Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.

Rick van der Lans
Rick van der Lans
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 16:00
Di 3.3
ROOM K3 | How to Design a Logical Data Fabric?
ROOM K3 | How to Design a Logical Data Fabric?

A popular new architecture for offering frictionless access to data is the data fabric. With a data fabric, existing transactional and data delivery systems are wrapped (encapsulated) to make all of them look like one integrated system. A data fabric enables all data consumers to access and manipulate data. Technically, data is accessed and used through services. But data fabrics cannot be bought, they need to be designed and developed. This session discusses key guidelines for designing data fabrics.

Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists
Prerequisites: General knowledge of databases, data warehousing and BI
Level: Advanced

Extended Abstract:
Companies are becoming increasingly dependent on data. Having access to the right data at the right time is essential. This implies that users need frictionless access to all the data, wherever it is stored, in a transactional database, a data warehouse, or a data lake. It does not matter to users where data comes from as long as it meets all their requirements. Users do not want to be hindered by all the data delivery silos. They want one system that gives them access to all the data they need.

The solution to provide frictionless access cannot be data warehouse-like, wherein all the data is copied (again) to one big central database. In this second era of data integration, integration must be achieved without copying. A new solution must be based on a single universal entry point to access all data. Where and how the data is stored, whether it is stored in various databases, must be completely hidden from data users.

A popular new architecture that supports this approach is data fabric. With a data fabric, existing transactional and data delivery systems are wrapped (encapsulated) to make all the independent systems look like one integrated system.  

A data fabric is formed by a software layer that resides on top of all the existing transactional silos and data delivery silos, enabling all data consumers to access and manipulate data. Technically, data is accessed and used through services.  

A real data fabric supports any type of service, whether this is a more transactional or analytical service. And especially the second group of services is complex to develop. Maybe analytical services based on predefined queries are not that complex to develop, but how are such services developed that need to deal with ad-hoc queries?

This session explains the need for data fabrics that support all types of services and discusses key guidelines for designing data fabrics. Technologies are discussed that help with developing such services.

  •  What a data fabric is, and why you need one
  • How you can architect a service-centric fabric to gain flexibility and agility
  • The data management and integration capabilities that are most relevant
  •  Where to start your journey to data fabric success
  •  What is logical data fabric?

 

Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.

Rick van der Lans
Rick van der Lans
Vortrag: Di 3.3
flag VORTRAG MERKEN

Vortrag Teilen

16:30 - 18:00
Di 3.4
ROOM K3 | Transition towards a collaborative Data Mesh cloud platform
ROOM K3 | Transition towards a collaborative Data Mesh cloud platform

SWICA historically runs a data warehouse built by a centralized team and in parallel, multiple isolated solutions for domain specific analyses, which afford high maintenance and an extensive effort to stay compliant.

Modernizing our analytical environment, we are building a collaborative platform on MS Azure, utilizing the Data Mesh paradigms of data domain and data product.

We aim to deliver a managed data marketplace for all data domains to provide their data products on a modern platform with low maintenance and built-in security & compliance.

Target Audience: Data Analysts, Data Engineers, Project Leaders, Decision Makers
Prerequisites: Basic understanding of the data mesh concept, data warehouse architectures and the challenges of diverse analytical use cases from multiple lines of business
Level: Advanced
 

15 years of BI industry experience as a project manager, analyst, team lead and solution architect. Closely following new concepts and technologies, aiming for practical application in the enterprise world.

Building planning and reporting solutions for small and medium-sized enterprises for more than 15 years, the opportunity to build a modern cloud based data platform for SWICA the leading health insurance company in Switzerland, is a challenge to develop my personality and skills. A special candy comes with the usage of the latest cloud technologies and a high flexibility for building the solution.

Tobias Rist, Philipp Frenzel
Tobias Rist, Philipp Frenzel
Vortrag: Di 3.4
flag VORTRAG MERKEN

Vortrag Teilen

, (Mittwoch, 22.Juni 2022)
09:00 - 10:30
Mi 5.1
ROOM E119 | Data Literacy als Enabler der Data-Driven Company
ROOM E119 | Data Literacy als Enabler der Data-Driven Company

Durch die steigende Datenmenge und zunehmende technologische Möglichkeiten sind Begriffe wie Data Literacy (Datenkompetenz) in aller Munde. Unternehmen erhoffen sich, aus Daten einen Mehrwert zu generieren, schneller bessere Entscheidungen zu treffen, Prozesse zu optimieren und den Markt besser zu verstehen. Schnell stellt man fest, dass Technologie allein nicht ausreicht. Der richtige Nutzen und das richtige Verständnis der Daten sind heute entscheiden für jede Initiative im Bereich Data & Analytics.

Zielpublikum: Product Owner, Entscheider, CIO, CDO, Human Resource
Voraussetzungen: Grundlegendes Verständnis vom Nutzen von Business Intelligence und analytischem Datenmanagement
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Data Literacy kann als die Fähigkeit des Einzelnen verstanden werden, Daten im richtigen Kontext zu interpretieren und für sich nutzbar zu machen. Als Teil einer gelebten Datenkultur erzeugt Data Literacy nicht nur einen Mehrwert der Daten im Unternehmen sondern wird zunehmend zum Erfolgsfaktor für Dateninitiativen und Projekte im Bereich Business Intelligence und Analytics. Der Vortrag vermittelt ein Verständnis über wichtige Punkte, Rollenbilder und eine ganzheitliche Vorgehensweise zur Etablierung von Data Literacy-Initiativen im Unternehmen. Den Teilnehmern werden konkrete Bausteine und Vorgehensweisen an die Hand gegeben, wie Data Literacy im Unternehmen etabliert werden kann um das Wertversprechen von Dateninitiativen zu optimieren.

Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einsteig bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.

Laura Weber beschäftigt sich seit 3 Jahren mit der ganzheitlichen Betrachtung strategischer Data & Analytics-Themen. Ihre Erfahrung sammelte sie in Projekten unterschiedlicher Branchen unter Anwendung diverser Technologien und Methoden. Im Rahmen einer Thesis setzte sie sich intensiv mit Data Literacy auseinander und entwickelte ein Prozess-Framework zur Messung und Steigerung der Datenkompetenz.

Peter Baumann, Laura Weber
Peter Baumann, Laura Weber
Vortrag: Mi 5.1
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 12:30
Mi 5.2
ROOM E119 | Data Mesh - Datenmanagement auf den Kopf gestellt?
ROOM E119 | Data Mesh - Datenmanagement auf den Kopf gestellt?

Data Mesh ist heute DER Trend im Datenmanagement. Es wendet Microservice-Architekturansätze auf jede Art von Datenverarbeitung an und betrifft so auch Data Warehouses oder Data Lakes. 

Publikationen erschöpfen sich heute oft noch in der Betrachtung der - sicherlich wichtigen - kulturellen und organisatorischen Auswirkungen. 

Wir zeigen zudem auch live anhand eines konkreten Beispiels, wie Data Engineering, Data Governance, Data Warehousing etc. davon beeinflusst wird, wie eine konkrete Lösung aussehen kann und welche Hürden dabei zu nehmen sind. 

Zielpublikum: Digitalization Specialists, Enterprise and Solution Architects, Data Engineers, Data Scientists, Project Leaders, Decision Makers 
Voraussetzungen: Basic knowledge  in: Data Management, Data Warehousing, Lösungsarchitekturen 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Data Mesh ist ein relativ neues Konzept, das sich seit 2020 zu einem der am schnellsten wachsenden Trends entwickelt hat. Es erweitert den Paradigmenwechsel, der durch die Microservices-Architekturen eingeleitet wurde, und wendet ihn auf Datenarchitekturen an, die agile und skalierbare Analysen und maschinelles Lernen oder Künstliche Intelligenz ermöglichen - und beeinflusst somit auch das DWH.  

Data Mesh ist keine Technologie, sondern eine Praxis ... eine recht komplexe Praxis. Es ist eine neue Art, Daten, Data Engineering und alle damit verbundenen Prozesse zu betrachten, d. h. Data Governance, Datenqualität, Auditing, Data Warehousing und maschinelles Lernen. Es verändert die Perspektive, wie wir Daten in einem Unternehmen betrachten, völlig: Wir sind es gewohnt, sie von einem technischen Standpunkt aus zu betrachten, also wie man sie verwaltet, speichert, verarbeitet, welches ETL-Tool eingesetzt wird usw. Data Mesh dreht das auf die Geschäftsperspektive und hält dazu an, mit ihnen umzugehen, als wären sie echte Vermögenswerte, oder schlicht: als wären sie ein Produkt.  

Spannend, aber was bedeutet das? Wie genau setze ich einen Data Mesh um und wie unterscheidet es sich von bekannten Ansätzen wie DWH, Data Mart, Data Lake und Data Hub in der Praxis? Ist Data Mesh etwas für mich und mein Unternehmen und wenn ja, warum sollte ich es tun? Wie steht Data Mesh zu operativen Systemen? Lassen sich moderne, streaming- bzw. event-basierte Architekturen mit Data Mesh kombinieren? Wie gehe ich vor, wenn ich Data Mesh im Unternehmen einführen will?   

In unserem Vortrag gehen wir auf diese und weitere Fragen ein.  

Vor allem aber zeigen wir in einer Live-Demo ein End-2-End-Beispiel, welches die konkrete Umsetzung eines Data Mesh in der Praxis zeigt. Die Technologien und Services, auf welchen die Dataprodukte basieren, sind dabei ebenfalls ein Thema. 

Guido Schmutz ist seit über 30 Jahren als Software-Entwickler, Berater, Architekt, Trainer und Coach tätig. Heute arbeitet er als Platform Architect für das IT-Dienstleistungsunternehmen Trivadis - Part of Accenture. Sein Interesse liegt in der Architektur, dem Design und der Umsetzung von modernen Software-Lösungen. Seit einigen Jahren beschäftigt er sich hauptsächlich mit Big Data & Fast Data und der Frage, wie sich diese neuen Technologien optimal in eine moderne Datenplattform integrieren lassen. Er ist regelmäßiger Sprecher auf internationalen Konferenzen und ist bekannt als Autor von Fachartikeln und diversen Fachbüchern.

Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.

Guido Schmutz, Peter Welker
Guido Schmutz, Peter Welker
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 15:15
Mi 5.3
ROOM K3 | Über Low-Code zum Pro-Code: Der Weg zur App in Großprojekten
ROOM K3 | Über Low-Code zum Pro-Code: Der Weg zur App in Großprojekten

Wir beschreiben einen Weg der Digitalisierung und Automatisierung von manuellen Aufgaben in Fachabteilungen zu technisch ausgereiften Lösungen - mit Fokus auf die Zwischenstation Low-Code-Applikation und deren Vorteile für die Anwendungsentwicklung. Wie kann die Nutzung von Low-Code-Entwicklungsmöglichkeiten schnell die Datenqualität in Großprojekten erhöhen, ohne dabei gleichzeitig eine langfristige, stabile Lösung zu vernachlässigen, und welche Voraussetzungen braucht es dafür? 

Zielpublikum: Data Engineers, Projektmanager, Decision Makers, Data Specialists, Project Information Manager 
Voraussetzungen: Erfahrung in Datentransformation 
Schwierigkeitsgrad: Einsteiger 

Extended Abstract: 
Typischerweise führen verschiedene Fachabteilungen in großen Unternehmen regelmäßig die gleichen, wiederkehrenden, datengetriebenen Aufgaben für verschiedene Projekte aus. Oft behelfen sich Nutzer hierbei mit Mehrzweck-Desktop-Applikationen wie z.B. Tabellenkalkulationen. 

In diesem Vortrag zeigen wir eine Möglichkeit, entsprechende Vorgänge zu digitalisieren und Teile zu automatisieren, ohne zu Beginn dieses Weges bereits alle einzelnen Facetten und Anforderungen in den verschiedenen Projekten eines Unternehmens zu kennen. Hierbei spielen Low-Code-Applikationen eine entscheidende Rolle - als Zwischenstationen auf dem Weg zu einer ausgereiften, aber auch aufwendigen Lösung. So können schnell Erfolge erzielt und die Datenqualität erhöht werden, während eine langfristige, stabile Lösung nicht aus den Augen verloren wird. 

Andreas Artinger arbeitet als Managing Consultant für das IT-Dienstleistungsunternehmen PRODATO Integration Technology GmbH. Seit 2017 berät er Kunden zu den Themen Datenintegration und Reporting sowie Low-Code-Applikationen und entwickelt Lösungen für datenzentrierte Fragestellungen in Großprojekten des Anlagenbaus.

Konstantin Leichte ist Master of Science in Systems Engineering und seit mehr als 10 Jahren für die Linde GmbH in Pullach tätig. Als Lead Data Manager beschäftigt er sich mit den Herausforderungen der Automatisierung, des Reportings und von Datentransfers für Großprojekte des Anlagenbaus.

Andreas Artinger, Konstantin Leichte
Andreas Artinger, Konstantin Leichte
Vortrag: Mi 5.3
Themen: Low Code
flag VORTRAG MERKEN

Vortrag Teilen

Zurück