
Die im Konferenzprogramm der TDWI München 2022 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Hier können Sie die Programmübersicht der TDWI München 2022 mit einem Klick als PDF herunterladen.
Thema: Architecture
- Montag
20.06. - Dienstag
21.06. - Mittwoch
22.06.
Fast jeder Beitrag zu moderner BIA fängt mit dem Satz an 'Noch nie wurden so viele Daten wie heute gesammelt'. Es gilt als Daumenregel: Willst du Machine Learning machen, musst du viele Daten sammeln. Da wird man schon fast zum Spielverderber, wenn man das Thema Datenlöschungen anspricht. Erfahren Sie, warum es trotzdem wichtig ist, dieses eher unliebsame Thema als Spezialfall einer Data Governance auf die Tagesordnung zu setzen.
Zielpublikum: CDOs, CISOs, IT-Leiter, Datenschutzverantwortliche
Voraussetzungen: Grundlegendes Verständnis von Datenintegrationen und Datenschutz
Schwierigkeitsgrad: Einsteiger
Christian Schneider ist der Director Data & Analytics bei der QuinScape GmbH. Als Consultant und Projektleiter war er langjährig in internationalen Großprojekten tätig und kennt die vielfältigen Herausforderungen unterschiedlichster Integrations- und Analytikszenarien aus der praktischen Arbeit. Als Speaker und in Publikationen beleuchtet er die Aspekte des Aufbaus von nachhaltigen Dateninfrastrukturen mit einem im späteren Betrieb überschaubaren Kostenrahmen durch eine zielorientierte Data Governance.
The setup of a decentral function-based data governance requires time, shapes a continuous learning organisation and grows data capabilities and competence in the functions. Through these means a sustainable data culture is established and anchored, which plays a particular role in realising the strategic corporate goals, such as the digital transformation of processes.
Target Audience: Data Governance Manager, Data Passionist, CDO, CIO, Data Analytics Specialist
Prerequisites: Basic knowledge of the Data Governance
Level: Basic
Leonie Frank has worked in data management for the past 10 years for companies like Google and Swarovski and supported others in her role as a consultant. Her passion is to drive activities related to data management not only to roles and responsibilities, standards and guidelines but also to data architecture, data quality and data performance. Leonie’s goal is to enable teams that help to increase data maturity allowing to safeguard and utilise data as a company asset. She holds a degree in International Business Administration, a master in International Political Economy from the University of Warwick in the UK, a certificate in Statistics and one in Applied Information Technology from ETH in Switzerland. Leonie lives in Zurich and loves fine cooking and dining as well as mountaineering.
Vortrag Teilen
Vortrag Teilen
Was verbirgt sich hinter dem Trend 'Modern Data Stack' und wie gut eignet er sich für den Aufbau von Analytics-Plattformen? Wir berichten über erste Erfahrungen im Aufbau und der Nutzung des Modern Data Stacks, stellen eine Architektur mit allen Komponenten vor und demonstrieren sie praktisch. Wir gehen auf die Trennung von Ingestion (EL) und Transformation (T) ein, sowie weitere Ideen, wie 'Metrics Store' und 'Reverse ETL'. Abschließend berichten wir von Problemen und Einstiegshürden bei Deployment, Einsatz und der Integration der Komponenten.
Zielpublikum: Data Engineer, Architect, Project Leader
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Einsteiger
Fabian Hardt arbeitet als Senior Consultant bei der OPITZ CONSULTING Deutschland GmbH. Er hat langjährige Projekterfahrung in BI- und Analytics-Projekten und beschäftigt sich mit modernen Architekturen für die gestiegenen Anforderungen im Zeitalter der Digitalisierung.
Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet nun im Bereich Business & IT Innovation der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.
Vortrag Teilen
Künstliche Intelligenz ist schon längst dem Pionierzeitalter entwachsen. Doch um mit dem Einsatz von KI einen echten Mehrwert für das Unternehmen zu schaffen, kommt es auf die qualitativ hochwertige Bereitstellung von Daten an. Hier kommt ML Engineering ins Spiel - ein Konzept zur Bewältigung der hohen Komplexität von Daten bei der Entwicklung von KI-Systemen. Im Vortrag wird eine ML Engineering Roadmap vorgestellt, mit der dieses häufig unterschätzte und doch so kritische Konzept erfolgreich eingesetzt werden kann.
Zielpublikum: Data Engineer, Data Scientist, Unternehmer mit praktischem KI-Interesse
Voraussetzungen: Interesse an KI- und ML-Themen, Grundlagen- bis fortgeschrittene Kenntnisse in den Bereichen Data Science und/oder Data Engineering
Schwierigkeitsgrad: Fortgeschritten
Lars Nielsch ist als Principle Solution Architect Analytics & Cloud bei Adastra tätig. Nach seinem Studium der Angewandten Informatik an der TU Dresden ist er seit 1998 in der BIA-Beratung tätig. Seine besonderen Interessen liegen in den Themen Enterprise BI, Large Databases, Data Engineering (ETL-Design), Data Science (MLOps) und Big-Data-Architekturen (Data Vault, Data Lake, Streaming).
As the data mesh paradigm takes the industry by storm, the conversation deep dives into the architecture, neglecting the socio-organizational element. Data driven organizations must invest not only in infrastructure but also data organization and culture.
Target Audience: Executive, senior business managers
Prerequisites: None
Level: Basic
Jennifer Belissent joined Snowflake as Principal Data Strategist in early 2021, having most recently spent 12 years at Forrester Research as an internationally recognized expert in establishing data and analytics organizations and exploiting data's potential value. Jennifer is widely published and a frequent speaker. Previously, Jennifer held management positions in the Silicon Valley, designed urban policy programs in Eastern Europe and Russia, and taught math as a Peace Corps volunteer in Central Africa. Jennifer earned a Ph.D. and an M.A. in political science from Stanford University and a B.A. in econometrics from the University of Virginia. She currently lives in the French Alps, and is an avid alpinist and intrepid world traveler.
Die HUK-COBURG agiert seit über 8 Jahren nach einer BI-Strategie. Die BI-Strategie und die zugrunde liegenden Datenarchitekturen wurden und werden fortlaufend angepasst. In diesem Track werden Weiterentwicklungen und Trends der Datenarchitekturen bei der HUK-COBURG vorgestellt.
Zielpublikum: Data Architects, Data Engineer, Data Scientist, Project Leader
Voraussetzungen: Grundkenntnisse Business Intelligence und Datenarchitekturen
Schwierigkeitsgrad: Einsteiger
Michael Fischer-Dederra beschäftigt sich seit seiner Diplomarbeit Anfang des Jahrtausends mit BI und ist, von seinen nunmehr 15 Jahren bei der HUK-COBURG, die letzten 6 Jahre als BI Lead Architect für den Ausbau des erweiterten Daten-Ökosystems und dessen Interaktion mit der Unternehmensumwelt zuständig.
Michael Kolb ist seit 14 Jahren im Business Intelligence-Umfeld tätig - davon seit über 8 Jahren als BI-Projektleiter und BI-Architekt im BICC der HUK-COBURG. Seit zwei Jahren begleitet er die Themen Data Cataloging und Data Governance im Kontext des erweiterten Daten-Ökosystems der HUK-COBURG.
Im Zuge einer Neuausrichtung der Analytics-Infrastruktur plant die GVV die Einführung eines neuen DWHs, das eine Gesamtsicht für Reporting und Analyse ermöglicht. Ziel des Projektes war die Anwendung innovativer Methoden, welche das Data Analytics-Zielbild zukunftsfähig macht, die Anforderungen in hohem Maße flexibel umsetzt und von geringer Fehleranfälligkeit gekennzeichnet ist. Diese Ziele werden durch den Einsatz einer Cloud-DB unter Nutzung einer Generierungs-SW für DataVault-Modellierung und moderner BI-Tools in hohem Maße erfüllt.
Zielpublikum: BI-Manager, Data-Analysten, Cloud-Architekten
Voraussetzungen: Versicherungs- und BI-Architektur-Grundverständnis
Schwierigkeitsgrad: Fortgeschritten
Lasse Wiedemann berät seit mehr als 4 Jahren Kunden aus der Finanzdienstleistungsbranche erfolgreich zu ETL- und BI-Fragestellungen. Dabei hat er sich auf das Thema Data Management konzentriert und ist bei PPI für diesen Bereich verantwortlich.
Vortrag Teilen
Vortrag Teilen
Analytics-Lösungen wie Maschinelles Lernen, Künstliche Intelligenz und Hochleistungs-Computing bieten neue Ansätze für Sports Analytics und somit für Innovationen im Sport, Sport-Management sowie der Sportvermarktung. Nationalmannschaften, Ligen, Sendeanstalten und Vermarktungsagenturen nutzen diese Technologien schon heute. Sports Analytics hilft, Spieler effektiver zu trainieren, den Fans individuelle Statistiken und Bildinhalte zur Verfügung zu stellen, vorhandene Fan-Kontakte zu monetarisieren und vieles mehr.
Zielpublikum: BI Manager, Data Scientist, Sport Marketing,
Voraussetzungen: Interesse an cloudbasierten Analytics-Referenzarchitekturen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Im Vortrag wird am Beispiel eines Fußballinformationssystems vorgestellt, wie die areto as a Service Architektur (areto Platform) Unternehmen eine 'Out of the box Architektur' als Service anbietet, die auf die branchen- und unternehmensspezifischen Anforderungen ausgerichtet ist (Architecture as a Service). Die Architektur besteht aus Infrastrukturmodulen, die technologische Anforderungen im Unternehmen bedienen, wie z.B. das Aufsetzen von Data Warehouses und Integration mit Data Lakes und Data Pipelines (Datenverarbeitungsstrecken). Die Plattform bietet eine stabile und skalierbare zentrale Infrastruktur, die alle Abteilungen eines Unternehmens an zentraler Stelle bedienen kann. In der Architektur etabliert areto ausschließlich marktführende Cloud-Technologien von Vorreitern, wie AWS und Microsoft. Die areto Platform vereint Daten aus Branchen-relevanten Datenquellen und stellt diese für unternehmensspezifische Analyse den Fachabteilungen zur Verfügung (Data as a Service). Das optimale BI Tool wird hierfür bereits auf Wunsch bereitgestellt. Darüber hinaus bietet areto eine Vielzahl an vorkonfigurierten Dashboards und Reports, die auf fachliche Fragestellungen einzelner Branchen Antwort geben (Information as a Service). Der Data Platform Service von areto versetzt Unternehmen in die Lage, schnell und flexibel auf Marktanforderungen zu reagieren und ihren Konkurrenten immer einen Schritt voraus zu sein.
Till Sander weist eine fast 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Vor areto war er als Solution Manager bei verschiedenen Beratungsunternehmen tätig. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Business-Intelligence-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran. Seine Ausdauer und seinen Willen immer das Optimum zu erreichen, beweist er nicht nur in den Kundenprojekten sondern auch als passionierter Rennradler. Mehr infos finden Sie hier: https://tillsander.wordpress.com/
André Dörr, BI Consultant und Data Engineer bei areto consulting. Als zertifizierter Data Vault 2.0 Practitioner (CDVP2) verfügt er über mehr als 12 Jahre Erfahrung in BI-Projekten in verschiedenen Industriesektoren. Er ist derzeit ein führender Data-Warehouse-Architekt bei areto, Sprecher auf Konferenzen und Autor des auf Sportwetten fokussierten Data Science Blogs https://beatthebookie.blog. André hat eine Leidenschaft dafür, Daten zum Leben zu erwecken und interessante Geschichten zu erzählen, die den digitalen Wandel in Unternehmen vorantreiben.
Steffen Görsdorf ist seit Gründung des Instituts für Spielanalyse im Jahr 2011 an Bord und hat an der Humboldt Universität zu Berlin Sportwissenschaft studiert. Seine Arbeitsschwerpunkte sind die Spielanalyse für die Sportpraxis und die datengetriebene Content-Generierung für Medienpartner. In den letzten Jahren lag sein Fokus darauf, Workflows zu entwickeln, die es Analysten in Vereinen und Verbänden ermöglichen, relevante kontextbasierte Spielszenen einer Fußballpartie in einem Dashboard zu identifizieren – ohne dabei die vollen 90 Minuten betrachten zu müssen. Das Ziel dabei ist, die Arbeit von Analysten in Vereinen und Verbänden effizienter zu gestalten und ihnen so mehr Kapazitäten für die Arbeit mit den Athleten zu schaffen. Aber auch ohne einen permanenten spielanalytischen Blick geht er gern ins Stadion oder die Halle, um Spiele im Fußball, Handball oder Basketball zu verfolgen.
Vortrag Teilen
In order to succeed in creating a data driven enterprise it is clear that choosing the right data architecture is now critical. This session explores the evolution of data and analytics architecture and looks at what is needed to shorten time to value and create a data driven enterprise. It looks at the pros and cons of data lake, lakehouse and data mesh architectures and asks: Is there a best approach? Is a lot more than this needed to succeed?
Target Audience: Data architects, CDOs, CAOs, enterprise architects, data scientists, business analysts
Prerequisites: Basic understanding of data architectures used in supporting analytical workloads
Level: Advanced
Extended Abstract:
In many companies today the desire to become data driven goes all the way to the boardroom. The expectation is that as more and more data enters the enterprise, it should be possible to understand and use it to quickly and easily drive business value. In order to succeed in creating a data driven enterprise it is clear that choosing the right data architecture is now critical. However, data and analytics architecture has been evolving over recent years to a point where now there are multiple options. Is it a data lake that is needed? Is it a lakehouse? Or is it a data mesh? Should this be the focus or is it just vendor hype to fuel their own interests? What are the pros and cons of these options? Is there a best approach? Is a lot more than this needed to succeed? This session explores the evolution of data and analytics architecture and looks at what is needed to shorten time to value and create a data driven enterprise.
- Data and analytics - where are we?
- Data and analytics architecture evolution
- Architecture options and their pros and cons - data lake Vs lakehouse Vs data mesh
- The shift to data fabric, DataOps, and MLOps to industrialise pipeline development and model deployment
- Using a data and analytics marketplace to putting analytics to work across the enterprise
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Vortrag Teilen
Viele Unternehmen sehen sich mit neuen digitalen Anforderungen konfrontiert. Eine Lösung stellt hier die Einführung eines Data Excellence Frameworks dar. Nach der Festlegung von Richtlinien und dem Aufbau einer Organisation stehen viele Unternehmen vor der Hürde der Ausrollung des Data Excellence Frameworks. Die Raiffeisen-Landesbank Steiermark nutzt hier die von außen einfließenden (Daten-)Anforderungen, zum Beispiel aus der Regulatorik, um ihr Data Excellence Framework zum Leben zu erwecken und erfolgreich in die Organisation zu tragen.
Zielpublikum: Data Governance-Verantwortliche, Data Scientists, CDO
Voraussetzungen: Experience, Senior Level
Schwierigkeitsgrad: Fortgeschritten
Markus Hefler ist Chief Information Security Officer und Chief Data Protection Officer der RLB Steiermark und betreut als solcher auch das Data Excellence Programm der Bank mit dem Ziel, die Datenflüsse unter Kontrolle zu halten, sowie mithilfe qualitativ hochwertiger Daten einen Mehrwert für die RLB Steiermark und ihre Kunden zu generieren.
Lisa Müller ist Senior Consultant bei dataspot. Seit mehreren Jahren setzt sie sich im Projektgeschäft - besonders im Bankwesen - mit Fragestellungen an der Schnittstelle zwischen Fachbereich und Technik auseinander und erarbeitet kundenindividuelle Lösungen. Ihre exzellente fachliche Expertise kommt dabei im gesamten Lebenszyklus von Metadaten und Data Governance zur Geltung, wobei sie besonderen Wert auf die fachliche Datenmodellierung und das Metadatenmanagement legt. Neben zwei abgeschlossenen Bachelorstudien hält sie einen Master in Betriebswirtschaft.
Ein 'Banksteuerungs-DWH neu' zu entwickeln, war das große Ziel der österreichischen 3-Banken-Gruppe. Der fachliche Ansatz mittels Fachdatenmodell hat nicht nur die IT entlastet, sondern den Fachbereich unmittelbar in seine Data Governance-Verantwortung geführt. Damit das DWH aber nicht nur einen Mehrwert für die Banksteuerung bringt, wurde mit dem Fachbereich die fachliche Datenarchitektur klargestellt und auf dieser Basis ein Datenmodell samt Umsetzung entwickelt, das gleichzeitig einen großen Nutzen für alle operativen Bereiche bietet.
Zielpublikum: Data Governance-Verantwortliche, Data Scientists, CDO
Voraussetzungen: Experience, Senior Level
Schwierigkeitsgrad: Fortgeschritten
Clemens Bousquet ist Risikomanager in der Oberbank, die Teil der österreichischen 3-Banken-Gruppe ist. Sowohl in einer Leitungsfunktion des Risikomanagements als auch in zahlreichen Projekten hat er eine hohe Expertise in der fachlichen Datenmodellierung, der Einführung von Data Governance, aber auch der Umsetzung von BCBS 239 und IFRS 9 aufgebaut. Zuvor hat er die Diplomstudien in Volkswirtschaftslehre und Internationale Wirtschaftswissenschaften absolviert.
Vortrag Teilen
Vortrag Teilen
The data lakehouse is the new popular data architecture. In a nutshell, the data lakehouse is a combination of a data warehouse and a data lake. It makes a lot of sense to combine them, because they are sharing the same data and similar logic. This session discusses all aspects of data warehouses and data lakes, including data quality, data governance, auditability, performance, historic data, and data integration, to determine if the data lakehouse is a marketing hype or whether this is really a valuable and realistic new data architecture.
Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists
Prerequisites: General knowledge of databases, data warehousing and BI
Level: Basic
Extended Abstract:
The data lakehouse is the new kid on the block in the world of data architectures. In a nutshell, the data lakehouse is a combination of a data warehouse and a data lake. In other words, this architecture is developed to support a typical data warehouse workload plus a data lake workload. It holds structured, semi-structured and unstructured data. Technically, in a data lake house the data is stored in files that can be accessed by any type of tool and database server. The data is not kept hostage by a specific database server. SQL engines are also able to access that data efficiently for more traditional business intelligence workloads. And data scientists can create their descriptive and prescriptive models directly on the data.
It makes a lot of sense to combine these two worlds, because they are sharing the same data and they are sharing logic. But is this really possible? Or is this all too good to be true? This session discusses all aspects of data warehouses and data lakes, including data quality, data governance, auditability, performance, immutability, historic data, and data integration, to determine if the data lakehouse is a marketing hype or whether this is really a valuable and realistic new data architecture.
Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.
Vortrag Teilen
Beim Aufbau moderner DWHs kann man sich dem Thema 'Cloud' nur noch schwer entziehen. Echte Cloud-Datenbank wie z.B. Snowflake weisen den Weg konsequent in Richtung einer skalierbaren Datenplattform. Aufseiten der ETL-Werkzeuge kristallisiert sich mit Matillion ein herausragendes Werkzeug für Cloud DWH heraus. Mithilfe eines intelligenten Frameworks und einer agilen Vorgehensweise zeigt dieser Vortrag, wie Unternehmen die Data Vault-Modellierung mit der Skalierbarkeit der Cloud verbinden können.
Zielpublikum: DWH & BI-Experten, BI-Manager, Data Engineer
Voraussetzungen: DWH Grundwissen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Moderne DWHs basieren in der Regel auf einer Data Vault-Modellierung. Data Vault zeichnet sich durch eine extreme Flexibilität und Erweiterbarkeit aus, die aber u.a. durch eine Vielzahl an Datenbankobjekten mit entsprechend vielen Referenzen erkauft wird. Eine manuelle Erstellung eines Data Vault-Modells inkl. der Ladroutinen verbietet sich schon vor dem Hintergrund des zu erwartenden Arbeitsaufwandes. Vielmehr noch schreit ein Data Vault-Modell aufgrund der hohen Standardisierung geradezu nach einer Automatisierung oder zumindest automatisierten Generierung.
Matillion bietet auf den ersten Blick keine Möglichkeit, komplexe Datenmodelle zu erzeugen oder gar ELT-Prozesse zu automatisieren. Matillion bietet aber sehr wohl das technische Grundgerüst, um eine Automatisierung zu entwerfen und auszuführen. Dieser Herausforderung hat sich areto angenommen und einen DV-Generator-Framework entwickelt, das den Aufbau eines Data Vault-basierten DWHs automatisiert und sowohl die Datenmodellierung als auch die Datenbewirtschaftung anhand weniger Metadaten realisiert.
Der areto DV-Generator basiert auf Matillion Standardoperator und der Fähigkeit Matillions, alle Operatoren mittels Variablen zu dynamisieren. Der Anwender muss lediglich ein paar Metadaten pflegen und die Fragen beantworten, die im Zuge jeder Data Vault-Modellierung gestellt werden. Auf Basis dieser Daten wird dann ein komplettes Data Vault 2.0-Modell generiert und beladen. Dem Entwickler steht somit eine Ergänzung zu Matillion zur Verfügung, die es ermöglicht, innerhalb sehr kurzer Zeit ein komplett standardisiertes und auf Best Practices basierendes DWH zu generieren und sukzessive zu erweitern.
André Dörr, BI Consultant und Data Engineer bei areto consulting. Als zertifizierter Data Vault 2.0 Practitioner (CDVP2) verfügt er über mehr als 12 Jahre Erfahrung in BI-Projekten in verschiedenen Industriesektoren. Er ist derzeit ein führender Data-Warehouse-Architekt bei areto, Sprecher auf Konferenzen und Autor des auf Sportwetten fokussierten Data Science Blogs https://beatthebookie.blog. André hat eine Leidenschaft dafür, Daten zum Leben zu erwecken und interessante Geschichten zu erzählen, die den digitalen Wandel in Unternehmen vorantreiben.
A popular new architecture for offering frictionless access to data is the data fabric. With a data fabric, existing transactional and data delivery systems are wrapped (encapsulated) to make all of them look like one integrated system. A data fabric enables all data consumers to access and manipulate data. Technically, data is accessed and used through services. But data fabrics cannot be bought, they need to be designed and developed. This session discusses key guidelines for designing data fabrics.
Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists
Prerequisites: General knowledge of databases, data warehousing and BI
Level: Advanced
Extended Abstract:
Companies are becoming increasingly dependent on data. Having access to the right data at the right time is essential. This implies that users need frictionless access to all the data, wherever it is stored, in a transactional database, a data warehouse, or a data lake. It does not matter to users where data comes from as long as it meets all their requirements. Users do not want to be hindered by all the data delivery silos. They want one system that gives them access to all the data they need.
The solution to provide frictionless access cannot be data warehouse-like, wherein all the data is copied (again) to one big central database. In this second era of data integration, integration must be achieved without copying. A new solution must be based on a single universal entry point to access all data. Where and how the data is stored, whether it is stored in various databases, must be completely hidden from data users.
A popular new architecture that supports this approach is data fabric. With a data fabric, existing transactional and data delivery systems are wrapped (encapsulated) to make all the independent systems look like one integrated system.
A data fabric is formed by a software layer that resides on top of all the existing transactional silos and data delivery silos, enabling all data consumers to access and manipulate data. Technically, data is accessed and used through services.
A real data fabric supports any type of service, whether this is a more transactional or analytical service. And especially the second group of services is complex to develop. Maybe analytical services based on predefined queries are not that complex to develop, but how are such services developed that need to deal with ad-hoc queries?
This session explains the need for data fabrics that support all types of services and discusses key guidelines for designing data fabrics. Technologies are discussed that help with developing such services.
- What a data fabric is, and why you need one
- How you can architect a service-centric fabric to gain flexibility and agility
- The data management and integration capabilities that are most relevant
- Where to start your journey to data fabric success
- What is logical data fabric?
Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.
Dank hoch flexibler Cloud-Technologien ist das Modern Data Warehouse wie geschaffen für den Aufbau von Internet-of-Things(IoT)-Lösungen. Doch wie sieht eine leistungsfähige Architektur aus? Insbesondere, wenn immer mehr Streaming-Quellen direkt in die Datenanalyse einfließen sollen?
Jens Kröhnert und Christoph Epping bauen vor den Augen des Publikums eine vollständige IoT-Infrastruktur auf und spielen konkrete Einsatzszenarien durch. Dabei werden von Lambda über Kappa bis hin zu DataMesh die aktuell wichtigen Architekturtrends angesprochen.
Zielpublikum: Data Engineers, Data Scientists, Projektleiter, Entscheider
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger
Jens Kröhnert verfügt über langjährige Erfahrung in der Planung und Umsetzung von Digitalisierungsprojekten. Als Innovationsexperte hat er für ORAYLIS immer die neuesten Technologien und Entwicklungen im Blick.
Christoph Epping gehört zu den Top-IoT-Experten bei ORAYLIS. Gemeinsam mit Unternehmen aus verschiedensten Branchen realisiert er Echtzeit-Lösungen von der Ideenfindung bis zur konkreten Umsetzung.
Vortrag Teilen
Petrol is Slovenian company that operates in 8 countries in SEE with 5BEUR annual revenue. As traditional publicly-owned company, Petrol has faced necessity for transformation to stay ahead in highly competitive market. Use of BIA was mainly reactive, but in recent years it has transformed into competitive advantage by using cloud technologies and industry specific analytical models and focusing on the content and creating business value. This value is now being leveraged as competitive advantage through proactive use of data and analytics.
Target Audience: Decision Makers, Data Architects, Project Managers
Prerequisites: None
Level: Basic
Extended Abstract:
Petrol is Slovenian company that operates in 8 countries in SEE with 5BEUR annual revenue. Main business activity is trading in oil derivatives, gas and other energy products in which Petrol generates more than 80 percent of all sales revenue and it also has a leading market share in the Slovenian market. Petrol also trades with consumer goods and services, with which it generates just under 20 percent of the revenue. Use of BIA was mainly reactive, but in recent years it has transformed into competitive advantage by using cloud technologies and industry specific analytical models and focusing on the content and creating business value. This value is now being leveraged as competitive advantage through proactive use of data and analytics. Presentation will cover main business challenges, explain technology architecture and approach and discuss results after three years of system development and use.
Andreja Stirn is Business Intelligence Director with more than 20 years of experience working in the Oil & Energy and Telco industry. Skilled in Data Warehousing, Business Intelligence, Corporate Performance Management, Market Research and People Management.
Dražen Orešcanin is Solution Architect in variety of DWH, BI and Big Data Analytics applications, with more than 25 years of experience in projects in largest companies in Europe, US and Middle East. Main architect of PI industry standard DWH models. Advised Companies include operators from DTAG, A1 Group, Telenor Group, Ooredoo Group, Liberty Global, United Group, Elisa Finland, STC and many companies in other industries such as FMCG and utilities.
Vortrag Teilen
Often, existing data architectures can no longer keep up with the current 'speed of business change'. As a result, many organizations have decided that it is time for a new, future-proof data architecture. However, this is easier said than done. In this session, ten essential guidelines for designing modern data architectures are discussed. These guidelines are based on hands-on experiences with designing and implementing many new data architectures.
Target Audience: Data architects, enterprise architects, solutions architects, IT architects, data warehouse designers, analysts, chief data officers, technology planners, IT consultants, IT strategists
Prerequisites: General knowledge of databases, data warehousing and BI
Level: Advanced
Extended Abstract:
Many IT systems are more than twenty years old and have undergone numerous changes over time. Unfortunately, they can no longer cope with the ever-increasing growth in data usage in terms of scalability and speed. In addition, they have become inflexible, which means that implementing new reports and performing analyses has become very time-consuming. In short, the data architecture can no longer keep up with the current 'speed of business change'. As a result, many organizations have decided that it is time for a new, future-proof data architecture. However, this is easier said than done. After all, you don't design a new data architecture every day. In this session, ten essential guidelines for designing modern data architectures are discussed. These guidelines are based on hands-on experiences with designing and implementing many new data architectures.
Which new technologies are currently available that can simplify data architectures?
What is the influence on the architecture of e.g. Hadoop, NoSQL, big data, data warehouse automation, and data streaming?
Which new architecture principles should be applied nowadays?
How do we deal with the increasingly paralyzing rules for data storage and analysis?
What is the influence of cloud platforms?
Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.
Vortrag Teilen
Data Warehouse, Data Lake, Date Lakehouse, Data Mesh, …, die Scene überwirft sich aktuell mit neuartigen Namen für analytisch Datenarchitekturen. Doch sind die diversen Ansätze wirklich so unterschiedlich? Muster und Mustersysteme haben sich insbesondere in der Softwareentwicklung als Mechanismus etabliert, komplexe Zusammenhänge in wiederverwendbare Bausteine zu zerlegen. Auch in der IT-Architektur gibt es bereits verbreitete Architekturmuster. Muster strukturieren die Darstellung verschiedener Ansätze üblicherweise in Kontext-, Problem- und Lösungsbeschreibungen. Mustersysteme arbeiten darüber hinaus Überlappungen und Abhängigkeiten heraus. In diesem Vortrag stellen wir ein Mustersystem für analytische Datenarchitekturen vor, methodisch basierend auf DAMA-DMBOK und ArchiMate. Die Struktur wird anhand von Praxisbeispielen illustriert.
Dr. Torsten Priebe ist Dozent für Big Data Analytics an der Fachhochschule St. Pölten und leitet dort die Forschungsgruppe Data Intelligence. Seine Forschungsinteressen liegen im Spannungsfeld von Datenmanagement, semantischen Technologien und Machine Learning. Zuvor verantwortete er den Bereich Business Intelligence bei Capgemini in Wien, arbeitete als Solution Architect bei Teradata und übernahm später die Position des CTO bei Simplity, einem auf Datenmanagement und Analytics spezialisierten Beratungshaus.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Vortrag Teilen
Vortrag Teilen