For the work we do in the long-term-vision-labs and strategy team for the Technology & Innovation board area at SAP is one of the playgrounds for the title question. These topics are good, because they generate exiting and abundant questions, that we believe should be asked by everyone.
How does the future work, the mechanics of change? What is the future of human work and our interactions with machines and each other? Is industrialization of space and 3d printed organs really a “thing” and how do you relate to these? What are the methods to innovate desirable futures? How do you structure such a vast and complex fabric of possibilities in your domain, team, business, boardroom? How long is the history of the future and how does that affect our fear and counter reactions to it in socio-political movement? Most importantly, who designs the future, that you your community will live in?
We talk about change, but what are the mechanics and the dynamics behind it? How fast is it? What it means to be an innovator, is transforming faster than before, from classic product and service definition of the superficial to computational system design of everything, including social and political systems, deeply rooted in a space of challenges and promises between cutting edge tech and humanism. In an exponential and converging digital-fueled future, we design a relationship, a behaviour, that the product will follow.
What comes before strategy? We love to act on strategies, derive tactics, execute and operate, it is our psychological bias, we love to do what we are good at. But how do we derive a strategy? From what point of view, what narratives, what builds up a “Future fabric” that these narratives a woven from? And who does it in your enterprise? We will have, high level look at how we build a desirable future with these questions in mind, and also what we in our labs consider to be a desirable future of work, at least for the coming decade.
This exponential change is our innovation brief and the stakes are high, It is just too important to be left only to... any single team. Technology is the human evolution, the prior named HuMachine creates a playground for “Human centered“-adventure, this opens new worlds for our imagination in a time when “now” has never been so temporary. Bringing these thoughts together we need to answer the question “What is human, and what is work in a superhuman future?”
Main chapters
Der Mittelstand profitiert von der Digitalisierung und hier insbesondere vom Internet of Things. IoT ermöglicht die schnellere Umsetzung von neuen Geschäftsmodellen, die bessere Nutzung von Ressourcen und die langfristige Reduzierung von Kosten. Damit einhergehend versuchen immer mehr Unternehmen auch in der Entwicklung agiler zu werden und setzen hierbei auf Event-Driven Microservices, um monolithische Umgebungen hinter sich zu lassen. Denn die Erwartungshaltung an digitale Kundenerlebnisse und vollständig integrierte Echtzeitabläufe passt nicht mit Daten- und Infrastruktur-Silos zusammen. Mit anderen Worten: Wenn ein Unternehmen zunehmend software-definiert wird, braucht es eine Datenplattform, die primär für „Data in Motion” ausgelegt ist und weniger für „Data at Rest”.
Stefan Frehse, Principal Software Architect der BAADER zeigt, gemeinsam mit den Experten von Confluent, wie Apache Kafka und Confluent Cloud als zentrale Komponenten der Daten-Architektur eingeführt wurde und wie Streaming-Anwendungen, die auf IoT-Daten basieren, neue Geschäftsmöglichkeiten und eine optimierte Zusammenarbeit mit den Partnerunternehmen schaffen.
Daten kommen heute in allen erdenklichen Formen aus verschiedensten Quellen und wollen verarbeitet werden. Gleichzeitig wird es immer wichtiger schneller auf die Daten zu reagieren.
Der nächtliche Batch-Umlauf hat zwar noch seine Daseinsberechtigung, Echtzeitverarbeitung mittels Streaming wird allerdings immer wichtiger und mittlerweile geht der Trend Richtung Streams First Architekturen.
Um beide Welten transparent zu vereinen hat Google ein SDK entwickelt und im Jahr 2016 an die Apache Software Foundation übergeben. Apache Beam war geboren.
In diesem Vortrag lernen Sie Apache Beam kennen und wie Sie mit demselben Programmiermodel sowohl Batch als auch Streaming abdecken können.
Darüber hinaus wird Arne Ottens zeigen, wie Talend einen Schritt weiter geht und das Ganze in einer No-Code-Umgebung ermöglicht.
Das europäische Enterprise Data Warehouse der C&A versorgt über 3.900 Anwender mit Analytical Insights und Reporting. Die Nutzung ist in den vergangenen Jahren beständig weiter angestiegen. Insbesondere am Ende jeder Verkaufswoche ist die Nutzung des Systems um ein vielfaches höher als an Normaltagen. Die Elastizität einer Cloud Technologie wie Snowflake erlaubt es gerade an ""Schwerlasttagen"" flexibel die Leistung des Systems hochzufahren. Ein weiteres wichtiges Argument für die Migration nach Snowflake war die schnelle Provisionierung von Data Warehouse Umgebungen für User Acceptance Tests, sowie Developer Sandboxes - als ein Enabler für agile Projektteams. Gleichzeitig war ein langwieriger Migrationsprozess zu vermeiden, um die Weiterentwicklung des DWH in zwei parallelen Systemen so kurz wie möglich zu halten.
Doch wie lässt sich der Plattformwechsel in diesem kurzen Zeitraum sicher erreichen?
Der Vortrag berichtet über die Migrationsstrategie und die Faktoren die zum erfolgreichen Wechsel geführt haben. Dabei gehen wir auch auf die Learnings ein. Nach 5 Monaten Betrieb lohnt sich ein erster Rückblick auf die erreichten Benefits und auf den Ausblick ""what's next"".
Die Anforderungen der digitalen Wirtschaft verändern unser Verständnis von moderner BI. Informationen sollen permanent zur Verfügung stehen und dank aktueller Echtzeitdaten das sofortige Durchführen von Maßnahmen unterstützen. Business Intelligence, die nur informiert, kann diesen Anforderungen nicht mehr gerecht werden. Wer sein Unternehmen aktiv voranbringen will, braucht Active Intelligence.
In unserem Vortrag erfahren Sie, wie Sie:
• mit automatisierten Pipelines und Change Data Capture (CDC) schnell und sicher alle benötigten Daten integrieren und bereitstellen,
• für die Analyse die Associative Engine, Artificial Intelligence und Interaktion in natürlicher Sprache kombinieren, um jederzeit und überall Erkenntnisse zu gewinnen,
• mit der Technologie und in der Cloud Ihrer Wahl Kennzahlen überwachen und Maßnahmen in Echtzeit vorantreiben.
Erfahren Sie, wie Sie mit den SAP HANA Cloud Services Ihr Datenmanagement neu ausrichten, und das volle Potential Ihrer Daten ausschöpfen können.
Verbinden Sie Ihre Daten, reichern Sie sie an und orchestrieren Sie diese zur idealen Verwendung für Ihre Endanwender.
Der Vortrag wird Ihnen aufzeigen, wie Sie Entscheidungen in Echtzeit, auf Basis von vertrauenswürdigen Daten treffen können und somit einen wirklichen Mehrwert aus Ihren Daten generieren können.
Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Herr Stemmler das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.
In dieser Session wird Sie Jan-Niklas Mühlenbrock Schritt für Schritt durch den Prozess führen, wie er mit Delta Lake by Databricks und automatisierter Datenintegration von Fivetran eine zukunftssichere Datenarchitektur für den Schmuck- & Accessoires-Hersteller PAUL HEWITT aufgebaut hat.
Die Entwicklung ging von einer sehr fehleranfälligen Strategie und der Nutzung vieler Excel Tabellen hin zu einem „Modern Data Stack“ der das Marketing-Team mit zuverlässigen Echtzeitdaten versorgt und jeden Mitarbeiter in der Firma dazu befähigt Entscheidungen datengetrieben zu treffen. So gelang es PAUL HEWITT auch während der Corona Pandemie ihr Geschäft was zuvor zu 60% aus Offlineverkäufen bestand zu 100% in den eCommerce Bereich zu verlagern. Wir freuen uns auf Ihre Teilnahme!
In today’s digital economy, customers are all-powerful. They have the ability to search for and find products and services, find reviews and ratings, find out about alternative products and services via search and social networks, ask questions of others about products and services, and find comparison sites. All of this can be done from a mobile device while on the move and with so many options available to them. They can switch to a competitor at the touch of a mobile phone screen or the click of a mouse.
In this kind of economy, customer loyalty is cheap and so it is essential to know more about your customers, if you want to keep them. However, in many companies, customer data is fractured across many different systems with no way to share and access integrated customer data and insights across all channels to offer up a consistent, personalized customer experience.
In this session we will look how data virtualization can be used to create a Customer Data Platform solving this challenge:
- Digital transformation and the impact on customers
- The importance of the customer in the boardroom
- Customer interaction - the impact of COVID-19 pandemic
- Current problems facing many companies in the front-office from fractured customer data
- The need for a Customer Data Platform to engage and retain customers while improving their overall experience
- The central role of data virtualization as a foundation for a customer intelligent front-office
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Over the last many years, dashboards have proliferated enterprises from the board room to the manufacturing line. As businesses have become increasingly more reliant on analytics, end users have started to demand snappier performance from their dashboards. In this session, we discuss how SingleStore powers your business-critical, highly-concurrent applications with Speed, Scalability, Simplicity and a familiar SQL interface.
Data Governance hat in den letzten Jahren stark an Interesse gewonnen vorwiegend wegen regulatorischem Druck durch DSGVO, Basel IV, Solvency II usw. Den Regulator glücklich zu machen ist zwar wichtig aber operativ nicht wirklich gewinnbringend. Wenn aber Data Governance in einer durchgängige und klar strukturiere Dokumentation der vorhandenen Data Assets in Form eines Data Catalogs mündet, kann eine solche Initiative durchaus zu erheblichen Zeitersparnissen bei der Datensuche führen. Und wenn der Data Catalog mit einer benutzerfreundlichen Oberfläche zum Design von Pipelines integriert wird resultiert eine Umgebung, in der ein Analyst unabhängig von der IT schnell und effektiv Daten finden, zusammenführen und auswerten kann.
Anhand einer Live-Demo wird vorgeführt, wie das Leben eines Analysten erleichtert werden kann.
Data Governance hat in den letzten Jahren stark an Interesse gewonnen vorwiegend wegen regulatorischem Druck durch DSGVO, Basel IV, Solvency II usw. Den Regulator glücklich zu machen ist zwar wichtig aber operativ nicht wirklich gewinnbringend. Wenn aber Data Governance in einer durchgängige und klar strukturiere Dokumentation der vorhandenen Data Assets in Form eines Data Catalogs mündet, kann eine solche Initiative durchaus zu erheblichen Zeitersparnissen bei der Datensuche führen. Und wenn der Data Catalog mit einer benutzerfreundlichen Oberfläche zum Design von Pipelines integriert wird resultiert eine Umgebung, in der ein Analyst unabhängig von der IT schnell und effektiv Daten finden, zusammenführen und auswerten kann.
Anhand einer Live-Demo wird vorgeführt, wie das Leben eines Analysten erleichtert werden kann.
Unsere Spezialisten beschäftigen sich täglich mit Architekturen zur Cloud-Modernisierung. Dabei arbeiten wir eng mit Unternehmen unterschiedlichster Branchen zusammen, die ihre bestehenden On-Premise-Data-Warehouses, Big-Data-Umgebungen und Data Lakes sowohl migrieren als auch modernisieren wollen - und zwar, um die Vorteile moderner Architekturansätze in der Cloud zu nutzen. Ich führe Sie durch einige der gängigen Architekturmuster, die wir sehen, ihre relativen Stärken und warum Sie sie in Betracht ziehen sollten.
In diesem Vortrag werden allgemeine Strategien, Herausforderungen, Lösungen und Projekt-Erfahrungen zum Data Management in Cloud Data Warehouse Architekturen am Beispiel von Snowflake vorgestellt. Während der Präsentation werden unter anderem Themen wie Migrationsstrategien, Data Governance, Data Quality Management, Datenschutz und das Data Lifecycle Management besprochen und Möglichkeiten aufgezeigt, wie die damit einhergehenden Herausforderungen mit den Mitteln einer modernen Cloud-Umgebung bewältigt werden können.
«Mit wachsender Anwenderzahl steigt uns die Power BI-Administration über den Kopf. Gibt es eine Möglichkeit, wie wir unseren Power BI Tenant unternehmensweit effizienter verwalten können? - Wie können wir feststellen, welche Datasets und Reports überhaupt von den Fachbereichen verwendet werden und von wem genau? - Wir müssen ein Backup unseres gesamten Power BI Tenants haben. Könnt ihr uns helfen?»
Mit diesen Fragen unserer Kunden und der Anforderung, mit dem Launch des schweizer Datacenters Tenant-Migrationen zwischen regionalen Datacentern durchzuführen, entstand Mitte 2020 die Idee für die Entwicklung des Power BI Administrators.
Für die Migration und das Backup des Tenants haben unsere Consultants im Selbstversuch zunächst eine Migration unseres eigenen Power BI Tenants gestartet und mussten hierbei feststellen, dass es nur eine sehr umständliche Möglichkeit gibt. Sie mussten jedes einzelne Objekt, d.h. jedes Dataset, jeden Bericht, jede Berechtigung etc. einzeln und manuell herunterladen, die dazugehörigen Metadaten ändern und dann im neuen Tenant mitsamt Verknüpfungen und Abhängigkeiten wieder manuell erstellen - ein Alptraum bzw. kaum mit einem adäquaten Zeitaufwand und in einer angemessenen Qualität machbar.
Uns war sofort klar, dass unseren Kunden hier ein wirklich grosser Stolperstein im Weg lag, Power BI optimal zu nutzen und dass darüber hinaus dieser Aufwand dafür sorgen wird, dass nur wenige Firmen ihre Datenhaltung in die Schweiz oder ein regionales Datacenter verlegen werden. Auch für das Thema Power BI Administration konnten wir mit den bestehenden Microsoft-Services keine adäquate Lösung finden.
Aus diesem Grund hat das Team der BSgroup Data Analytics im Herbst 2020 entschieden, eine eigene Lösung zu entwickeln, die diese Anforderungen abdeckt.
Der Power BI Administrators ist mittlerweile bei einer Vielzahl unserer Kunden erfolgreich im Einsatz und kostenlos über den Marketplace verfügbar.
In unserem Vortrag werden wir praxisnah und mit vielen Kundenbeispielen die einzelnen Funktionen des Power BI Administrators vorstellen und aufzeigen, wie es anhand von Backup/Restore möglich ist, einen gesamten Tenant zu sichern oder zu migrieren und wie die Überwachung des Power BI Tenants unternehmensweit zum Kinderspiel wird. Ausserdem wird Ihnen Roger Unholz seinen Report präsentieren, mit dem Power BI Administratoren zukünftig auf einen Blick sehen, wie häufig Reports wirklich verwendet werden oder ob es Reports oder Datasets gibt, die nicht mehr benutzt werden und somit aufgeräumt werden können.
«Die BSgroup Data Analytics hat uns in den letzten 2 Jahren optimal bei der Ausrollung von Power BI in den Fachbereichen unterstützt. Der Power BI Administrator unterstützt uns optimal bei der Umsetzung unser Cloud-Strategie und in der Verwaltung von Power BI- unternehmensweit. Bei der wachsenden Anzahl von Anwender in unserem Unternehmen hat uns die BSgroup eine Lösung zur Verfügung gestellt, die uns 100% Transparenz gibt und uns im operativen Betrieb optimal unterstützt»
Because of the cost-saving benefits, competitive advantages, and new market opportunities, many data leaders feel the pressure to accelerate cloud adoption. However, implementing hybrid and multicloud strategies is daunting—incompatibility between diverse systems introduces too much complexity, and traditional ETL tools are slow and resource-intensive.
While you gradually adopt the cloud, you can still deliver immense business value and actionable insights without impacting existing on-premises SAP ERP, CRM, HCM, SCM, and other enterprise applications. By building real-time data pipelines, you can meet current demands while setting the foundation for the future.
During this session, you will learn:
- How to implement a continuous data streaming method that securely and efficiently leverages data residing in SAP and other on-premises enterprise applications without impacting them
- How HVR's advanced log-based CDC technology securely accelerates high-volume data delivery in complex environments so it's available in real-time for immediate decision making, advanced analytics, and ML/AI
- Real-world examples of how hundreds of organizations leverage HVR to extract value from legacy systems to achieve a more dynamic and agile business
Ein Teil des Lösungsweges aus der aktuellen Herausforderung der Corona-Pandemie ist einfach gesagt: die Impfung einer ausreichend großen Menge an Menschen. Das macht dieses Thema zu einem gesamtgesellschaftlich Bedeutsamen. So offensichtlich wichtig Schnelligkeit und Flexibilität aller Beteiligten hier ist, greift Bürokratie intensiv in das Geschehen ein, was naturgemäß nicht zur Beschleunigung der Abläufe führt. Die Verbesserung der Prozessleistungsfähigkeit muss also dass Zusammenspiel zwischen Impfausführung und Impf-Bürokratie adressieren, um beispielsweise Impfberechtigungen etc. treffgenau verwalten zu können. Dabei sind Formulare auszufüllen, zu digitalisieren und weiterzuleiten, Termine für eine Impfung zu vergeben und umzuplanen, Impfdosen zu verwalten, Personal bereitzustellen und nicht zuletzt auch Menschen mitzunehmen. Erfahren Sie in diesem Vortrag von den Herausforderungen eines solchen Projektes und was man hieraus für die eigene Business Process Intelligence lernen kann. Profitieren Sie von den Erfahrungen für Ihre eigenen Prozess-Digitalisierungsprojekte!
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Profitieren Sie in der Paneldiskussion von den Erfahrungen unserer Kunden Stadtwerke München, Porsche und Randstad und lernen Sie deren Anwendungsfälle kennen.
Erfahren Sie aus erster Hand mehr zu Best-Practices und möglichen Herangehensweisen zu Ihrer digitalen Transformation mit Hilfe der SAP Data Management Lösungen.
Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Herr Stemmler das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.
Data and Analytics maturity is directly related to operational efficiency and a successful business strategy that is designed to capitalize on future opportunities. We will explore how an understanding of your organisations data and analytical maturity level can help design a data strategy to move from “Excel Hell” towards the highest levels of prescriptive analytics. Along the way, we will show how an organisation’s journey to data and analytics maturity can be shortened and identify a data strategy approach to enable this acceleration.
Viele Unternehmen stehen vor dem Problem, dass bestehende on premises DWH Lösungen in die Cloud migriert werden müssen. Meist werden dazu auch komplett neue Datenplattformen genutzt. Eine einfache Migration der bestehenden Lösung in einen gleichwertigen Cloud Service ist daher nicht möglich. Im Vortrag wir aufgezeigt wie man Metadaten getrieben bestehende on premises Lösungen in die Cloud migrieren kann. Basis für dieses Vortrag ist sind konkrete Umsetzungsprojekte von Anwenderunternehmen.
Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.
Gregor Zeiler ist seit dreißig Jahren in verschiedenen Funktionen in der Business Intelligence-Beratung tätig. Im Zuge seiner beruflichen Tätigkeit konnte er umfangreiche Projekterfahrung in vielen Branchen und auf Basis eines breiten Technologiespektrums sammeln. Zahlreiche Publikationen und Vorträge begleiten seine berufliche Tätigkeit. Als CEO bei biGENIUS AG kommt er seiner Passion die Prozesse in der Entwicklung von Data Analytics Lösungen zu optimieren nach.
Digital Welcome Reception
Mit der „Berliner Erklärung“ haben sich die EU Staaten zu einer wertebasierten digitalen Verwaltung verpflichtet. Die Bundesregierung nimmt sich mit ihrer Datenstrategie dieser Aufgabe an und will den Staat zum Vorreiter für Digitale Souveränität und Open Data machen. Das 2. Open Data Gesetz und das Dashboard Deutschland haben dazu bereits den Weg geebnet und weiten das Daten- und Informationsangebot des Bundes aus. In weiteren Schritten soll die Nutzung der Daten über Datencockpits und Visualisierungstools vereinfacht und verbessert werden. Damit werden auch in verschiedener Hinsicht positive Auswirkungen auf Unternehmen einhergehen.
The pandemic of 2020 drove organisations to react to an ever-changing landscape. Organizations needed to be able to understand better their customers, suppliers, and partners. They needed to react in real time to ever changing events. In this presentation we will touch on the value that Data Virtualization brings to organizations, helping them understand their data assets in real time. We will discuss how data is everywhere from being in on premise data stores such as legacy databases to cloud-based data warehouses and data lakes to even third party data sources such as social media or supply chain data. We will look at how data virtualization helps bring together these sources into a logical data fabric, allowing data citizens to interrogate and report on the data in real time. Helping organizations make data driven business decisions.
Automatisierung ist ein gesetztes Thema in der IT und alles andere als neu.
Neu hingegen sind die modernen Möglichkeiten der digitalen Datenverarbeitung sowie des „kognitiven“ Machine Learning / Deep Learning, welche weit über Stapelverarbeitung von gestern hinaus gehen.
Dieser Vortrag beleuchtet die Chancen, die sich daraus ergeben.
Die meisten Unternehmen haben im Laufe der Jahre diverse Datensilos über Unternehmensteile, Organisationseinheiten und teilweise sogar innerhalb von Abteilungen aufgebaut. Zudem nimmt die Datenmenge schier unaufhaltsam zu, so dass neben den klassischen Enterprise Data Warehouses auch immer öfter Data Lakes zum Einsatz kommen. Oft sind die vorhanden Systemlandschaften aber zu komplex um daraus sinnvolle Erkenntnisse zu gewinnen oder schlicht zu schwierig zu benutzen.
Erfahren Sie in diesem Vortrag was die Snowflake Cloud Architektur so einzigartig macht, warum sich bereits mehr 4.500 Kunden für Snowflake entschieden haben und wie Sie die Zügel wieder in die Hand nehmen können, um ein echtes datengetriebenes Unternehmen zu werden.
Zielpublikum: "Jeder der mit Daten effizienter, schneller und kostengünstiger arbeiten möchte (Data Engineers, Data Analysts, Data Scientists, Entwickler, Business User bis hin zum CDO)
Voraussetzungen: Grundkenntnisse zu Data & Analytics
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Im Workshop werden wir einführend auf die Snowflake Cloud Plattform eingehen, die auf AWS, Microsoft Azure oder Google Cloud aufsetzt. Durch den Cloud basierten Ansatz eröffnen sich Ihnen nahezu unbegrenzte Speicher- und Datenauswertungsmöglichkeiten bei gleichzeitig nahezu unbegrenzter Performance. Somit brechen Sie Ihre Datensilos durch einen zentralisierten Daten Layer auf. Mit Snowflake können Sie Data Warehouse, Data Lake und Data Science Use Cases abbilden, da nativ sowohl strukturierte, semi-strukturierte (wie JSON, XML, Parquet, ORC, Avro) als auch unstrukturierte Daten unterstützt werden.
Zudem können Sie sehr feingranular über Rollen das passende Security und Governance Modell steuern und über dynamische Maskierung Daten nur den Personen anzeigen, die hierfür die Berechtigung haben. Auch werden wir auf spannende Funktionen eingehen, die die Bereitstellung z.B. von Testumgebungen (“Zero-Copy-Clone”) oder das Wiederherstellen von vorherigen Datenbeständen (“Time Travel”) kinderleicht machen.
Erfahren Sie ebenfalls etwas über die Multi-Cloud, Multi-Region Fähigkeiten, die Ihnen erlaubt Daten innerhalb ihres Unternehmens, mit Partner oder Kunden nahtlos auszutauschen. Entweder sicher mittels Data Exchange, oder über den heute schon größten und schnell wachsenden Public Data Marketplace, bei dem schon heute über 500 Datenprovider teilnehmen.
Auch für Entwickler haben wir spannende Möglichkeiten im Gepäck, so dass in ihren präferierten Sprachen wie Java, Scala - und bald auch Python - Geschäftslogiken abgebildet werden können, die direkt in Snowflake ausgeführt werden (“Snowpark” & Java UDFs - User Defined Functions) .
Viele Funktionen werden wir Live in einer Demo zeigen und wir gehen natürlich gerne auf Ihre Fragen ein. Wir freuen uns auf Ihre Teilnahme!
This session, given in an interview format, explores Carsten’s journey from Data Warehouse Automation sceptic to advocate, and what this transition has allowed his team to achieve at Toyota Kreditbank.
Carsten’s BI team received data from nine countries in different formats, at different times and with different frequencies, varying from daily to monthly. For this reason, fulfilling regulatory requirements with hand coding and ETL tools was a real challenge.
The group BI team was looking for a new solution to harmonise the data model, renew the technical infrastructure and implement a unified data delivery. Carsten had used Data Warehouse Automation at a previous company and was very sceptical about the success , but now realises this was a problem of mindset across the team and not the technology.
During this session, you will learn:
· Why Toyota Kreditbank chose Snowflake and Data Vault modelling
· How the company automated their manual repetitive processes for long-term time savings
· What a switch from manual ETL to automated ELT has achieved
· How to get full documentation and lineage out of the box
· Lessons learned from two DW automation implementations
· How to do 2.5 years’ worth of batch reloads in just 2 hours
Das ehrgeizige Ziel eines Automobilherstellers ist es, den Großteil seiner Kunden im Händlernetz zu halten. Denn derzeit sind nur weniger als die Hälfte der Kunden im After-Sales-Bereich loyal und vor allem Besitzer älterer Fahrzeuge suchen zumeist aus Kostengründen lieber freie Werkstätten auf. Da es in den meisten Fällen keinen proaktiven Kundenkontakt bezüglich des Service- oder Reparaturbedarfs gibt und zudem die Kunden oft erst dann zum Händler kommen, wenn sie Probleme mit ihren Fahrzeugen haben, schöpft der OEM nur einen geringen Prozentsatz des Marktpotenzials aus. Durch ein Pilotprojekt mit rpc konnte auf Basis eines neu entwickelten prädiktiven Datenmodells ein erhebliches Konvertierungspotenzial aufgezeigt werden. Das Projekt fokussierte beispielhaft die Prognose der Lebensdauer der Starterbatterie. Deren Ausfall ist für den Kunden besonders kritisch und die Komponente bietet ein hohes Geschäftspotenzial für den Handel. Das Ergebnis der Pilotanwendung mit mehreren Handelsbetrieben bei Fahrzeugen außerhalb der Gewährleistung war eine deutlich gesteigerte Kundenzufriedenheit und -loyalität, sowie eine Optimierung der Werkstattabläufe durch bessere Planbarkeit der Kundentermine. Der Ansatz lässt sich dabei auch auf andere Fahrzeugkomponenten übertragen und wird vom OEM entsprechend weiter ausgebaut.
Bruce Jeong ist Principal und verantwortet den Bereich Digital Products & Solutions bei rpc - The Retail Performance Company, einem Joint Venture der BMW Group und der h&z Unternehmensberatung.
Er bringt langjährige Erfahrung mit, um Unternehmen bei der Hebung von Data Assets zur Optimierung von Geschäftsprozessen zu unterstützen und robust für die Zukunft auszurichten. Hierbei sind die Themen rund um die digitale Transformation ein treibender Faktor. Gerade in Zeiten, wo Wissen schnell an Wert verliert und volatile und disruptive Anforderungen die Positionierung und Erfolg eines Unternehmens stark beeinflussen, ist es notwendig eine fluide und lernende Organisation im digitalen Wandel intelligent auszurichten und die notwendige Transformation dazu umzusetzen.
In Anknüpfung an einen vor drei Jahren bei der TDWI München gehaltenen Vortrag zu Datenqualität bei der Raiffeisen Bank International AG blickt Christian Trapichler, Senior Data Quality Governance Manager, nun mit einem Erfahrungsbericht aus Anwendersicht auf den Projektabschluss und Produktionsstart zurück und zieht eine vorläufige Bilanz. Beantwortet werden unter anderem folgende Fragen:
• Wurden die Ziele erreicht und Erwartungen erfüllt? (Über Grenzen des Expectation Managements und unerwartete positive Nebeneffekte)
• Ist Datenqualität messbar und auch besser geworden? (Über Ambition Levels, Trends und Anomalien in Ergebnissen und Statistiken)
• Welche begleitenden Maßnahmen waren erforderlich? (Organisatorische Maßnahmen und warum komplexe Workflow-Systeme kontraproduktiv sind)
• Was waren die Stolpersteine und Lessons Learned? („Weniger ist Mehr“ in jeder Hinsicht und warum „Data Quality as a Service“ immer wichtiger wird)
Zum Abschluss wird noch ein Ausblick gewagt: Wie geht es weiter? Mit diesem Erfahrungsbericht der Raiffeisen Bank International AG, die als „Beste Bank in Zentral- und Osteuropa“ und als „Beste Bank in Österreich“ ausgezeichnet wurde, erhalten Sie einen Einblick in erlebtes Datenqualitäts-Management aus der Praxis.
Künstliche Intelligenz verspricht enorme Wertschöpfungspotenziale – doch auf dem Weg dahin begegnen Organisationen immer wieder ähnlichen Herausforderungen. Fehlende Akzeptanz und Erklärbarkeit der Technologie, hoher Ressourcenbedarf oder mangelnde Datenverfügbarkeit erschweren eine schnelle Umsetzung. Erfahren Sie anhand von erfolgreich durchgeführten Projektbeispielen aus der Automobilindustrie und dem Healthcare-Bereich, welche Erfolgsfaktoren bei der agilen KI-Entwicklung zu berücksichtigen sind.
Heutzutage sind Daten allgegenwärtig. Sie werden in Datenbanken, Applikationen, On-Premise und in der Cloud gespeichert und ständig von Systemen, Maschinen, Websites und anderen Feeds erstellt. Wie können Data Scientists auf all diese Daten zugreifen und Nutzen daraus ziehen? Die Herausforderung besteht darin, relevante Daten für die Analyse, das Prototyping und Modelltraining zu finden, zu verstehen, darauf zuzugreifen und zu verwenden. Sobald sich ein neues Modell als erfolgreich erwiesen hat, kann es problemlos in eine automatisierte Datenpipeline integriert werden. Dies hilft Unternehmen, neue Wege zu finden, um mit Kunden in Kontakt zu treten, neue Produkt- und Servicemöglichkeiten zu finden und Geschäftsmodelle zu verbessern.
In unserem Workshop werden wir Lösungen und Beispiele zeigen, wie Daten aus verschiedenen Quellen katalogisiert werden können, wie Governance angewendet werden kann, um mit Daten auf richtlinienkonforme Weise zu arbeiten, und wie Data Scientists in ihren Kernkompetenzen unterstützt werden können - mit Hilfe von zuverlässigen und qualitativ hochwertigen Daten in ihrer eigenen bevorzugten Sandbox und mit Verarbeitungsfunktionen für die Datenintegration, Datenqualität und Einbindung komplexer ML-basierter Algorithmen.
Dr. Hebach kam 2014 als Senior Solutions Architect zu Informatica. Er unterstützt Kunden und Partnerunternehmen bei der Konzeption von Datenmanagementlösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Vor seiner Tätigkeit bei Informatica war Dr. Hebach in den Bereichen IT-Management, Unternehmensarchitektur und Beratung tätig.
Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Oktober 2021 ist er Senior Advisor New Business & Strategy bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge zur Entwicklung des Data & Analytics-Marktes veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Klaus-Dieter Schulze ist seit 2012 Mitglied im Vorstand des TDWI e.V.
Philipp von Loringhoven ist Designer, Entwickler, Marketeer und Daten-Nerd. Als Freelancer ist er gefangen zwischen Marketing, Produktentwicklung, Business Intelligence und Analytics - er hilft Unternehmen ihre Kunden besser zu verstehen, um mit ihnen zielführender zu kommunizieren. Gleichzeitig ist Host des DataEngage Podcasts und der daily-data.news Plattform.
Der Buchautor und Dashboardexperte Andreas Wiener hat über 10 Jahre Erfahrung im Erstellen und der Etablierung von Dashboards in Unternehmen. Er hat zahlreiche Bücher und Artikel geschrieben und gehört zu einem der führenden Visualisierungs- und Dashboardexperten in Europa.
Banken und Versicherungen beschäftigen sich seit Jahren aktiv mit dem Thema Data Analytics. Cloud und Big Data Architekturen sind hier keine Seltenheit. Was sind aber aktuelle Trends in dieser Branche? Im Panel werden die Themen Cloud und KI in der Finanzindustrie beleuchtet und kritisch hinterfragt.
Dr. Andreas Totok ist Geschäftsbereichsleiter Enterprise Information Management bei der Finanz Informatik Solutions Plus GmbH. In dieser Funktion berät er Bankinstitute und Versicherungen der Sparkassen-Finanzgruppe zu strategischen IT-Themen und verantwortet Projekte für die Anwendung Künstlicher Intelligenz und dem Management von Daten. Seine Schwerpunkte liegen in der Fachkonzeption sowie der Architektur- und Organisationsberatung.
Dr. Jan Wiltschut ist im Provinzial Konzern für das Thema 'Künstliche Intelligenz im Schadenbereich' zuständig. Hierbei beschäftigt er sich mit der Identifikation, Bewertung, Entwicklung und Umsetzung von KI-Use-Cases, die die Schadenprozesse hinsichtlich des Ertrags, der Effizienz und/oder der Kundenzufriedenheit verbessern. Er hat über das Thema 'computational neuroscience' promoviert, konkret über die Entwicklung eines biologisch motivierten neuronalen Netzes für den (frühen) Sehprozess von Säugetieren. Vor seiner Zeit bei der Provinzial war er als Consultant bei der Firma Eucon GmbH auf dem Gebiet des 'Automotive Aftersales' beschäftigt.
Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.
Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe (HKA). Dort vertritt er u. a. die Bereiche Business Intelligence und Projektmanagement im Fachgebiet Informatik. Den Bachelor Studiengang 'Data Science' an der HKA hat er maßgeblich mitgestaltet. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.
In diesem Austausch zwischenzwischen einem Moderator des TDWI und Marian Plum von MicroStrategy betrachten wir
• Aktuelle Trends im Hinblick auf Cloud und BI
• MicroStrategy`s Cloud Positionierung als größter unabhängiger BI Anbieter
• Einblicke in Kunden, die den Weg in die MicroStrategy Cloud erfolgreich realisiert haben
Der Schaden für Unternehmen durch Online Betrug wird weltweit auf über 200Mrd USD bis 2024 geschätzt. Banken und andere Finanzinstitute haben eine starke Waffe im Kampf gegen diesen Betrug: Graph Analytics. Komplexe Analysen in Graph Datenbanken können in Echtzeit verdächtige Muster in Zahlungsströmen identifizieren - und so den Betrug stoppen bevor er Schaden anrichtet.
Die Daten das Unternehmens wirklich als Asset zu verstehen erfordert, dass wir ihren Wert ermitteln, verstehen und für einen breiten Kreis sichtbar machen. Für die B2C-Geschäfte der EOS-Gesellschaften in Deutschland wurde diesen Schritt gemacht, um mit dieser neuen Perspektive das Datenmanagement neu zu erfinden. Ein Bericht über eine Datenstrategie als Ausgangspunkt, erste Erfahrungen mit der Wertbestimmung von Daten und den Impact auf unser Datenmanagement mit D-QUANTUM als zentraler Plattform für die Umsetzung dieser Strategie.
Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in unterschiedlichen Branchen (Telekommunika- tion, Banken und Handel). In seiner Funktion als COO der Synabi Business Solution GmbH verantwortet er die Konzeption und Umsetzung von Metadaten und DataGovernance-Projekten.
! Um den Workshop so interaktiv wie möglich zu gestalten füllen Sie bitte die kurze & anonyme Umfrage der Referenten aus:https://forms.gle/dTCbFW3FttksxzSM6
Die Erwartung digitaler Kundenerlebnisse und vollständig integrierter Echtzeit-Operations passt nicht zu Daten- und Infrastruktursilos. Daten müssen kontinuierlich gesammelt, verarbeitet und reaktiv in Anwendungen im gesamten Unternehmen genutzt werden.
Mit anderen Worten: Wenn ein Unternehmen zunehmend software-definiert wird, braucht es eine Datenplattform, die in erster Linie für ""Data in Motion"" und nicht für ""Data at Rest"" ausgelegt ist.
Indem isolierte Datensilos aufgebrochen werden, können Daten besser analysiert und unternehmensübergreifend für Vertrieb, Marketing, Service, Produktion und Logistik nutzbar gemacht werden.
In unserem Data Value Workshop ermitteln wir gemeinsam, welche Herausforderungen in Ihrer aktuellen Umgebung bestehen. Unsere Experten analysieren die aktuelle Situation, um die nächsten Schritte zu bestimmen, die zur Erreichung der Unternehmensziele notwendig sind.
Daten sind ein essenzielles Element in jedem Unternehmen. Diese werden jedoch von verschiedenen Parteien bearbeitet und sind in verschiedenen Systemen und Datenbanken gespeichert, die durch betriebliche Aktivitäten - z.B. M&A oder Einführung neuer Tools – vereint werden müssen. Es ist oft unmöglich, eine ganzheitliche Sicht auf die Daten zu erhalten, was zu Schwierigkeiten sowohl bei operativen Prozessen als auch im Reporting führt.
Wir geben Ihnen Best Practices an die Hand, wie Sie Daten systemübergreifend managen und diskutieren die Möglichkeiten der technischen Unterstützung. Im Anschluss stellen wir Ihnen einige wichtige Funktionen des Datenmanagements im Rahmen einer kurzen Demonstration vor.
Christian Schneider ist der Director Data & Analytics bei der QuinScape GmbH. Als Consultant und Projektleiter war er langjährig in internationalen Großprojekten tätig und kennt die vielfältigen Herausforderungen unterschiedlichster Integrations- und Analytikszenarien aus der praktischen Arbeit. Als Speaker und in Publikationen beleuchtet er die Aspekte des Aufbaus von nachhaltigen Dateninfrastrukturen mit einem im späteren Betrieb überschaubaren Kostenrahmen durch eine zielorientierte Data Governance.
Viele konnten bereits die Erfahrung machen, das es sich bei Datenprodukten im Bereich der künstlichen Intelligenz bzw. dem Machine Learning zumeist um Softwareprodukte handelt.
Durch gezielte Wiederverwendung bestimmter Teile einer Adv. Analytics Pipeline kann die generelle Effizienz in der Entwicklung von Pipelines erhöht werden. Die dadurch gewonnene Zeit können für entsprechende Weiterentwicklungen und die Bearbeitung neuer Experimente genutzt werden.
People Analytics befindet sich in den letzten Jahren immer wieder unter den Top HR Trends. Aber, ist dies wirklich ein heißes Eisen oder nur ein weiteres Buzzword für Personalcontrolling? Welche Chancen und Risiken bieten technologische Innovationen im Bereich People Analytics? Fest steht, in vielen Unternehmen wird das Thema diskutiert. Daten getriebene Entscheidungsprozesse haben bereits in HR-Bereichen Einzug gehalten. Einflussfaktoren aus der Unternehmensstrategie, neue Anforderungen von Führungskräften und zusätzliche Datenquellen sorgen dafür, dass People Analytics über die Grenzen der Personalabteilungen hinaus relevant ist. Wir blicken in diesem Vortrag aus verschiedenen Unternehmensperspektiven auf diverse Fragen und zeigen Ihnen anhand konkreter Use Cases praxisnahe Beispiele.
Data Governance taucht selten in der Liste der Themen auf, die von den Unternehmen priorisiert werden. Zu Unrecht, wie der Vortrag in anschaulichen Beispielen zeigt! Ähnlich wie ein Superheld, der aus dem Verborgenen für Recht und Ordnung sorgt, verhält es sich mit Data Governance: Oberflächlich als Overhead missachtet, sorgt diese im Hintergrund für Recht und Ordnung in Unternehmensdaten. Im Kampf gegen Covid-19 bspw. setzt Data Governance Ihre „Superkräfte“ in Form eines zentralen datenqualitätsgesicherten Abrechnungsprozesses in der Forschung ein.
Die IT unterliegt derzeit einem beschleunigten Modernisierungsdruck.
Zunehmende Integrationsaufwände und diversifizierende IT-Landschaften erschweren den Blick auf unsere Daten und den Fokus unseres Geschäftes.
Moderne Integrationsansätze wie iPaaS (integration Platform as a Service) können hier Abhilfe schaffen. In diesem Vortrag werden wir Vorteile dieser Lösungen für das Data and Analytics-Umfeld unter Nutzung des Frameworks PLATIN by PPI in Verbindung mit der BOOMI Platform aufzeigen.
The impacts of data incidents that break data pipelines are felt across and often beyond your organization, throwing a wrench into your risk mitigation practices.
While there’s no silver bullet, data lineage can provide the context and the pipeline visibility you need to tackle issues early and speed up your incident resolution.
Join Jan Suchanek Technical Account Manager at MANTA, to learn the strategic approach and best practices for using context and historical lineage to proactively identify and understand issues in a data pipeline in the context of that pipeline.
Dr. Schmitz wird die Situation erläutern, die Zapp Systems dazu veranlasste, nach einem Automatisierungstool zu suchen. Hierbei geht er auf die Herausforderung ein, mehrere inkonsistente Quellsysteme - darunter auch Produktionsdaten aus SAP - zusammenzuführen. Anschließend beschreibt er den Prozess des Vergleichs von Automatisierungstools wie WhereScape und Time Xtender in der Proof-of-Concept-Phase. Darauf aufbauend erklärt er wie und warum Zapp sich für einen Neuaufbau der Data-Warehouse Methodik mit WhereScape entschieden hat.
Im Weiteren wird er von der Reise berichten, die sein Team unternommen hat, als es auf eine automatisierte Denkweise umstieg und das Automatisierungstool mit dem Ziel genaue Analysen zu erstellen, erfolgreich mit SAP verknüpfte. Anschließend erläutert Rainer, wie der tägliche Einsatz von Automatisierungssoftware die Geschäftsstrategie von Zapp beeinflusst und die Fähigkeiten des Datenteams verbessert hat.
Dann gibt Moritz einen technischen Deep Dive in die Architektur. Zunächst zeigt er uns die aktuelle Architektur und beschreibt die einzelnen Schichten und deren Funktion. Er wird zeigen, wie:
- Das Hinzufügen einer Spalte zum DWH in 15 Minuten möglich ist.
- Eine neue Tabelle aus SAP in einem Tag geladen, und in einer Stunde modelliert ist.
- Mithilfe von Modellkonvertierungen automatisiert Datentypen geändert werden.
- Das Automatisierungstool übersichtlich Abhängigkeiten im DWH visualisiert.
- Metadaten es dem Team ermöglichen, sofort eine vollständige Dokumentation zu erstellen.
Die zunehmende Verbreitung von Cloud Services hat einen immensen Innovationsschub bei Analyse Methoden und Tools ausgelöst. Big Data Analytics, Deep Learning und Artificial Intelligence sind aber nicht nur für Cloud Anbieter interessant, sondern stellen auch für Unternehmen wichtige Hebel in der Überwachung und Optimierung von Geschäftsprozessen dar. Logistik und Fertigung sind davon besonders betroffen. In unserem Vortrag stellen wie vor, wie Unternehmen moderne Infrastrukturangebote nutzen, um damit verbundene Potentiale zu erschließen.
Wer von Ihnen schon einmal campen war, der kennt Sie vielleicht auch. Sogenannte Pop-Up Zelte, auch bekannt als Wurfzelte. Sie versprechen bezugsfertiges Camping-Glück binnen Sekunden.
Viele unserer Kunden haben noch immer das gleiche Bild im Kopf, wenn Sie mit uns über DWH-Automatisierung sprechen: Kostengünstig, schnell realisiert, überzeugendes Ergebnis.
Wie auch beim Wurfzelt, das im Gegensatz zu anderen Zeltvarianten zwar deutlich weniger aufwendig im Aufbau und einfacher in der Handhabung, sicher aber kein selbstaufbauendes Wunder ist, so verhält es sich auch mit der DWH-Automatisierung.
Doch wie können wir den Erwartungen unserer Stakeholdern in der Wurfzelt-Diskussion begegnen und was gibt es für Möglichkeiten, entsprechende Zeit- und Kosteneffekte sowie eine optimale Ergebnisqualität in DWH-Projekten zu realisieren?
Unsere Antwort heisst: Metadaten.
Was beim Wurfzelt ausgeklügelte Produktentwicklung ist, ist bei der DWH-Automatisierung die Vorarbeit im Rahmen der Analysephase. Als Projektleiter wissen wir, wie wichtig die Aufnahme der fachlichen Anforderungen an das Data Warehouse ist. Wird diese darüber hinaus in Form eines Fachdatenmodells abgebildet, dokumentiert und zudem noch Data Governance aufgebaut, ist die richtige Vorarbeit geleistet und die anschliessende Entwicklungsphase (fast) ein Klacks.
In unserem 90-minütigen Workshop stellen Barbara Kainz und Roger Unholz Ihnen unser End-2-End-Vorgehensmodell für metadatengetriebene DWH-Entwicklung vor, bei dem anhand der Metadatenmanagement-Software dataspot. ein Fachdatenmodell als Grundlage für die Data Governance und DWH-Entwicklung erstellt wird, das über den Data-Platform-Generator der BSgroup Data Analytics als Core-Modell im DWH umgesetzt wird.
Wer schon lange auf der Suche nach überzeugenden Werkzeugen und Methoden sowie einem Best-Practise-Vorgehen für die DWH-Entwicklung ist und ausserdem Lust hat mit uns die Ärmel hochzukrempeln und gemeinsam ein automatisiertes DWH auf der Grundlage von Metadaten zu entwickeln, der ist bei uns richtig!
Ausserdem werden wir bei unserem Workshop auch einen besonderen Schwerpunkt auf das Thema Data Governance legen, denn dataspot. ist DER Experte wenn es um den exzellenten Umgang mit Ihren Unternehmensdaten und die Umsetzung von Metadatenmanagement- und Data Excellence-Projekten geht.
Ergänzend zu diesem Workshop empfehlen wir Ihnen auch den Vortrag End-to-End-Use Case: Metadata Management & DWH mit Clemens Bousquet von der Oberbank und Lisa Müller von dataspot.
Voraussetzungen
Fortgeschrittene Kenntnisse in Datenmodellierung und DWH-Entwicklung
Zielgruppe
DWH-Architekten/ Solution Architects, BI Consultants, Data Engineers, Data Governance Manager
Level
advanced
Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Analytische Plattformen für PoCs und Evaluation baut man in der Cloud in einer Stunde - mit vorgefertigten Setup-Scripts. Stellt man sich die Services aber frei zusammen, wird’s schon schwieriger. Dass es für Test- und PoC Umgebungen einfacher geht, zeigen wir mit der Open-Source Plattform-In-a-Box „Platys“ (https://github.com/TrivadisPF/platys). Neben Einsatzmöglichkeiten und Beispielen erklären wir Services und ziehen „eben mal kurz“ einen Data Lake mit DB, Event-Hub, Stream-Processing, Blobstore, SQL-Zugriff und Data Science Notebook hoch.
Guido Schmutz ist seit über 30 Jahren als Software-Entwickler, Berater, Architekt, Trainer und Coach tätig. Heute arbeitet er als Platform Architect für das IT-Dienstleistungsunternehmen Trivadis - Part of Accenture. Sein Interesse liegt in der Architektur, dem Design und der Umsetzung von modernen Software-Lösungen. Seit einigen Jahren beschäftigt er sich hauptsächlich mit Big Data & Fast Data und der Frage, wie sich diese neuen Technologien optimal in eine moderne Datenplattform integrieren lassen. Er ist regelmäßiger Sprecher auf internationalen Konferenzen und ist bekannt als Autor von Fachartikeln und diversen Fachbüchern.
Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.
Bei der Entwicklung der Sopra Steria Softwarelösung Tributum zur Berechnung der Abgeltungssteuer funktioniert jeder Test auf Knopfdruck. In diesem praxisorientierten Vortrag erfahren Sie, was bei diesem Knopfdruck passiert und wie viele Drähte „unter dem Armaturenbrett“ gezogen werden mussten, damit vom ersten Testdurchlauf bis zum Regressionstest alles automatisiert läuft.
Lastspitzen treten in vielen vernetzten Systemen auf, wie z.B. Rechenzentren, Logistik und Warenlieferungen, Verkehrssystemen oder Stromnetzen. Sie sorgen für überproportional hohe Kosten, da entweder Überkapazitäten vorgehalten oder Leistungen extern eingekauft werden müssen. Ein Lastspitzenmanagement kann hier Kosten sparen und Ressourcen effizienter auslasten. In diesem Vortrag zeigen wir, wie unsere Forecast Engine den Verbrauch innerbetrieblicher Stromnetze optimiert und damit Kosten reduziert.Innerbetriebliche Stromnetze sind hoch-komplexe Systeme mit vielen individuellen Verbrauchern, deren Energiebedarf sich nur schwer prognostizieren lässt. Künstliche Intelligenz ist in solchen Anwendungsfällen eine effiziente Lösung für ein energetisches Lastspitzenmanagement. Ausgangspunkt ist ein Verfahren, mögliche (teure) Lastspitzen automatisiert zu prognostizieren und damit eine Reduzierung der Energiekosten zu erwirken.
Mittels maschinellen Lernens wurde eine datenbasierte Mustererkennung trainiert, deren Ergebnis eine Betrachtung der maximalen täglichen Lastentnahme ist. Diese automatisierte Betrachtung bietet Unternehmen die Möglichkeit, eine verbesserte Laststromplanung zu entwerfen und umzusetzen, indem ausschlaggebende Energieverbraucher innerhalb eines Unternehmens trotz komplexen Stromnetzen ermittelt und aufgezeigt werden.
Time-to-Market von Auswertungen hat sich massiv verkürzt, Berichte sind katalogisiert und werden nicht mehr redundant erstellt, Fachabteilungen erhalten Self-Service-Angebote und das Top-Management vertraut den Zahlen. Und außerdem ist alles auf Knopfdruck verfügbar. Aber wie erreicht man diese Ziele eines exzellenten Reportings und damit auch exzellenter datengetriebener Entscheidungsgrundlagen? dataspot. zeigt den machbaren Weg zur Vision mit Data Governance & Metadatenmanagement auf.
Computer vision, one of the hottest areas in Artificial Intelligence, is taking over the 'visual world'. In this talk we discuss about how does the computer interpret and understand the digital images to identify and classify objects. Further, we'll take a look into a very small aspect, i.e. distance measurement, and how impactful it can be in different usecases. We also talk about the current developments and future prospects of Computer Vision.
The engagement of IT staff in organizations has been done for decades via a single function or department. Whatever title it bears, the single counter IT takes care of everything under the digital sun. This model generates unhealthy behaviors in the IT ranks that are detrimental to the enterprises that need digital to operate, evolve, transform —or survive.
Drawing a parallel with a more mature industry, the current distribution of roles is analyzed and compared. It shows that the standard structure is creating conflicts of roles that would be unacceptable —and in some cases illegal— in many other fields of work.
The typical IT engagement model in organizations has a direct effect on what constitutes success and how it is measured. These measures -in their current state- create a ripple effect on quality and value of digital investments.
You should come to the inevitable conclusion: it is more than time to radically re-think how technology teams engage in organizations.
Wenn Unternehmen aus der Pandemie herauskommen, beschleunigen sie die digitale Transformation und modernisieren ihre Cloud-Analytics-Strategie, um datengesteuerte Entscheidungen für wichtige Geschäftsinitiativen zu ermöglichen. Der Druck wächst, vertrauenswürdige Daten für Self-Service-Analytics und AI in einer Multi-Cloud- und Hybridumgebung verfügbar zu machen. Um erfolgreich zu sein, müssen Unternehmen das Bedürfnis nach geschäftlicher Agilität mit Vertrauen, Konsistenz und Transparenz für Data Intelligence in Einklang bringen. In dieser Session werden die Herausforderungen und Anforderungen erläutert, die erforderlich sind, damit eine agile Governance-Strategie für Cloud-Daten und -Analysen vertrauenswürdige Erkenntnisse liefern kann.