In today’s digital economy, customers are all-powerful. They have the ability to search for and find products and services, find reviews and ratings, find out about alternative products and services via search and social networks, ask questions of others about products and services, and find comparison sites. All of this can be done from a mobile device while on the move and with so many options available to them. They can switch to a competitor at the touch of a mobile phone screen or the click of a mouse.
In this kind of economy, customer loyalty is cheap and so it is essential to know more about your customers, if you want to keep them. However, in many companies, customer data is fractured across many different systems with no way to share and access integrated customer data and insights across all channels to offer up a consistent, personalized customer experience.
In this session we will look how data virtualization can be used to create a Customer Data Platform solving this challenge:
- Digital transformation and the impact on customers
- The importance of the customer in the boardroom
- Customer interaction - the impact of COVID-19 pandemic
- Current problems facing many companies in the front-office from fractured customer data
- The need for a Customer Data Platform to engage and retain customers while improving their overall experience
- The central role of data virtualization as a foundation for a customer intelligent front-office
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Data Governance hat in den letzten Jahren stark an Interesse gewonnen vorwiegend wegen regulatorischem Druck durch DSGVO, Basel IV, Solvency II usw. Den Regulator glücklich zu machen ist zwar wichtig aber operativ nicht wirklich gewinnbringend. Wenn aber Data Governance in einer durchgängige und klar strukturiere Dokumentation der vorhandenen Data Assets in Form eines Data Catalogs mündet, kann eine solche Initiative durchaus zu erheblichen Zeitersparnissen bei der Datensuche führen. Und wenn der Data Catalog mit einer benutzerfreundlichen Oberfläche zum Design von Pipelines integriert wird resultiert eine Umgebung, in der ein Analyst unabhängig von der IT schnell und effektiv Daten finden, zusammenführen und auswerten kann.
Anhand einer Live-Demo wird vorgeführt, wie das Leben eines Analysten erleichtert werden kann.
Data Governance hat in den letzten Jahren stark an Interesse gewonnen vorwiegend wegen regulatorischem Druck durch DSGVO, Basel IV, Solvency II usw. Den Regulator glücklich zu machen ist zwar wichtig aber operativ nicht wirklich gewinnbringend. Wenn aber Data Governance in einer durchgängige und klar strukturiere Dokumentation der vorhandenen Data Assets in Form eines Data Catalogs mündet, kann eine solche Initiative durchaus zu erheblichen Zeitersparnissen bei der Datensuche führen. Und wenn der Data Catalog mit einer benutzerfreundlichen Oberfläche zum Design von Pipelines integriert wird resultiert eine Umgebung, in der ein Analyst unabhängig von der IT schnell und effektiv Daten finden, zusammenführen und auswerten kann.
Anhand einer Live-Demo wird vorgeführt, wie das Leben eines Analysten erleichtert werden kann.
Ein Teil des Lösungsweges aus der aktuellen Herausforderung der Corona-Pandemie ist einfach gesagt: die Impfung einer ausreichend großen Menge an Menschen. Das macht dieses Thema zu einem gesamtgesellschaftlich Bedeutsamen. So offensichtlich wichtig Schnelligkeit und Flexibilität aller Beteiligten hier ist, greift Bürokratie intensiv in das Geschehen ein, was naturgemäß nicht zur Beschleunigung der Abläufe führt. Die Verbesserung der Prozessleistungsfähigkeit muss also dass Zusammenspiel zwischen Impfausführung und Impf-Bürokratie adressieren, um beispielsweise Impfberechtigungen etc. treffgenau verwalten zu können. Dabei sind Formulare auszufüllen, zu digitalisieren und weiterzuleiten, Termine für eine Impfung zu vergeben und umzuplanen, Impfdosen zu verwalten, Personal bereitzustellen und nicht zuletzt auch Menschen mitzunehmen. Erfahren Sie in diesem Vortrag von den Herausforderungen eines solchen Projektes und was man hieraus für die eigene Business Process Intelligence lernen kann. Profitieren Sie von den Erfahrungen für Ihre eigenen Prozess-Digitalisierungsprojekte!
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Data and Analytics maturity is directly related to operational efficiency and a successful business strategy that is designed to capitalize on future opportunities. We will explore how an understanding of your organisations data and analytical maturity level can help design a data strategy to move from “Excel Hell” towards the highest levels of prescriptive analytics. Along the way, we will show how an organisation’s journey to data and analytics maturity can be shortened and identify a data strategy approach to enable this acceleration.
The pandemic of 2020 drove organisations to react to an ever-changing landscape. Organizations needed to be able to understand better their customers, suppliers, and partners. They needed to react in real time to ever changing events. In this presentation we will touch on the value that Data Virtualization brings to organizations, helping them understand their data assets in real time. We will discuss how data is everywhere from being in on premise data stores such as legacy databases to cloud-based data warehouses and data lakes to even third party data sources such as social media or supply chain data. We will look at how data virtualization helps bring together these sources into a logical data fabric, allowing data citizens to interrogate and report on the data in real time. Helping organizations make data driven business decisions.
This session, given in an interview format, explores Carsten’s journey from Data Warehouse Automation sceptic to advocate, and what this transition has allowed his team to achieve at Toyota Kreditbank.
Carsten’s BI team received data from nine countries in different formats, at different times and with different frequencies, varying from daily to monthly. For this reason, fulfilling regulatory requirements with hand coding and ETL tools was a real challenge.
The group BI team was looking for a new solution to harmonise the data model, renew the technical infrastructure and implement a unified data delivery. Carsten had used Data Warehouse Automation at a previous company and was very sceptical about the success , but now realises this was a problem of mindset across the team and not the technology.
During this session, you will learn:
· Why Toyota Kreditbank chose Snowflake and Data Vault modelling
· How the company automated their manual repetitive processes for long-term time savings
· What a switch from manual ETL to automated ELT has achieved
· How to get full documentation and lineage out of the box
· Lessons learned from two DW automation implementations
· How to do 2.5 years’ worth of batch reloads in just 2 hours
In Anknüpfung an einen vor drei Jahren bei der TDWI München gehaltenen Vortrag zu Datenqualität bei der Raiffeisen Bank International AG blickt Christian Trapichler, Senior Data Quality Governance Manager, nun mit einem Erfahrungsbericht aus Anwendersicht auf den Projektabschluss und Produktionsstart zurück und zieht eine vorläufige Bilanz. Beantwortet werden unter anderem folgende Fragen:
• Wurden die Ziele erreicht und Erwartungen erfüllt? (Über Grenzen des Expectation Managements und unerwartete positive Nebeneffekte)
• Ist Datenqualität messbar und auch besser geworden? (Über Ambition Levels, Trends und Anomalien in Ergebnissen und Statistiken)
• Welche begleitenden Maßnahmen waren erforderlich? (Organisatorische Maßnahmen und warum komplexe Workflow-Systeme kontraproduktiv sind)
• Was waren die Stolpersteine und Lessons Learned? („Weniger ist Mehr“ in jeder Hinsicht und warum „Data Quality as a Service“ immer wichtiger wird)
Zum Abschluss wird noch ein Ausblick gewagt: Wie geht es weiter? Mit diesem Erfahrungsbericht der Raiffeisen Bank International AG, die als „Beste Bank in Zentral- und Osteuropa“ und als „Beste Bank in Österreich“ ausgezeichnet wurde, erhalten Sie einen Einblick in erlebtes Datenqualitäts-Management aus der Praxis.
Die Daten das Unternehmens wirklich als Asset zu verstehen erfordert, dass wir ihren Wert ermitteln, verstehen und für einen breiten Kreis sichtbar machen. Für die B2C-Geschäfte der EOS-Gesellschaften in Deutschland wurde diesen Schritt gemacht, um mit dieser neuen Perspektive das Datenmanagement neu zu erfinden. Ein Bericht über eine Datenstrategie als Ausgangspunkt, erste Erfahrungen mit der Wertbestimmung von Daten und den Impact auf unser Datenmanagement mit D-QUANTUM als zentraler Plattform für die Umsetzung dieser Strategie.
Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in unterschiedlichen Branchen (Telekommunika- tion, Banken und Handel). In seiner Funktion als COO der Synabi Business Solution GmbH verantwortet er die Konzeption und Umsetzung von Metadaten und DataGovernance-Projekten.
Daten sind ein essenzielles Element in jedem Unternehmen. Diese werden jedoch von verschiedenen Parteien bearbeitet und sind in verschiedenen Systemen und Datenbanken gespeichert, die durch betriebliche Aktivitäten - z.B. M&A oder Einführung neuer Tools – vereint werden müssen. Es ist oft unmöglich, eine ganzheitliche Sicht auf die Daten zu erhalten, was zu Schwierigkeiten sowohl bei operativen Prozessen als auch im Reporting führt.
Wir geben Ihnen Best Practices an die Hand, wie Sie Daten systemübergreifend managen und diskutieren die Möglichkeiten der technischen Unterstützung. Im Anschluss stellen wir Ihnen einige wichtige Funktionen des Datenmanagements im Rahmen einer kurzen Demonstration vor.
Christian Schneider ist der Director Data & Analytics bei der QuinScape GmbH. Als Consultant und Projektleiter war er langjährig in internationalen Großprojekten tätig und kennt die vielfältigen Herausforderungen unterschiedlichster Integrations- und Analytikszenarien aus der praktischen Arbeit. Als Speaker und in Publikationen beleuchtet er die Aspekte des Aufbaus von nachhaltigen Dateninfrastrukturen mit einem im späteren Betrieb überschaubaren Kostenrahmen durch eine zielorientierte Data Governance.
People Analytics befindet sich in den letzten Jahren immer wieder unter den Top HR Trends. Aber, ist dies wirklich ein heißes Eisen oder nur ein weiteres Buzzword für Personalcontrolling? Welche Chancen und Risiken bieten technologische Innovationen im Bereich People Analytics? Fest steht, in vielen Unternehmen wird das Thema diskutiert. Daten getriebene Entscheidungsprozesse haben bereits in HR-Bereichen Einzug gehalten. Einflussfaktoren aus der Unternehmensstrategie, neue Anforderungen von Führungskräften und zusätzliche Datenquellen sorgen dafür, dass People Analytics über die Grenzen der Personalabteilungen hinaus relevant ist. Wir blicken in diesem Vortrag aus verschiedenen Unternehmensperspektiven auf diverse Fragen und zeigen Ihnen anhand konkreter Use Cases praxisnahe Beispiele.
Data Governance taucht selten in der Liste der Themen auf, die von den Unternehmen priorisiert werden. Zu Unrecht, wie der Vortrag in anschaulichen Beispielen zeigt! Ähnlich wie ein Superheld, der aus dem Verborgenen für Recht und Ordnung sorgt, verhält es sich mit Data Governance: Oberflächlich als Overhead missachtet, sorgt diese im Hintergrund für Recht und Ordnung in Unternehmensdaten. Im Kampf gegen Covid-19 bspw. setzt Data Governance Ihre „Superkräfte“ in Form eines zentralen datenqualitätsgesicherten Abrechnungsprozesses in der Forschung ein.
The impacts of data incidents that break data pipelines are felt across and often beyond your organization, throwing a wrench into your risk mitigation practices.
While there’s no silver bullet, data lineage can provide the context and the pipeline visibility you need to tackle issues early and speed up your incident resolution.
Join Jan Suchanek Technical Account Manager at MANTA, to learn the strategic approach and best practices for using context and historical lineage to proactively identify and understand issues in a data pipeline in the context of that pipeline.
Time-to-Market von Auswertungen hat sich massiv verkürzt, Berichte sind katalogisiert und werden nicht mehr redundant erstellt, Fachabteilungen erhalten Self-Service-Angebote und das Top-Management vertraut den Zahlen. Und außerdem ist alles auf Knopfdruck verfügbar. Aber wie erreicht man diese Ziele eines exzellenten Reportings und damit auch exzellenter datengetriebener Entscheidungsgrundlagen? dataspot. zeigt den machbaren Weg zur Vision mit Data Governance & Metadatenmanagement auf.