- Montag
20.06. - Dienstag
21.06. - Mittwoch
22.06.
Have you ever ordered a product on Amazon websites and, when the box arrived, wondered how you got it so fast, how much it would have cost Amazon, how much carbon it emitted and what kinds of systems & processes must be running behind the scenes to power the whole operation?
Let’s take a look behind the scenes and open the doors of Amazon Data and Analytics teams to explore how the combination of our people and our advanced algorithms are working together to deliver to our customers millions of diverse products every day all across the globe.
From the moment we order products from our vendor partners, until we deliver to our customer doorsteps, we use dozens of systems, pieces of software, Machine Learning algorithms and Petabytes of data to optimize our operations. Together, they orchestrate what we call our fulfillment network and optimize the reliability, delivery speed, cost and carbon emissions of our products, packages and trucks.
Together, we will follow the journey of a customer order, and dive into the different steps of our fulfillment operations:
- Forecasting how much volume will flow on our network
- Buying the right quantities and placing our inventory at the right location
- Designing an efficient outbound network
- Executing operational excellence to delight customers
We strive to be the earth’s most customer centric company, today let’s take a look into what it means!
Dominique Vitali is Director of the EU Customer Experience team at Amazon and in charge of Supply Chain and Transportation network optimization through analytics for the European customers – Delivery accuracy/Delivery
Speed/Fulfillment Cost Reduction/Carbon Intensity reduction. Managing a team of 25 analysts, program managers and data scientists.
What is Data Mesh? Join Starburst for an introduction into this modern approach to managing analytics at scale. Data Mesh embraces decentralisation over-centralisation, meaning it allows companies to become more efficient in accessing and exploiting data as a core architectural approach.
Andy ist EMEA Head of Partner Solutions Architecture and Data Mesh Lead bei Starburst. Andy unterstützt das schnell Wachstum von Technologiepartnern in Europa und im Nahen Osten und arbeitet u.a. mit Data Reply, AWS, Google Cloud, Red Hat und Thoughtspot zusammen.
Mit mehr als 20 Jahren Erfahrung in analytischen und datenorientierten Funktionen liegt Andys besonderer Fokus auf der Frage, wie der Nutzen von Analytik, die analytische Kultur und die analytischen Prozesse eines Unternehmens durch Technologien wie Self-Service-Datentools, Cloud- und Streaming-Analysen optimiert werden können.
Beim Arbeiten mit Daten liegt der Fokus oftmals auf Technologien, Prozessen und Funktionen. Das Wichtigste wird jedoch vergessen - der Mensch! Dabei ist der Mensch und sein Verhalten im Umgang mit Daten ein wesentlicher Erfolgsfaktor für die (Weiter-)Entwicklung aller Datenplattformen. Entdecken Sie, wie der Alation Data Catalog den Menschen und sein Verhalten in den Mittelpunkt stellt, um einen Mehrwert zu schaffen, der weit über einfache Automatisierung hinausgeht und so die Datenkultur in Unternehmen entscheidend voranbringt.
Christian hat einen Großteil seiner Karriere im Umfeld von Business Intelligence und Corporate Performance Planning verbracht. Bei all seinen Projekten ist er immer wieder auf ähnliche Herausforderungen gestoßen: Wo finde ich die Daten, die ich brauche? Was bedeuten sie? Kann ich ihnen vertrauen? … Darum hilft er jetzt als Senior Sales Engineer bei Alation, genau diese Herausforderungen zu überwinden.
Patrick Berger ist als Head of IT Integration Services bei der KTM AG für die Themen Stammdatenmanagement, Datenintegration und Data Engineering verantwortlich. Nach Abschluss seines Studiums an der FH Salzburg startete er seine Laufbahn bei KTM im Financial Controlling mit dem Schwerpunkt Business Intelligence, seit seinem Wechsel in den IT Bereich im Jahr 2010 war er als Leiter verschiedener Abteilungen mit Projekten und Produkteinführungen in den Bereichen Enterprise Software, Anwendungsentwicklung und Datenmanagement betraut.
Bereits heute tolerieren viele Organisationen keine monolithischen und zentralisierten Datenarchitekturen mehr. Vielmehr orientieren sie sich an neuen Architektur-Paradigmen wie der Data Fabric oder Data Mesh und setzen auf Flexibilität, Modularität und verteilte Datenarchitekturen.
Diese neuartigen Konzepte beruhen auf der Annahme, dass monolithische Datenarchitekturen mit einigen inhärenten Problemen verbunden sind, wie etwa einer unzureichenden Business-Orientierung, mangelnder Flexibilität oder einer zu langsamem Datenbereitstellung. Während die Data Fabric dieser Problemstellung primär aus technologischer Perspektive Rechnung trägt, adressiert Data Mesh vor allem organisatorische Aspekte.
Im Vortrag erfahren Sie mehr über die Prinzipien neuartiger architektonischer Konzepte und wie Sie diese mit Datenvirtualisierung umsetzen und auf Ihre Bedürfnisse, Ihre Daten und Ihre Prozesse zuschneiden können.
Die Getränke Hoffmann Gruppe, als Teil der Radeberger Gruppe und der Dr. Oetker Gruppe, ist der führende Getränkefacheinzelhändler in Deutschland.
Für Getränke Hoffmann ist die Entwicklung zur data-driven-company ein strategisches Ziel. So werden viele neue Use Cases identifiziert und innovative Lösungen im Analytics- und Data Science-Umfeld entwickelt. Ohne eine moderne Datenplattform ist das Ziel einer data-driven Company unerreichbar. Getränke Hoffmann setzt dabei auf einen äußerst modernen, agilen, innovativen und modular aufgebauten Data Stack (MAIN-Data Stack). Die Datenplattform ist das Fundament der IT-Strategie für den Aufbau bereichsübergreifender Apps, um schnell Insights für fundierte Entscheidungen und Prozesse zu generieren und dabei einen schnellen ROI zu erzeugen. Das Team um den CIO/CTO Oliver Mießner ist mit viel Elan und Spaß dabei, die Möglichkeiten der entwickelten Datenplattform auszuloten. Alle Teilprojekte basieren auf Prinzipien, wie der Produktifizierung von Teillösungen und der Sicherstellung der Governance. Snowflake bietet dafür die benötigte agile und elastische Infrastruktur, um alle Daten performant und in gesicherter Qualität für die analytischen Applikationen zur Verfügung zu stellen.
Oliver Mießner ist CIO/CTO und Mitglied der Geschäftsleitung bei der Getränke Hoffmann Gruppe dem führenden Getränkefacheinzelhändler in Deutschland. Dort ist er verantwortlich für die komplette Neuausrichtung der Informationstechnologie. Seit nunmehr 1,5 Jahre beschäftigen sich Oliver und sein Team mit der digitalen und datengetriebenen Ausrichtung der Getränke Hoffmann Gruppe als Kern seiner ausgebenden IT-Strategie. In den letzten 20 Jahren unterstützte er große deutsche Unternehmen, in unterschiedlichen Führungspositionen, bei der Ausarbeitung und Implementierung Ihrer zukunftsgerichteten Datenstrategien.
Seit Jahren setzen unsere Kunden auf die Ab Initio Plattform zur Datenintegration, Datenbewirtschaftung und für Data Governance.
Der Fokus liegt dabei auf komplexen Systemlandschaften, und schon jetzt nutzen viele Kunden ihre Metadaten für die Governance.
Der nächste Schritt ist es nun, diese Metadaten auch viel mehr für die Steuerung der Produktionsprozesse und somit Automatisation und Self-Service zu verwenden.
Ein solches System stellen wir Ihnen in diesem Vortrag live vor.
Voilà: Active Metadata!
Seit 17 Jahren arbeitet Peter als Architekt mit Kunden weltweit an der Planung und Umsetzung von großen und komplexen Systemen.
Besonders angetan hat es ihm dabei die Definition und Umsetzung dieser Systeme mit Hilfe von Metadaten.
Vor langer Zeit hat er sich beschäftigt mit Data Mining und dem wissenschaftlichen Höchstleistungsrechnen.
Der Einsatz von Hybrid- oder Multi-Cloud Lösungen.
Der Weg in die Cloud ist für viele Unternehmen essenzieller Bestandteil der Datenstrategie. Allerdings ist in vielen Fällen die Umstellung von einer alten Data Warehouse-Lösung auf die Cloud weder praktikabel noch sinnvoll: gesetzliche Regelungen sowie die Sensibilität von Daten verhindern es oft, Datenbestände vollständig in der Cloud verfügbar zu machen. Zusätzlich ist für die Wahl der richtigen Cloud-Datenplattform die Betriebsart entscheidend: soll es eine selbstbetriebene Plattform (self-tenant) oder doch ein vollgemanagter Service (SaaS) sein? Soll die Plattform auf Komponenten basieren, die bei allen Cloud Providern verfügbar sind oder Cloud-spezifische Dienste nutzen?
Unabhängig davon, wie die jeweilige Datenstrategie lautet und wo Ihre Daten liegen, mit Exasol können Sie diese schnell und kosteneffizient analysieren! Wir zeigen Ihnen, wie Sie die schnellste analytische Datenbank der Welt für komplexe Analysen effizient einsetzen und so Datenbestände aus allen Welten ohne Vendor Lock-In gewinnbringend nutzen können. Dank der vielseitigen Deployment-Optionen kann Exasol sowohl On-Premises als auch in der Public Cloud im eigenen Account eingesetzt werden. Zudem bietet das Exasol SaaS Angebot eine flexible Nutzung als Service an. Hiermit wird die IT entlastet und Fachabteilungen können sich direkt der Arbeit mit den Daten widmen. Verschiedenste Plattformen lassen sich via Virtual Schema Konzept zu übergreifenden Multi- oder Hybrid-Cloud Lösungen ausbauen.
Dr. Florian Wenzel ist als Senior Sales Engineer bei der Exasol AG dafür zuständig, weltweit agierenden Großkunden die Besonderheit der Technologie von Exasol im Rahmen von Proof-of-Concepts zu demonstrieren. Er ermöglicht Ihnen so, Daten mit beispielloser Geschwindigkeit zu analysieren, um neue geschäftliche Insights und unmittelbare Mehrwerte zu gewinnen. Bevor er zu Exasol kam, forschte er im Bereich Datenbanken und Informationssysteme an der Universität Augsburg und promovierte dort 2015.
Kurze Einführung und Begrüßung durch Matthias Stemmler,
Head of Customer Advisory Platform & Data Management bei SAP Deutschland SE & Co KG.
Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Herr Stemmler das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.
In dieser Session erfahren Sie, wie Data Warehousing im Bereich HR Reporting und Analytics beim Versicherungsexperten HDI gewinnbringend eingesetzt wird. Frank Indorf berichtet gemeinsam mit Volker Wietzorek vom Lösungsanbieter Detect Value AG über die Inhalte, die spezifischen Vorteile, den Entwicklungsstand und weitere Ausbaustufen.
Frank Indorf arbeitet seit 1992 in der IT bei HDI, seit 1999 als Business Analyst im Bereich HR-IT. Er konzipiert und koordiniert die Einführung, Integration und den Ausbau der Data Warehouse Cloud bei HDI für die Fachbereiche HR und Controlling.
Volker Wietzorek ist bei der Detect Value verantwortlich für die Architektur und Weiterentwicklung einer integrierten SAP Data Warehouse Cloud Lösung für HR-Analytics und -Planungs-Anwendungen auf Basis SAC. Er greift dabei zurück auf seine mehr als 20-jährige Erfahrung aus der Einführung von Business Analytics Lösungen in komplexen Systemlandschaften für die Fachbereiche HR und Controlling.
There’s so much Data Mesh theory, but most organisations need more strategic guidance on how to implement it. Join this session to guide you learn how to cultivate a Data Mesh mindset when transforming from a data & analytics strategy towards a data-driven organisation.
Andy ist EMEA Head of Partner Solutions Architecture and Data Mesh Lead bei Starburst. Andy unterstützt das schnell Wachstum von Technologiepartnern in Europa und im Nahen Osten und arbeitet u.a. mit Data Reply, AWS, Google Cloud, Red Hat und Thoughtspot zusammen.
Mit mehr als 20 Jahren Erfahrung in analytischen und datenorientierten Funktionen liegt Andys besonderer Fokus auf der Frage, wie der Nutzen von Analytik, die analytische Kultur und die analytischen Prozesse eines Unternehmens durch Technologien wie Self-Service-Datentools, Cloud- und Streaming-Analysen optimiert werden können.
Artyom has taken the role of Managing Director of Data Reply beginning 2022, having previously led the Big Data Business Unit and served as the company Technical Lead. Since then, Data Reply’s focus has been on building scalable Data Platforms, Event-Driven Applications and ML Applications. He himself has been involved in a range of Data driven and ML use cases and has been the Lead Developer and primary architect for a variety of large-scale Data Platforms used by large organizations from different Industries.
Gordon Witzel ist Data Management Expert für SAP Data Warehousing mit Hauptexpertise für die Produkte SAP Business Warehouse (SAP BW/4HANA) und SAP Data Warehouse Cloud. Gordon ist spezialisiert auf SAP BW/4HANA, SAP HANA Data Warehousing, SAP Data Warehouse Cloud und moderne Data Warehouse Architekturen.
Bevor Herr Witzel im Jahre 2022 in das deutsche Pre-Sales Team wechselte, war Gordon seit 2016 als Produktmanager bei der SAP für SAP Data Warehousing tätig und sammelte zuvor weltweit 8 Jahre Erfahrung in der SAP BW Beratung.
This activity is suitable for data warehouse developers, BI managers, and data architects who want to take the fastest, safest, most secure path to create, manage and adapt Data Warehouses, Data Marts, Data Vaults, and Data Lakes.
Attendees will enjoy a fast-paced, interactive workshop using WhereScape's automated code generator and best-practice templates to build a fully functional and documented data warehouse.
You will be set up with your own instance of WhereScape and a target database via a virtual machine and then guided through real-world development scenarios as if you were part of a professional data engineering team. This is an excellent opportunity to learn about the latest data automation technologies and how they can help you streamline your data architecture.
Lernen Sie die Marktforschung der Enterprise Management Associates (EMA) näher kennen, die den erhöhten Bedarf an schnellem und sicherem Datenzugriff zusammen mit einem Schritt hin zu einer dezentralen Datenarchitektur aufzeigt. Diese Studie ist gemeinsam von Red Hat und Starburst in Auftrag gegeben und deckt neue Trends und wertvolle Erkenntnisse auf, die jedem Leiter für Daten und Analytik wichtig sein sollten.
Die Studie fasst die aktuelle Datenlandschaft von der großen Datenstreuung bis zu den Auswirkungen der Pandemie und vom Dilemma der Datenpipeline bis zum Umzug in die Cloud zusammen. Es werden auch Vorhersagen über die Zukunft gemacht.
Get closer to the market research conducted by Enterprise Management Associates (EMA) that highlights the increased need for fast and secure data access along with a move towards decentralized data architecture. Jointly commissioned by Red Hat and Starburst, this study uncovers emerging trends and valuable insights that every data and analytics leader should care about.
From the great data dispersion to the impact of the pandemic and from the data pipeline dilemma to the move to the cloud, the study encapsulates the current data landscape. It also makes predictions about the future.
Joseph Gade arbeitet derzeit als Solution Architect für Partner-Ökosysteme bei Starburst Data und unterstützt GSI, RSI und große Cloud-Partner dabei, die Data-Mesh-Strategie von Starburst bei Großkunden in der DACH-Region zu positionieren. Joseph bringt einen reichen Erfahrungsschatz aus der Arbeit bei vielen Produktunternehmen wie SAS, Tibco und ThoughtSpot mit, hauptsächlich in der Pre-Sales-Rolle. Josephs Spezialisierung umfasst Business Intelligence, wertorientiertes Verkaufen und maschinelles Lernen. In seiner Freizeit liebt Joseph es Reisen zu unternehmen, Cricket zu sehen und zu verfolgen und seiner Leidenschaft für die Fotografie nachzugehen
Robert arbeitet als Senior Specialist Solution Architect bei Red Hat und ist Subject Matter Expert für OpenShift Container Platform. Mit über 10 Jahren Middleware Betriebserfahrung von Automatisierung über Monitoring und mehr als 5 Jahren Container Fachwissen unterstützt Robert primär große deutsche Kunden beim Einsatz von OpenShift; beginnend bei der Einführung, 24x7 Betrieb bis hin zur Migration und Modernisierung vom komplexen Anwendungen.
Geberit implementiert HANA Cloud basiertes Reporting zur Ablösung einer existierenden Lösung: Dazu gehört, disruptiver technologischer Change vom individuellen Reporting zum gruppenweiten Standard, Reduktion von Support Aufwänden und Zukunftssicherheit durch Verwendung von State-of-the-Art Cloud-Technologien.
Nach seinem Studium der Wirtschaftsinformatik arbeitete Bekim mehrere Jahre als SAP Inhouse Consultant im BI Umfeld. Seit 2020 ist er bei Geberit als IT Application Analyst SAP BI tätig. Dort ist er für die Entwicklung von Calculation Views im Business Application Studio zuständig.
Fabian ist IT Application Analyst bei Geberit mit Erfahrung in der SAP HANA Cloud Administration. Er ist spezialisiert auf die HDI-Entwicklung und verantwortlich für den allgemeinen Entwicklungsprozess und das Berechtigungskonzept in SAP HANA Cloud. Er schloss 2020 sein Bachelorstudium im Bereich Wirtschaftsinformatik an der DHBW Ravensburg ab.
Seit 2016 arbeitet Michael als Senior IT Application Analyst im Analytik- und Planungsteam von Geberit und konzentriert sich auf die konzeptionelle Integration neuer Tools in die analytische Architektur. Zuvor war er mehrere Jahre als Unternehmensberater tätig und verfügt über einen Bachelor-Abschluss in Wirtschaftsinformatik und einen Master-Abschluss in Business Analytics.
Erfahren Sie alles über moderne Datenarchitekturen von Peter Baumann. Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei INFOMOTION und unterstützt seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.
Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einsteig bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.
In diesem praktischen und interaktiven Workshop erfahren Sie, wie Starburst als zentraler Zugriffspunkt fungiert, der eine Verbindung zu jeder Datenquelle herstellt – egal ob On-Premise, in der Cloud oder in einer hybriden Cloud. Starburst ermöglicht es Ihrem Team, die Analyse-Tools zu nutzen, die es bereits kennt und liebt, und gleichzeitig auf alle Daten überall zuzugreifen.
In this hands-on and interactive workshop you’ll see how Starburst acts as a single point of access connecting to any source of data – whether it’s located on-premise, in the cloud, or across a hybrid cloud environment – Starburst lets your team use the analytics tools they already know & love while accessing data that lives anywhere.
Joseph Gade arbeitet derzeit als Solution Architect für Partner-Ökosysteme bei Starburst Data und unterstützt GSI, RSI und große Cloud-Partner dabei, die Data-Mesh-Strategie von Starburst bei Großkunden in der DACH-Region zu positionieren. Joseph bringt einen reichen Erfahrungsschatz aus der Arbeit bei vielen Produktunternehmen wie SAS, Tibco und ThoughtSpot mit, hauptsächlich in der Pre-Sales-Rolle. Josephs Spezialisierung umfasst Business Intelligence, wertorientiertes Verkaufen und maschinelles Lernen. In seiner Freizeit liebt Joseph es Reisen zu unternehmen, Cricket zu sehen und zu verfolgen und seiner Leidenschaft für die Fotografie nachzugehen
Attendees from Part 1 will continue their data automation experience. By the end of this session, you will have built a Data Warehouse and understand the wider value of this approach to Data Vaults, Data Marts, and Data Lakes.
The secrets to accelerating data projects and delivering in hours, not weeks or months, will have been revealed! You will know how to eliminate technology lock-in and future-proof your data architecture.
SAP stellt die SAP Data Warehouse Cloud, SAP BW Bridge vor und erläutert Anwendungsmöglichkeiten und Einsatzszenarien. Weiterhin zeigen wir auf, welche Optionen für SAP BW Kunden bestehen, in die Cloud (public und private) zu wechseln und welche Möglichkeiten die SAP anbietet, bestehende BW basierte Datenflüsse in die public Cloud nach SAP Data Warehouse Cloud zu überführen.
Gordon Witzel ist Data Management Expert für SAP Data Warehousing mit Hauptexpertise für die Produkte SAP Business Warehouse (SAP BW/4HANA) und SAP Data Warehouse Cloud. Gordon ist spezialisiert auf SAP BW/4HANA, SAP HANA Data Warehousing, SAP Data Warehouse Cloud und moderne Data Warehouse Architekturen.
Bevor Herr Witzel im Jahre 2022 in das deutsche Pre-Sales Team wechselte, war Gordon seit 2016 als Produktmanager bei der SAP für SAP Data Warehousing tätig und sammelte zuvor weltweit 8 Jahre Erfahrung in der SAP BW Beratung.
Are you considering Data Vault but are not sure if it is a match for your needs? Are you about to embark on your first project? Do you want to discuss real-world applications? Are you keen to understand how to maximize your investment and see results fast?
This is an “ask the expert” session where you can question Data Vault practitioners, specialists, and automation technologists as we cover all of the above topics and more!
Drinks, nibbles, competitions
Im Leben des Unterwasserfotografen und Terra X Moderators Uli Kunz bedeutet ein Büro-Tag, dass er von winzigen Booten ins bodenlose Blau des Meeres springt, von Haien umringt oder von Robben angeknabbert wird, mit 150 Kilogramm Ausrüstung durch wassergefüllte Höhlen schwimmt, gefährliche Geisternetze aus dem Wasser zieht oder singenden Walen in der Arktis lauscht.
Der Meeresbiologe nimmt regelmäßig an abenteuerlichen Forschungsexpeditionen teil, von denen er faszinierende Unterwasserfotos mit nach Hause bringt. Für die aufwendigen Arbeiten in der Tiefe gelten die gleichen Prinzipien wie an Land: Projekte müssen genau geplant und effizient durchgeführt werden, die Mitglieder des Teams müssen motiviert miteinander kommunizieren und der Umgang mit riskanten Situationen muss mehrfach trainiert werden. Selbstüberschätzung führt bei der Bedienung einer Kaffeemaschine meist nur zu unschönen Flecken und schlechtem Geschmack. Beim Tauchen stellt sie ein tödliches Risiko dar.
In seiner Show berichtet Uli Kunz von denkwürdigen Begegnungen mit den faszinierenden Lebewesen der Ozeane, von gewaltigen Unterwasserwäldern, neugierigen Robben und riesigen Buckelwalen, von denen er fast verschluckt wurde. Da er die Begegnung heil überstanden hat, kann er nun auch davon erzählen...
Uli möchte mit seinen Erzählungen und Bildern den Schutz der Ozeane vorantreiben, den größten Lebensraum auf der Erde, dessen Geheimnisse wir gerade erst zu verstehen beginnen.
Im Leben des Unterwasserfotografen und Terra X Moderators Uli Kunz bedeutet ein Büro-Tag, dass er von winzigen Booten ins bodenlose Blau des Meeres springt, von Haien umringt oder von Robben angeknabbert wird, mit 150 Kilogramm Ausrüstung durch wassergefüllte Höhlen schwimmt, gefährliche Geisternetze aus dem Wasser zieht oder singenden Walen in der Arktis lauscht.
Stakeholder fordern immer stärker einen ethischen Umgang mit ihren Daten ein. Doch welche Fragen müssen beantwortet und welche Maßnahmen ergriffen werden, damit Datenethik im Unternehmen wirklich ankommt? Im Vortrag skizzieren wir ein Vorgehen für die Erarbeitung eines datenethischen Gesamtkonzepts. Das beinhaltet unter anderem die Definition eines Zielbildes, Maßnahmen für eine erfolgreiche Etablierung und die zugehörige Kommunikationsstrategie.
Maurice Polkehn studierte Mathematik mit Schwerpunkt in diskreter Optimierung an der Technischen Universität Darmstadt. Seit seinem Einstieg bei INFOMOTION 2014 beschäftigt er sich mit Analytics insbesondere im Finanzsektor. Dabei fokussiert er sich auf die Standardisierung von Analyseprozessen und ist mitverantwortlich für die Entwicklung von Themen aus dem Bereich Data Literacy.
Miriam Goetz studierte Physik mit Fokus auf Quanteninformationsverarbeitung und statistischer Physik. Danach promovierte sie in Volkswirtschaftslehre. Ihre Forschungsaktivitäten betreffen die Modellierung und ökonometrische Auswertung internationaler Bankenregulierung. Seit 2021 bei INFOMOTION tätig, beschäftigt sich Miriam Goetz insbesondere mit der Digitalisierung von Reporting Prozessen. Ein weiterer Schwerpunkt liegt in der Entwicklung von Data Litercy Strategien und Trainingsinhalten.
Als integralen Bestandteil der Unternehmensziele formulierte der DKV Mobility (DKV) 2020 eine auf Use Cases gestützte Datenstrategie. Seit Anfang 2021 wird diese mit den drei folgenden Schwerpunkten operationalisiert: Der Aufbau der Abteilung Data Intelligence & Analytics, die Einführung einer cloud-basierten analytischen Plattform und die Umsetzung des Data Governance Programms.
Die wesentliche Säule des Data Governance Programms war dabei die Einführung des Data Catalogs, realisiert durch die Softwarelösung D-QUANTUM. In diesem Vortrag erläutert Sönke Iwersen gemeinsam mit Wolf Erlewein die Erfahrungen und Mehrwerte durch die Nutzung von D-QUANTUM. Durch die große Flexibilität der Software konnte das benötigte Business Glossary einfach und unkompliziert an die sich stetig entwickelnden Anforderungen angepasst werden, um die fachlichen Metadaten wie Kennzahlen, Geschäftsobjekte sowie deren Zuständigkeiten abzubilden.
Um die Entwicklung der analytischen Plattform durch den Data Catalog zu begleiten, wurden Snowflake und Microsoft Purview mit D-QUANTUM Connect angebunden.
Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in unterschiedlichen Branchen (Telekommunika- tion, Banken und Handel). In seiner Funktion als COO der Synabi Business Solution GmbH verantwortet er die Konzeption und Umsetzung von Metadaten und DataGovernance-Projekten.
Dr. Sönke Iwersen verantwortet seit mehr 15 Jahren Data & Analytics-Organisationen in verschiedenen Industrien (u.a. Telefónica, Handelsblatt, XING, Fitness First, HRS). Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.
Wenn es ein Buzzword der Stunde geben würde, dann wäre es sicherlich “Data Mesh”! Dieses neue architektonische Paradigma erschließt analytische Daten in großem Umfang und ermöglicht den schnellen Zugriff auf eine ständig wachsende Zahl verteilter Domaindatensätze für eine Vielzahl von Nutzungsszenarien. Damit behebt der Data Mesh die geläufigsten Schwachstellen der traditionellen zentralisierten Data Lake- oder Datenplattform-Architektur. Und das Herzstück einer Data Mesh-Infrastruktur muss in Echtzeit, entkoppelt, zuverlässig und skalierbar sein.
In diesem Vortrag zeigt Kai Waehner, wie Apache Kafka als offene und skalierbare dezentrale Echtzeitplattform die Basis einer Data-Mash-Infrastruktur sein kann und - ergänzt durch viele andere Datenplattformen - echte Geschäftsprobleme löst.
Kai Wähner works as Technology Evangelist at Confluent. Kai’s main area of expertise lies within the fields of Big Data Analytics, Machine Learning / Deep Learning, Cloud / Hybrid Architectures, Messaging, Integration, Microservices, Stream Processing, Internet of Things and Blockchain. He is regular speaker at international conferences such as JavaOne, O’Reilly Software Architecture or ApacheCon, writes articles for professional journals, and shares his experiences with new technologies on his blog (www.kai-waehner.de/blog). Contact and references: kontakt@kai-waehner.de / @KaiWaehner / www.kai-waehner.de / LinkedIn (https://www.linkedin.com/in/megachucky/).
Die bestehenden Lösungsarchitekturen für Data & Analytics werden kontinuierlich weiterentwickelt, daher werden derzeit viele bisher etablierten Ansätze aus unterschiedlichen Perspektiven in Frage gestellt. Hierbei geht es nicht immer nur um die Möglichkeiten neuster Technologien, sondern häufig auch um alternative Zusammenarbeitsmodelle zwischen Fachbereichen und IT und der optimalen Integration in die Prozess- und Datenlandschaft des Unternehmens.
Wir geben Ihnen im Vortrag einen Überblick über die aktuellen Entwicklungen der Lösungsarchitekturen im Kontext von Data & Analytics und zeigen die grundlegenden Bestandteile dieser und deren erwarteten Nutzen auf. Auf dieser Grundlage blicken wir abschließend gemeinsam auf die potenziellen Data & Analytics Architekturen der kommenden Jahre.
Steffen Kandler studierte Wirtschaftsinformatik an der Technischen Hochschule Mittelhessen. Nach seinem Einstieg bei INFOMOTION arbeitet er als BI-Entwickler und Architekt mit Schwerpunkten im Data Management, Data Warehousing sowie Data Visualization. Aktuell befasst er sich mit dem Einfluss der Digitalen Transformation auf Data & Analytics und den Facetten von modernen, skalierbaren und flexiblen Analytics-Plattformen sowie den zugehörigen Architekturen, Technologien und Methoden.
Dillinger had built an "on-demand data warehouse" for its production data with many independent tables using its own ETL applications in Java over two decades. With a very small team, maintaining the warehouse took up a lot of the time. After a careful evaluation of options, Dillinger partnered with Scalefree to construct a new Data Vault 2.0-based data warehouse from scratch. Using the WhereScapes ETL tool chain allowed us to start the migration process with a few people and continually expand it while keeping the old warehouse alive. In this case study, we describe the construction of a technical data warehouse based on Data Vault 2.0 and WhereScape ETL automation, the challenges, how we addressed them and the feasibility of our approach. What you will learn: · Case study of a Data Warehouse project in the heavy plate industry · Build and operate a Data Vault 2.0 Data Warehouse with a small team · Challenges and tackles · Successful combination of internal team with external experts to get the Data Warehouse up and running
Dr. Nicolas Fritz hat über 19 Jahre Erfahrung in der Informationstechnologie/Informatik und ist seit über 10 Jahren bei SHS - Stahl-Holding-Saar GmbH & Co. KGaA (ehem. Dillinger) tätig. Sein Schwerpunkt in den letzten Jahren liegt im Projektmanagement und der Software-Qualitätssicherung. In dem gemeinsamen Projekt mit Scalefree zum Umbau eines historisch gewachsenen DWH waren seine Aufgaben: - Teamleiter der Data Warehouse Gruppe - Design und Entwicklung des neuen technischen Data Warehouse (TDW) - Wartung und Migration des aktuellen TDW - Ermöglichung von Application Life-Cycle Management Prozessen
Mit umfangreicher Erfahrung in der Informationstechnologie, die sich über mehr als 10 Jahren ist Dr. Alexander Brunner seit Oktober 2018 Scalefree Partner für den Finanzbereich seit Oktober 2018. Als Senior IT- und Finanzrisikomanagement-Profi hat er Expertise in der in der Durchführung von sowohl technisch als auch betriebswirtschaftlich getriebenen Projekten bei Investmentbanken, Kreditbanken, Staatsbanken und Immobilienbanken. Er hat sich auf die Einführung von Risikomanagement Risikomanagementsystemen, Financial Engineering (Robo-Advisory) und Beratung von Finanzinstituten bei der Erfüllung regulatorischer Anforderungen in Bezug auf Liquiditäts- und Marktrisiken.
Weitere Infos folgen in Kürze.
Mit neuen Methodiken und Technologien rund um das Thema Advanced Analytics werden auf allen Ebenen eines Unternehmens neue Kompetenzen nötig. Sowohl im Bereich der technologischen/methodischen Kompetenzen als auch in Bereichen Projektmanagement, Steuerung & Use Case Entwicklung.
Wir stellen ein Vorgehen vor, mit welchem der unternehmensweite Reifegrad in Bezug auf Advanced Analytics durch gezielte Schulungsinhalte gesteigert werden kann. Das Vorgehen kann individuell je nach benötigtem Know-how und Hierarchiestufe angewendet werden.
Nach dem Abschluss ihres Masterstudiums der Wirtschaftsinformatik mit Schwerpunkt Data Science hat sie direkt mit dem Data Science Traineeprogramm bei der INFOMOTION GmbH begonnen. Mittlerweile ist Saskia Wachs seit 2019 als Beraterin für das IT-Unternehmen INFOMOTION GmbH tätig und unterstützt Kunden auf ihrer Advanced Analytics Reise.
An Dang hat nach seinem Masterstudium in Wirtschaftsinformatik 2020 das Data Science Traineeprogramm bei der INFOMOTION angefangen. Nach erfolgreichem Abschluss des Traineeprogramms konzentriert er sich nun auf die Industrialisierung von Use-Cases für den Kunden, die Ausbildung der neuen Trainees und internen Mitarbeiter. Als Hackathon-Enthusiast arbeitet er außerdem an Nebenprojekten wie "CadoCards".
Dieser Vortrag handelt von Self-Service Analytics, Daten Demokratisierung und der Rolle des Modernen Analytics Teams.
Eine Live-Demo von Veezoo, der State-of-the-Art Lösung für Conversational Interfaces, soll eindrücklich demonstrieren, wie Self-Service Analytics im 21-Jahrhundert auszusehen hat.
Till Haug is Co-Founder and COO of ETH Spin-off Veezoo, a Self-Service Analytics company building the next generation business intelligence solution based around an intuitive natural language interface.
While studying computer science at ETH Zurich, his bachelor’s thesis involved developing a Q&A system that achieved the world’s highest accuracy, surpassing previous results from Google and Stanford. After publishing his state-of-the-art results and presenting at the A-ranked ECIR conference in Grenoble, Till went on to join Marcos and João Pedro Monteiro in founding Veezoo in 2016 with the goal of making business-critical data easily accessible for anyone.
Since then, the company has gone on to raise funding and scale to serve Fortune 500 companies in answering business critical questions. Till has been a featured speaker at conferences such as Finance 2.0 InsurTech and the EFMA Insurance Awards, while the company has profiled in the likes of BILANZ, Handelszeitung, Le Temps, cash, and Yahoo Finance.
Hybride Architekturen zwischen On-Prem und Cloud stellen immer eine hohe Komplexität dar, aber sind oftmals essentiell für stark regulierte Bereiche. In dem kurzen Impuls werden verschiedene Ansätze aufgezeigt, wie mit Hilfe der Confluent Plattform eine systemübergreifende Event Streaming Architektur einfach gedacht und aufgebaut werden kann.
Im SAP-Umfeld ist die klassische Datenplattform das SAP Business Warehouse z. B. in seiner aktuellen Ausprägung, dem BW/4HANA. Die SAP HANA Datenbank als analytische Plattform und neue Entwicklungen
in der Cloud haben den Weg frei gemacht, Datenarchitektur mit SAP neu zu denken. Aktuelle Ansätze erlauben hohen Anforderungen an Flexibilität, organisatorischer Skalierbarkeit, niedrigschwelliger
Nutzbarkeit und der Abbildung komplexer analytischer Workloads gerecht zu werden. Der Vortrag erläutert Ansätze, dezentrale Datenarchitekturen mit SAP abzubilden und diese effektiv in der Organisation zu nutzen.
Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einsteig bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.
Mit der Datenbank von Exasol können Analytics-Teams komplexe Machine Learning-Modelle mit Pyton erstellen – und damit Data-Science-Workflows erheblich beschleunigen. Aber wie lassen sich solche Modelle in Einzelprognosen zerlegen?
Lernen Sie den Output jedes Machine Learning-Modells mit Hilfe von SHAP („SHapley Additive exPlanations“), einem spieltheoretischen Ansatz, zu deuten. Indem wir eine Vorhersage aufschlüsseln, erkennen wir die Auswirkungen jedes einzelnen Features und verstehen individuelle Prognosen eines Customer Experience Scores.
Als Technical Alliance Manager bei Exasol unterstützt Carsten Weidmann Partner des Unternehmens bei der Einführung der Analytics-Datenbank bei Kunden. Herr Weidmann kam 2007 zu Exasol, wo er zunächst das Presales-Team aufbaute und leitete. Der studierte Wirtschaftsinformatiker begann seine Karriere als IT-Berater und war unter anderem mehrere Jahre als Consultant und Projektleiter für Softwareentwicklungsprojekte im Finanzbereich tätig.
Kafka Nachrichten über meherere Standorte zu verteilen, kann mit einigen Herausfoderungen verbunden sein. Wir stellen eine Möglichkeit vor, solche Nachrichten gerichtet, sicher und einfach zwischen On-Premise und Cloud Kubernetes Clustern zu replizieren. Neben Kubernetes Operatoren setzen wir dazu auf Kafka Connect.
Alfred Schmid ist Lead Expert Software Engineer bei Steadforce. Er ist Spezialist für Cloud-Architekturen in der Public Cloud und On Premise. Als Technical Lead fördert und fordert er Teams bei der Umsetzung von Green-/Brown-Field Projekten, der Zerlegung von Monolithen und Automatisierung mit GitOps.
Kai René Koch ist leidenschaftlicher Software Engineer bei Steadforce. Seine Schwerpunkte liegen in den Themen rund um Cloud, Container, Kubernetes und Kafka. Neben Entwicklung, Automatisierung und Vereinfachung beteiligt er sich mit Engagement an Open Source Software.
Digital transformation is in a way a never-ending journey. Recent trends put high expectations on AI technologies for process automation, insight generation and decision support. In Hilti, we see information generated from our data as substantial contribution to the success of our business.
We will describe how we put the user and the usage of information in the center of our initiative of an information enabled company. Hilti’s journey towards process, data and system consolidation serves as an excellent foundation for that. We present the foundational technologies we put in place to manage the increasing amount and variety of data, as well as our “Integrated Information Management” approach. We will especially focus on advanced analytics and AI and give examples for successful implementations, but also highlight challenges, especially when it comes to change management and taking the organization along.
In his function as Head of Information Management in Global IT, Ralf Diekmann is responsible for all reporting, data engineering, and analytics solutions of Hilti AG globally. Ralf holds a PhD in Computer Science from the Paderborn Center of Parallel Computing. He joined Hilti AG 22 years ago as research engineer and since then held various positions in business and IT incl. Global Process responsibility, SAP implementation manager, Head of Process Governance, and various leadership functions in Hilti’s Global IT department.
Andreas Wagner is leading the Data Science team at Hilti. In this role he is delivering DS projects, shaping the DS strategy at Hilti, recruiting Data Scientists and further developing the necessary ML toolbox. Andreas Wagner has more than five years’ experience in this field and is nine years at Hilti. Andreas holds a PhD in theoretical Physics.
Petr Beles has profound experience in data warehouse projects in the telecommunications, financial and industrial sectors. For several years he has been successfully implementing projects with Data Vault as a Senior Consultant. After recognizing the need of automation with Data Vault, he and his colleagues started to develop an automation tool, culminating in the creation of the Datavault Builder. Petr Beles is today CEO of 2150 Datavault Builder AG
Bringing advanced analytics to end users through well-established reporting tools can be challenging. The solution we present in this talk enables business users to directly receive machine learning (ML) predictions for their custom selections in Tableau. We use Big Data and AWS (PySpark) technologies for our ML pipeline. The ML models are then deployed to MLflow and two-way communication to Tableau is ensured through APIs.
Johannes Mellenthin promovierte in Teilchenphysik an der Universität Göttingen und am CERN. Er hat langjährige Erfahrung im Consulting im Bereich Data Science. Neben der technischen Implementierung von End-to-End-Machine-Learning-Lösungen konzentriert er sich auf die Identifizierung von Möglichkeiten für Unternehmen, langfristig den größten Nutzen aus ihren Daten zu ziehen.
Johannes Mellenthin completed his doctorate in Particle Physics at the University of Göttingen and CERN. He has several years of experience in consulting in the Data Science sector. Besides the technical implementation of end-to-end Machine Learning solutions, he focuses on identifying opportunities for businesses to get the most value out of their data.
Embracing a holistic analytics across an organization can make it more innovative, agile, and successful. For instance, data democratization makes analytics more accessible and this leads to better-informed decisions. Modernizing data warehouses reduces complexity and improves reporting. Using hybrid cloud deployment strategies can increase the ability to analyze data no matter where it resides.
In this presentation, we will discuss how companies across different verticals are planning and implementing data warehouse modernization, data democratization, and hybrid cloud migration, improving revenue and efficiency to ensure market leadership.
Dieter works in Vertica presales engineering for the German speaking countries.
His mission is to analyze our customer’s goals and infrastructure to make their Big Data Analytics projects successful through the Vertica Unified Analytics Platform.
With over 35 years of experience in presales, project management and consulting in the database industry, Dieter brings a deep understanding of data and organizations. He leads his customers to success during the entire project lifecycle from discovery to successful project launches.
Prior to Vertica, Dieter worked as project manager and consultant at Teradata and in the R&D organization at IBM as presales and software engineer. Dieter graduated with two master degrees in computer science and organizational psychology.
In his free time Dieter is a chess player and runner.
In his talk Paul Dietrich describes what 'United by Data' means to Collibra's customers and ways to support those 66% of companies which still struggle to turn their data into useful insights.
Paul leads the Collibra Field Teams for the Nordics and DACH region. He joined Collibra in early 2019 after eight years with Salesforce.com where he built teams for different regions in Germany. Prior to that, he held international Enterprise Sales and Business Development roles at Gartner (CEB) and BBDO. He is passionate about helping Collibra customers to use data as a shared language to drive empathy, understanding, and successful business outcomes.
Tagtäglich erreichen uns Informationen via unterschiedlichste Kanäle und Applikationen, die es zu verarbeiten gilt. Meist erreichen uns diese weder konsolidiert noch zur rechten Zeit. Dies gilt es zu ändern und effektiver zu gestalten.
Als Ecosystem diverser Microservices bildet rpc.live als Applikation eine intelligente und zielgruppengerichtete Darstellung angebundener Inhalte als intelligenten Business Feed. Die Applikation ist basierend auf einer Cloud Architektur aufgebaut, die es ermöglicht einfach und zukunftsorientiert zu skalieren, sodass die Handhabung und Wartung möglichst effizient gestaltet ist. Neben dem steht vor allem die User Experience der Inhalte im Vordergrund, um derweil die alltägliche Informationsflut bändigen zu können.
Sehen Sie wie rpc.live anhand eines praxisnahen Beispiels Kunden und Mitarbeiter unterstützt Informationen im Alltag leicht konsumierbar zu gestalten.
As Product Owner Niklas Kroll is experienced with several technology stacks and is visionary in combining them to new digital products & services. He ideates and generates simplified and user centric solutions.
Tayfun Gülcan ist Senior Manager bei rpc - The Retail Performance Company, einem Joint Venture der BMW Group und der h&z Unternehmensberatung.
Er unterstützt Unternehmen sowohl bei der Einführung von digitalen Services als auch bei der Entwicklung von neuen nutzerzentrierten Anforderungen und arbeitet gemeinsam mit seinem Team an neuen Technologien und Innovationsfeldern welche er bei Kunden unter Berücksichtigung von Unternehmensstandards ausrollt.
You've heard why companies use data warehouse automation (DWA) software, but what is the long-term impact on the business?
Maximilian Vollmer from Volkswagen Commercial Vehicles explains practically and from personal experience how the team has changed its way of working since the introduction of WhereScape DWA over 5 years ago and how this has affected the business.
DOUGLAS ist führender Anbieter für Beauty Produkte mit über 2.000 Ladengeschäfte in Europa. In den letzten Jahren etablierte das Unternehmen eine sehr erfolgreiche Online-Beauty-Plattform mit mehreren Onlineshops. Erfahren Sie in diesem Vortrag direkt vom Principal Project Manager Data Thomas Borlik wie es DOUGLAS geschafft hat, mit einer modernen Datenarchitektur diesen Ausbau zu unterstützen. Dank zentralisierter Daten haben die Mitarbeiter und das Management schneller als je zuvor nun die Chance, anwendbare Erkenntnisse aus den Daten zu gewinnen. Durch diesen Schritt konnte insbesondere der manuelle Aufwand bei der Reporterstellung stark reduziert werden, sodass Analysten nun noch tiefer in die Daten einsteigen können. Wir freuen uns auf Ihre Teilnahme!
Thomas Borlik hat im Beratungs- und Agenturumfeld einschlägige Erfahrung mit Datenprojekten sammeln können. Als PMP-zertifizierter Projektmanager hat er früh seinen Fokus auf dieses zukunftsträchtige Thema gelegt und ist nun bei DOUGLAS als Principal Project Manager Data tätig. Dort leitet er strategische Datenprojekte und treibt die Etablierung des "Data Offices" voran.
Der Einsatz von Hybrid- oder Multi-Cloud Lösungen.
Der Weg in die Cloud ist für viele Unternehmen essenzieller Bestandteil der Datenstrategie. Allerdings ist in vielen Fällen die Umstellung von einer alten Data Warehouse-Lösung auf die Cloud weder praktikabel noch sinnvoll: gesetzliche Regelungen sowie die Sensibilität von Daten verhindern es oft, Datenbestände vollständig in der Cloud verfügbar zu machen. Zusätzlich ist für die Wahl der richtigen Cloud-Datenplattform die Betriebsart entscheidend: soll es eine selbstbetriebene Plattform (self-tenant) oder doch ein vollgemanagter Service (SaaS) sein? Soll die Plattform auf Komponenten basieren, die bei allen Cloud Providern verfügbar sind oder Cloud-spezifische Dienste nutzen?
Unabhängig davon, wie die jeweilige Datenstrategie lautet und wo Ihre Daten liegen, mit Exasol können Sie diese schnell und kosteneffizient analysieren! Wir zeigen Ihnen, wie Sie die schnellste analytische Datenbank der Welt für komplexe Analysen effizient einsetzen und so Datenbestände aus allen Welten ohne Vendor Lock-In gewinnbringend nutzen können. Dank der vielseitigen Deployment-Optionen kann Exasol sowohl On-Premises als auch in der Public Cloud im eigenen Account eingesetzt werden. Zudem bietet das Exasol SaaS Angebot eine flexible Nutzung als Service an. Hiermit wird die IT entlastet und Fachabteilungen können sich direkt der Arbeit mit den Daten widmen. Verschiedenste Plattformen lassen sich via Virtual Schema Konzept zu übergreifenden Multi- oder Hybrid-Cloud Lösungen ausbauen.
Dr. Florian Wenzel ist als Senior Sales Engineer bei der Exasol AG dafür zuständig, weltweit agierenden Großkunden die Besonderheit der Technologie von Exasol im Rahmen von Proof-of-Concepts zu demonstrieren. Er ermöglicht Ihnen so, Daten mit beispielloser Geschwindigkeit zu analysieren, um neue geschäftliche Insights und unmittelbare Mehrwerte zu gewinnen. Bevor er zu Exasol kam, forschte er im Bereich Datenbanken und Informationssysteme an der Universität Augsburg und promovierte dort 2015.
In den letzten Jahren ist die Nachfrage nach datenwissenschaftlichem Know-how erheblich gestiegen. Dennoch kommen viele Data-Science-Lösungen nicht über das Vorproduktionsstadium hinaus und scheitern am Industrialisierungsprozess.
Microsoft Azure, als skalierbare und individuell anpassbare Cloud Computing-Plattform, ermöglicht Unternehmen jeder Größe diese Herausforderungen zu meistern.
Um Künstliche Intelligenz (KI) und Machine Learning (ML) zu skalieren, ist es wichtig, sich auf die Implementierung einer Reihe von Standards zu fokussieren. Diese Standards schaffen den Rahmen zur Entwicklung und Bereistellung von produktionsreifen KI- und ML-Bausteinen.
Gemeinsam wollen wir die Anwendung von MLOps-Konzepten in der Azure Cloud-Umgebung auf datenwissenschaftliche Anwendungsfälle betrachten, die Vorteile hervorheben und das in den letzten Jahren bei der Implementierung solcher Lösungen gewonnene Wissen teilen.
Als Consultant mit den Schwerpunkten Daten Engineering, Data Science und Machine Learning berate ich zu cloudbasierten Systemarchitekturen auf Basis von Microsoft Azure, mit einem Schwerpunkt auf Data Engineering Pipelines und Machine Learning Infrastruktur und Operationalisierung.
Ein weiterer Fokus liegt auf der Begleitung von Innovationsprojekten im Kontext der digitalen Transformation, in welchem neue Ideen und Technologien in POCs verprobt werden und auf eine Umsetzung in Produktivumgeben vorbereitet werden.
Bei allen Trends, die rund um ‘Data Management’ kommen und gehen ist eins klar: es ist vielmehr ein kontinuierlicher Weg, als ein finales Ziel, das zählt. Um bestehen zu können, brauchen Organisationen einen agilen Ansatz, der die Grundlage dafür legt, den Berg- und Talfahrten von technologischen Trends zu folgen und das mit geringem Aufwand.
Als ein führender Anbieter diskutieren wir mit Ihnen unseren ‘Agile Data Fabric’ Ansatz und zeigen, wie verschiedene Trends umgesetzt werden können.
Dirk Schober ist ein Experte darin, Herausforderungen beim Kunden zu identifizieren und zu beschreiben. Er hat über 12 Jahre Erfahrung im Design von Lösungen rund um Analytics und das damit verbundene Datenmanagement. Er arbeitet als Presales Experte bei TIBCO und vormals bei IBM. Fokusbereiche sind durchgängige 'data-driven' Lösungen in der Fertigung, Industrie, Handel und im Bereich Pharma.
The Data Lake is dead, long live the Data Mesh! But what is a Data Mesh exactly? And how does Real-Time fit into it?
In this talk you’ll learn what a Data Mesh approach brings to the table, as well as the why and how of creating a Real-Time backbone for your Data Mesh architecture.
Alex Piermatteo works as a Manager and Architect for the Event Driven and Streaming Applications Business Unit at Data Reply. Alex is regular speaker at conferences and his main area of expertise lies within the fields of Stream Processing, Big Data Integration & Analytics, Cloud, Microservices and DevOps.
Sergio Spinatelli works as a Manager and Architect for the Event Driven and Streaming Applications Business Unit at Data Reply. With experiences in major industries (Automotive, Retail, Media, Banking) and with state of the art Big Data technologies, he focuses on Stream Processing, Real-Time Analytics, Microservice Architectures and Cloud.
Erfahren Sie wie Sie mit Hilfe von Snowflake einfach und sicher Zugang zu hilfreichen Live-Daten bekommen, wie Sie beliebig große Mengen an Daten effizient, flexibel und performant verarbeiten können und wie die Snowflake Data Cloud Platform Ihr Unternehmen dabei unterstützt datengetrieben zu agieren. Zusätzlich erhalten Sie Einblicke in aktuelle Innovationen der Snowflake Data Cloud.
Marko Cavar ist Diplom-Informatiker der Medizin und verfügt über einen BSc (Hons) in Computing. Nach seinem Studium war er 8 Jahre als Management Berater hauptsächlich im Bereich IT Strategie tätig, bevor er weitere 8 Jahre Erfahrung in Cloud-Unternehmen als Senior Service Line Manager und Senior Technical Account Manager sammelte. Als Senior Partner Sales Engineer bei Snowflake unterstützt er führende Snowflake Partner in der DACH-Region bei technischen Themen und bei der Entwicklung gemeinsamer Lösungen und Angebote.
Strukturierte Vorbereitung und SAP S/4HANA-Funktionen abgestimmt auf unternehmensinterne Ziele ermöglichen eine erfolgreiche Transformation ohne unliebsame Überraschungen. Am Beispiel einer S/4HANA Transformation zeigen wir wie sie mit der Continuous Transformation Platform® von LeanIX die bestehende Architektur und eine Klassifizierung der Geschäftsfertigkeiten vornehmen, um Migrationsszenarien modellieren und vergleichen zu können, und einen ausführbaren Plan zur Migration definieren. Lernen sie, wie sie ihre Unternehmens Daten zur Strategiedefinition nutzen.
Nandor Orvos verantwortet seit 2020 bei LeanIX den Bereich Solution Engineering und zeigt mit seinem Team Wege auf, wie moderne Unternehmen eine Strategie für kontinuierliche Transformation implementieren können und wie man stets Überblick über die Applikations Architektur behält. Vor seiner Tätigkeit bei LeanIX war er verschiedene Rollen als Berater bei SAP tätig.
Maximilian Rickayzen ist seit 2021 als Solution Engineer bei Lean IX tätig und berät Kunden aktiv beim Einsatz von LeanIX im Verbund mit SAP-Projekten. Vorher war er Process Mining Consultant bei Celonis und in verschiedenen Projekten als Corporate Student bei SAP.
Im Rahmen von Smart Factory stellen wir vor, wie Kafka-Streams-Lösungen Architekturen mit einem End-to-End-Ansatz für vernetzte Fertigungsprozesse ermöglichen.
Hierzu zeigen wir auf, wie Datenquellen erschlossen und angebunden werden können. Des Weiteren stellen wir die dazu relevanten Confluent-Bausteine vor und zeigen schnelle, integrierbare Lösungen. Wichtige Aspekte der Datenharmonisierung und Umsetzung der Business Logik in Kafka spielen ebenfalls eine Rolle, wie auch die effiziente Speicherung der Daten in einem Data Lakehouse bzw. einem Data Warehouse. Last but not least - Visualisierung von Realtime bzw. Neartime Daten in BI Lösungen.
Wojciech Filarski arbeitet seit fast 20 Jahren mit dem Thema Daten. Er kennt sich im Bereich der Kapitalmärkte mit Compliance Richtlinien aus, unterstützt branchenunabhängig Unternehmen verschiedenster Größe bei ihrer BI Strategie und versteht es, aus Daten Handlungsempfehlungen zu generieren. Sein breites Wissen teilt er sowohl mit seinen Kunden als auch den Mitarbeitern aus seinem Team.
Dave Canton hat eine Passion für Daten Streaming. Er arbeitet seit vielen Jahren mit dem Thema und kennt sich bestens mit den dazu gehörigen Technologien für Lösungsansätze zur Umsetzung aus. Er hat diverse Beiträge veröffentlicht, die branchenunabhängig verdeutlichen, warum jedes Unternehmen sich mit realtime Analysen befassen sollte.
Die Data Warehouse-Architektur ist nicht mehr die einzige Architektur, die es gibt, und findet sich heute in der Gesellschaft von Data Hubs und Data Lakehouses wieder. Da die Daten in diesen neuen Datenarchitekturen anders strukturiert, organisiert und verwendet werden, müssen wir in der Lage sein, alle Formen von Daten nahtlos in unserer Infrastruktur zu bewegen, um ihr Potenzial zu maximieren.
In dieser Session zeigen wir, wie Sie JSON- und Parquet-Daten schnell in Ihre Infrastruktur einbinden können. Im Anschluss lernen Sie in der 15-minütigen Demonstration die Funktionsweise von WhereScape Data Automation näher kennen.
SAP Data Warehouse Cloud ist die zentrale Kompoenten der SAP Data Warehouse Strategie. Das was machen unsere Kunden genaus damit? Der Vortrag geht auf Use Cases von Kunden direkt ein und schaut wie DWC in eine komplexe SAP Ladschaft eingebunden werden kann.
Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Herr Stemmler das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.
Die Transformation der Banken & Versicherungen ist in vollem Gange. Neue Services und Geschäftsfelder sollen sowohl das Kundenerlebnis deutlich verbessern, als auch das Wachstum und die Zukunftssicherheit der Unternehmen sichern.
Klassische Big Data & AI Ansätze halten mit den neuen Anforderungen schon kaum Stand - von zukünftigen Entwicklungen ganz abgesehen.
Wie kann z.B. die persönliche Versicherungsmaschine der Zukunft (McKinsey) zu jedem Zeitpunkt in Echtzeit die optimale Entscheidung treffen, wenn wir noch immer über Datensilos, Datensümpfe und DWH Strukturen auf Host-Rechnern sprechen?
Niko Dyundev und Oliver Börner beschreiben einen Lösungsansatz aus der Praxis für die Praxis! Welches Konzept ist zukunftssicher? Wie schaffe ich den Spagat zwischen Kompatibilität mit der Organisation und moderner Services? Was ist eine Architektur der Zukunft, die schon nachweislich funktioniert?
Oliver Börner ist als Named Account Executive für Banken und Versicherungen bei Databricks tätig. In seiner Laufbahn war er für diverse Consulting-Unternehmen als Business Advisor bzw. Pre-Sales Manager tätig. In mehr als 24 Jahren beratender und vertrieblicher Tätigkeit hat er weltweit Unternehmen bei der Bewältigung ihrer Herausforderungen im Bereich Data+AI unterstützt. Als Generalist für alle Modernisierungsfragen analytischer Datenstrukturen stehen hier vor allem B2C-Unternehmen, d.h. Telekommunikations- und Finanzdienstleister, Handelsunternehmen, Automobilhersteller und Versicherungen im Fokus.
Niko Dyundev hat Verteilte Software Systeme an der Hochschule in Darmstadt studiert. Die letzten 9 Jahre arbeitete er als Solutions Architect in den Bereichen Big Data, ML Ops und Cloud. Während dieser Zeit ist er in verschiedenen Projekten und Branchen in über 20 Ländern tätig gewesen. Seit zwei Jahre ist Niko Teil des Field Engineering Teams bei Databricks in Deutschland.
Stackstream ist die erste Plattform von Entwicklern für Entwickler und beim Aufbau dieser Plattform war klar, dass es ohne Echtzeit-Daten hier nicht geht! Um das Engagement der Nutzer auf der Plattform zu erhöhen, setzen wir auf Gamification-Elemente, bei denen Clickstream-Daten in Echtzeit analysiert werden, was neben dem Spaß-Faktor auch einen Live-Überblick über die KPIs der Plattform ermöglicht.
In diesem Vortrag erfahrt ihr, wie wir eine skalierbare Live-Streaming-Plattform basierend auf Apache Kafka und Confluent Cloud aufgebaut haben und seit Tag 1 auf Stream-Processing setzen.
Sie sind ein gut geführtes Unternehmen. Aber was wäre, wenn wir Ihnen sagen würden, dass versteckte Ineffizienzen Ihre Leistung beeinträchtigen, ohne dass Sie es merken? Was wäre, wenn wir Ihnen sagen würden, dass Ihre Leistung radikal und schnell gesteigert werden kann, unabhängig von Ihrer Ausgangssituation?
Lernen Sie, wie Sie verborgene Ineffizienzen in Ihrem Unternehmen aufdecken und beheben können um Leistung zu erzielen, die Sie nie für möglich gehalten hätten. Entdecken Sie, wie Sie mit Process Mining und unserem Execution Management System einen massiven, messbaren Mehrwert erzielen können.
Als Senior Solution Engineer bei Celonis identifiziert Gerold Laue Wertpotenziale in Geschäftsprozessen entlang der gesamten Wertschöpfungskette. Bei Celonis hat er in den letzten 3 Jahren Pionierarbeit in den Bereichen Process Mining und Execution Management geleistet und in verschiedenen Projekten mit Kunden aus den Bereichen Logistik, Handel und Konsumgüterindustrie Erfahrungen gesammelt. Gerold hat an der Universität Mannheim studiert und besitzt einen Master-Abschluss (M.Sc.) in Management mit Schwerpunkt BI & Analytics.
Um Daten im Unternehmen nutzbar zu machen und unter Governance zu bringen, müssen diese beschrieben und katalogisiert sein - und das aus fachlicher Sicht, die übergreifend über die gesamte Systemlandschaft gültig ist. Doch wie fängt man an? ... mit einer Datenlandkarte!
In diesem Workshop modellieren wir live gemeinsam eine Datenlandkarte anhand eines Use Cases, den gerne eine:r der Teilnehmer:innen einbringen darf.
Outline:
Was ist eine Datenlandkarte?
Nutzen einer fachlichen Unternehmens-Datenlandkarte
Live-Use Case - Modellierung Datenlandkarte
Überführung der Datenlandkarte in die fachliche Datenarchitektur
Katharina Menz ist Business Consultant bei dataspot. und Expertin für Data Governance und Fachliche Datenmodellierung. Insbesondere hat sie Erfahrung im Bereich High-Level Datenmodellierung, Referenzdatenmanagement und Kennzahlenmodellierung. Besonderen Wert legt sie auf die Unterstützung ihrer Kund:innen beim Schneiden von Datendomänen und Datenverantwortung für das Erstellen einer Datenlandkarte, um einen Überblick und ein Verständnis über zentrale Unternehmensdaten zu gewinnen.
Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Wieso kann man nicht einfach die physischen Datenmodelle als Unternehmensdatenmodell verwenden? Wie unterscheidet sich ein Fachdatenmodell von einem Datenbankmodell? Welches Vorgehen ist notwendig, um für ein unternehmensweites Gesamtverständnis aller Unternehmensdaten zu sorgen? Und wieso kann nur das Fachdatenmodell die Grundlage für Data Governance sein?
Diese und weitere Fragen werden in diesem Workshop beantwortet und anhand eines spontanen Teilnehmer:innen-Use Cases live gemeinsam modelliert.
Outline:
Was ist ein Fachdatenmodell?
Anwendungsfälle und Nutzen des Fachdatenmodells
Live-Use Case - Modellierung Fachdatenmodell
Defintion der Data Governance Aspekte auf Basis des Fachdatenmodells
Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Katharina Menz ist Business Consultant bei dataspot. und Expertin für Data Governance und Fachliche Datenmodellierung. Insbesondere hat sie Erfahrung im Bereich High-Level Datenmodellierung, Referenzdatenmanagement und Kennzahlenmodellierung. Besonderen Wert legt sie auf die Unterstützung ihrer Kund:innen beim Schneiden von Datendomänen und Datenverantwortung für das Erstellen einer Datenlandkarte, um einen Überblick und ein Verständnis über zentrale Unternehmensdaten zu gewinnen.
Wanja Eiche ist Senior Consultant bei dataspot. Er setzt sich im Projektgeschäft mit Fragestellungen an der Schnittstelle zwischen Fachbereich und Technik auseinander und erarbeitet kundenindividuelle Lösungen. Seine Erfahrungen kommen dabei im gesamten Lebenszyklus von Metadaten und Data Governance zur Geltung, wobei er besonderen Wert auf Datenmodellierung, das Metadatenmanagement und Schulungsthemen legt.
To improve business outcomes, SaaS software provider Frontify aimed to empower all its 200 employees with fast, self-service insights from one version of data truth. To this end, Frontify’s data team migrated from its legacy infrastructure to a low-latency, modern data stack comprising Snowflake, Fivetran, and ThoughtSpot, and is on a mission to drive adoption and business impact. - “Data for all” is now well within reach.
Sibel is an experienced data leader with a demonstrated history of working in technology companies in various industries, including Frontify, Ava Women, eBay and PayPal. She has a deep understanding of the data technology space and analytics methodologies. She is passionate about building powerful data capabilities, has a deep focus on data quality, and is a strong advocate for data literacy.
In case you don't know Cindi, she is a fantastic data analytics thought leader and expert with a flair for bridging business needs with technology. As Chief Data Strategy Officer at ThoughtSpot, she advises top clients and partners on data strategy and best practices to become data-driven. Cindi is also host of the Data Chief Podcast, a top 10 podcast in the data and analytics category. Cindi was previously a Gartner research Vice President, as the lead author for the data and analytics maturity model and analytics and BI Magic Quadrant, and a popular keynote speaker. She introduced new research in data and AI for good, NLP/BI Search, and augmented analytics and brought both the BI bake-offs and innovation panels to Gartner globally. She’s rated a top 12 influencer in big data and analytics by Onalytca, Solutions Review, Humans of Data. Prior to joining Gartner, she was the founder of BI Scorecard, a resource for in-depth product reviews based on exclusive hands-on testing, a contributor to Information Week, and the author of several books including Successful Business Intelligence: Unlock the Value of BI & Big Data and SAP BusinessObjects BI 4.0: The Complete Reference. She served as The Data Warehousing Institute (TDWI) faculty member for more than a decade. Prior to founding BI Scorecard, Howson was a manager at Deloitte & Touche and a BI standards leader for Dow Chemical in Switzerland.
Shamim works as a Senior Data Engineer at Data Reply. He specializes in building Data Pipelines, Data Lakes and Kubernetes architecture and development. He has also worked on building end to end Machine Learning pipelines for production-grade machine learning applications.
In this joint session presented by Ramesh Shurma, CEO, Orion Governance and Timm Grosser, Senior Analyst Data & Analytics at BARC, we will share the newest 2022 BARC findings.
For highly distributed data landscape with growing data volumes, extensive data movement is not a viable concept. Data warehouse, data lakes, data lakehouses approaches are reviewed and experts discuss modern concepts such as data fabric. These have the objective of reducing the complexity and scope of data processes while increasing flexibility and agility. It also aims to simplify data access and use, especially for business users.
Our survey (BARC Data Black Holes, 2021) concludes that it is mainly a lack of available documentation and explicit knowledge that stands in the way of achieving these goals. Such explicit knowledge is available extensively in the organization, namely in the form of metadata, but collecting metadata is a difficult and time-consuming process. Without a smart and automated approach, it is doomed to fail. This is where Agile Data Intelligence comes in. Similar to how Data Fabric helps stitch together the organization's business data landscape, agile data intelligence is the corresponding metadata fabric. In this presentation, we'll talk about Agile Data Intelligence's three core capabilities for building a Metadata Fabric. They lend a Data Intelligence Platform the necessary agility to be operated effectively and efficiently.
Timm Grosser is a Senior Analyst Data & Analytics at the Business Application Research Center (BARC) with a focus on Data & Analytics.
His core competencies are the definition of data & analytics strategies, data governance, organization, architecture and tool selection. He is a well-known speaker at conferences and seminars and author of numerous BARC market studies and professional articles.
Ramesh Shurma is the founder and CEO of Orion Governance Inc. Prior to starting Orion, Ramesh developed his expertise by working in very data intensive environments as an enterprise architect, application architect, and senior consultant and programmer with a very strong business and technology focus. His vertical market experience spans across Financial Services, Healthcare, Retail and Electronic Design Automation. His Silicon Valley roots taught him the valuable lesson of innovation and customer service. The motivation behind Orion was to solve a real-world need that most of the other companies had overlooked in favor of an unreliable manual approach. The road less traveled, where people dared to tread, but was taken in the spirit of innovation, that is Orion Governance today. Under his hard work, the team has grown to multiple millions in revenue in a short period of time. He is fluent in multiple languages including French, Hindi and English. His hobbies include aviation, traveling and having his three dogs take him on daily walks.
Data science lead with over 10 years’ experience helping global corporations extract business value by making decisions based on data.
Wide-ranging experience covering consumer analytics, digital marketing, personalized customer experiences, data management and machine learning.
In my current role leading a team of data scientists at Sappi, I am particularly interested in applying data science to optimize the papermaking process by reducing costs & waste, improving product quality, optimizing tasks and prolonging equipment lifespans.
A victim of its success, Siemens' Pulse Analytics, an in-house developed platform offered to internal and external users to support decision making, was struggling to keep pace with the demands of its users for super fast dashboards as data needs increased over time.
Join Christoph Malassa, Managing Consultant / Head of Analytics and Intelligence Solutions, Siemens, to discover how he googled 'what's the fastest relational database analytics’ and ended up deploying SingleStore with the following benefits:
• brought response rates from 2+ seconds down to milliseconds on queries spanning billions of rows
• removed the need for time consuming processes to get fresh data into production.
• Auto-scaling to accommodate daily users ranging from 500 to 100,000
• And much more
Now Siemens Pulse Analytics helps even the largest organizations transform complexity into operational excellence!
Der Einsatz von Hybrid- oder Multi-Cloud Lösungen.
Der Weg in die Cloud ist für viele Unternehmen essenzieller Bestandteil der Datenstrategie. Allerdings ist in vielen Fällen die Umstellung von einer alten Data Warehouse-Lösung auf die Cloud weder praktikabel noch sinnvoll: gesetzliche Regelungen sowie die Sensibilität von Daten verhindern es oft, Datenbestände vollständig in der Cloud verfügbar zu machen. Zusätzlich ist für die Wahl der richtigen Cloud-Datenplattform die Betriebsart entscheidend: soll es eine selbstbetriebene Plattform (self-tenant) oder doch ein vollgemanagter Service (SaaS) sein? Soll die Plattform auf Komponenten basieren, die bei allen Cloud Providern verfügbar sind oder Cloud-spezifische Dienste nutzen?
Unabhängig davon, wie die jeweilige Datenstrategie lautet und wo Ihre Daten liegen, mit Exasol können Sie diese schnell und kosteneffizient analysieren! Wir zeigen Ihnen, wie Sie die schnellste analytische Datenbank der Welt für komplexe Analysen effizient einsetzen und so Datenbestände aus allen Welten ohne Vendor Lock-In gewinnbringend nutzen können. Dank der vielseitigen Deployment-Optionen kann Exasol sowohl On-Premises als auch in der Public Cloud im eigenen Account eingesetzt werden. Zudem bietet das Exasol SaaS Angebot eine flexible Nutzung als Service an. Hiermit wird die IT entlastet und Fachabteilungen können sich direkt der Arbeit mit den Daten widmen. Verschiedenste Plattformen lassen sich via Virtual Schema Konzept zu übergreifenden Multi- oder Hybrid-Cloud Lösungen ausbauen.
Dr. Florian Wenzel ist als Senior Sales Engineer bei der Exasol AG dafür zuständig, weltweit agierenden Großkunden die Besonderheit der Technologie von Exasol im Rahmen von Proof-of-Concepts zu demonstrieren. Er ermöglicht Ihnen so, Daten mit beispielloser Geschwindigkeit zu analysieren, um neue geschäftliche Insights und unmittelbare Mehrwerte zu gewinnen. Bevor er zu Exasol kam, forschte er im Bereich Datenbanken und Informationssysteme an der Universität Augsburg und promovierte dort 2015.
For many years, technology gurus, transformation evangelists and many more have pictured a world that will dramatically change with incredible pace. Consequently, it was predicted that impacts on society, economy, environment, and political landscapes will leave no stone unturned. As a matter of fact, the current times feel as if these predictions have eventually become reality. The VUCA world is not only part of our daily life, but also even a nucleus in itself that demands resilience from individuals as well as societies and organizations.
While climate change and pandemics seem to be part of the “new normal”, global conflicts get closer to the western world resulting in even more severe instabilities of supply chains, natural resource availabilities and much more - clearly stretching the long-held promise of a flourishing globalization.
To avoid the “Uber yourself before you get Kodaked” pitfall, companies no matter what size are finding themselves coping with an environment that is certainly fiercer these days but at the same time allowing for new opportunities that need to be discovered and unlocked. But what’s the right strategy to capitalize on these opportunities if strategies itself are not even worth the paper written on? How to keep the pace with rapidly shortening technology lifecycles or tech innovations that don’t seem to deliver against their promise? Is it even worth to define comprehensive roadmaps on digital strategies and transformations?
In his keynote, Thomas Kleine reflects on the value of defining digital roadmaps from a company perspective. He will incorporate not only his personal experiences but also refer to his employer’s journey over the last two years specifically propelled to the frontline of fighting the COVID-19 disease. What are the key learnings and what about the half-value time of these learnings if tomorrow comes with a completely different set of challenges?
Since January 2017, Thomas Kleine has been CIO and Head of Digital at Pfizer Germany. He is a Master of Business Administration (MBA) and studied at the Universities of Osnabrück, Augsburg and Pittsburgh, PA. After graduating in 2001, he initially spent 5 years at KPMG Consulting/BearingPoint as a senior consultant before moving to Coca-Cola Germany in 2006. There he had various management positions within IT.