Der Mittelstand profitiert von der Digitalisierung und hier insbesondere vom Internet of Things. IoT ermöglicht die schnellere Umsetzung von neuen Geschäftsmodellen, die bessere Nutzung von Ressourcen und die langfristige Reduzierung von Kosten. Damit einhergehend versuchen immer mehr Unternehmen auch in der Entwicklung agiler zu werden und setzen hierbei auf Event-Driven Microservices, um monolithische Umgebungen hinter sich zu lassen. Denn die Erwartungshaltung an digitale Kundenerlebnisse und vollständig integrierte Echtzeitabläufe passt nicht mit Daten- und Infrastruktur-Silos zusammen. Mit anderen Worten: Wenn ein Unternehmen zunehmend software-definiert wird, braucht es eine Datenplattform, die primär für „Data in Motion” ausgelegt ist und weniger für „Data at Rest”.
Stefan Frehse, Principal Software Architect der BAADER zeigt, gemeinsam mit den Experten von Confluent, wie Apache Kafka und Confluent Cloud als zentrale Komponenten der Daten-Architektur eingeführt wurde und wie Streaming-Anwendungen, die auf IoT-Daten basieren, neue Geschäftsmöglichkeiten und eine optimierte Zusammenarbeit mit den Partnerunternehmen schaffen.
Das europäische Enterprise Data Warehouse der C&A versorgt über 3.900 Anwender mit Analytical Insights und Reporting. Die Nutzung ist in den vergangenen Jahren beständig weiter angestiegen. Insbesondere am Ende jeder Verkaufswoche ist die Nutzung des Systems um ein vielfaches höher als an Normaltagen. Die Elastizität einer Cloud Technologie wie Snowflake erlaubt es gerade an ""Schwerlasttagen"" flexibel die Leistung des Systems hochzufahren. Ein weiteres wichtiges Argument für die Migration nach Snowflake war die schnelle Provisionierung von Data Warehouse Umgebungen für User Acceptance Tests, sowie Developer Sandboxes - als ein Enabler für agile Projektteams. Gleichzeitig war ein langwieriger Migrationsprozess zu vermeiden, um die Weiterentwicklung des DWH in zwei parallelen Systemen so kurz wie möglich zu halten.
Doch wie lässt sich der Plattformwechsel in diesem kurzen Zeitraum sicher erreichen?
Der Vortrag berichtet über die Migrationsstrategie und die Faktoren die zum erfolgreichen Wechsel geführt haben. Dabei gehen wir auch auf die Learnings ein. Nach 5 Monaten Betrieb lohnt sich ein erster Rückblick auf die erreichten Benefits und auf den Ausblick ""what's next"".
Erfahren Sie, wie Sie mit den SAP HANA Cloud Services Ihr Datenmanagement neu ausrichten, und das volle Potential Ihrer Daten ausschöpfen können.
Verbinden Sie Ihre Daten, reichern Sie sie an und orchestrieren Sie diese zur idealen Verwendung für Ihre Endanwender.
Der Vortrag wird Ihnen aufzeigen, wie Sie Entscheidungen in Echtzeit, auf Basis von vertrauenswürdigen Daten treffen können und somit einen wirklichen Mehrwert aus Ihren Daten generieren können.
Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Herr Stemmler das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.
Unsere Spezialisten beschäftigen sich täglich mit Architekturen zur Cloud-Modernisierung. Dabei arbeiten wir eng mit Unternehmen unterschiedlichster Branchen zusammen, die ihre bestehenden On-Premise-Data-Warehouses, Big-Data-Umgebungen und Data Lakes sowohl migrieren als auch modernisieren wollen - und zwar, um die Vorteile moderner Architekturansätze in der Cloud zu nutzen. Ich führe Sie durch einige der gängigen Architekturmuster, die wir sehen, ihre relativen Stärken und warum Sie sie in Betracht ziehen sollten.
In diesem Vortrag werden allgemeine Strategien, Herausforderungen, Lösungen und Projekt-Erfahrungen zum Data Management in Cloud Data Warehouse Architekturen am Beispiel von Snowflake vorgestellt. Während der Präsentation werden unter anderem Themen wie Migrationsstrategien, Data Governance, Data Quality Management, Datenschutz und das Data Lifecycle Management besprochen und Möglichkeiten aufgezeigt, wie die damit einhergehenden Herausforderungen mit den Mitteln einer modernen Cloud-Umgebung bewältigt werden können.
Because of the cost-saving benefits, competitive advantages, and new market opportunities, many data leaders feel the pressure to accelerate cloud adoption. However, implementing hybrid and multicloud strategies is daunting—incompatibility between diverse systems introduces too much complexity, and traditional ETL tools are slow and resource-intensive.
While you gradually adopt the cloud, you can still deliver immense business value and actionable insights without impacting existing on-premises SAP ERP, CRM, HCM, SCM, and other enterprise applications. By building real-time data pipelines, you can meet current demands while setting the foundation for the future.
During this session, you will learn:
- How to implement a continuous data streaming method that securely and efficiently leverages data residing in SAP and other on-premises enterprise applications without impacting them
- How HVR's advanced log-based CDC technology securely accelerates high-volume data delivery in complex environments so it's available in real-time for immediate decision making, advanced analytics, and ML/AI
- Real-world examples of how hundreds of organizations leverage HVR to extract value from legacy systems to achieve a more dynamic and agile business
Viele Unternehmen stehen vor dem Problem, dass bestehende on premises DWH Lösungen in die Cloud migriert werden müssen. Meist werden dazu auch komplett neue Datenplattformen genutzt. Eine einfache Migration der bestehenden Lösung in einen gleichwertigen Cloud Service ist daher nicht möglich. Im Vortrag wir aufgezeigt wie man Metadaten getrieben bestehende on premises Lösungen in die Cloud migrieren kann. Basis für dieses Vortrag ist sind konkrete Umsetzungsprojekte von Anwenderunternehmen.
Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.
Gregor Zeiler ist seit dreißig Jahren in verschiedenen Funktionen in der Business Intelligence-Beratung tätig. Im Zuge seiner beruflichen Tätigkeit konnte er umfangreiche Projekterfahrung in vielen Branchen und auf Basis eines breiten Technologiespektrums sammeln. Zahlreiche Publikationen und Vorträge begleiten seine berufliche Tätigkeit. Als CEO bei biGENIUS AG kommt er seiner Passion die Prozesse in der Entwicklung von Data Analytics Lösungen zu optimieren nach.
Die zunehmende Verbreitung von Cloud Services hat einen immensen Innovationsschub bei Analyse Methoden und Tools ausgelöst. Big Data Analytics, Deep Learning und Artificial Intelligence sind aber nicht nur für Cloud Anbieter interessant, sondern stellen auch für Unternehmen wichtige Hebel in der Überwachung und Optimierung von Geschäftsprozessen dar. Logistik und Fertigung sind davon besonders betroffen. In unserem Vortrag stellen wie vor, wie Unternehmen moderne Infrastrukturangebote nutzen, um damit verbundene Potentiale zu erschließen.
Analytische Plattformen für PoCs und Evaluation baut man in der Cloud in einer Stunde - mit vorgefertigten Setup-Scripts. Stellt man sich die Services aber frei zusammen, wird’s schon schwieriger. Dass es für Test- und PoC Umgebungen einfacher geht, zeigen wir mit der Open-Source Plattform-In-a-Box „Platys“ (<link https: github.com trivadispf platys external-link-new-window internal link in current>github.com/TrivadisPF/platys). Neben Einsatzmöglichkeiten und Beispielen erklären wir Services und ziehen „eben mal kurz“ einen Data Lake mit DB, Event-Hub, Stream-Processing, Blobstore, SQL-Zugriff und Data Science Notebook hoch.
Guido Schmutz ist seit über 30 Jahren als Software-Entwickler, Berater, Architekt, Trainer und Coach tätig. Heute arbeitet er als Platform Architect für das IT-Dienstleistungsunternehmen Trivadis - Part of Accenture. Sein Interesse liegt in der Architektur, dem Design und der Umsetzung von modernen Software-Lösungen. Seit einigen Jahren beschäftigt er sich hauptsächlich mit Big Data & Fast Data und der Frage, wie sich diese neuen Technologien optimal in eine moderne Datenplattform integrieren lassen. Er ist regelmäßiger Sprecher auf internationalen Konferenzen und ist bekannt als Autor von Fachartikeln und diversen Fachbüchern.
Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.