Profitieren Sie in der Paneldiskussion von den Erfahrungen unserer Kunden Stadtwerke München, Porsche und Randstad und lernen Sie deren Anwendungsfälle kennen.
Erfahren Sie aus erster Hand mehr zu Best-Practices und möglichen Herangehensweisen zu Ihrer digitalen Transformation mit Hilfe der SAP Data Management Lösungen.
Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte Herr Stemmler das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.Seit November 2018 leitet er das Customer Advisory Team Platform & Data Management in der LDG.
Die meisten Unternehmen haben im Laufe der Jahre diverse Datensilos über Unternehmensteile, Organisationseinheiten und teilweise sogar innerhalb von Abteilungen aufgebaut. Zudem nimmt die Datenmenge schier unaufhaltsam zu, so dass neben den klassischen Enterprise Data Warehouses auch immer öfter Data Lakes zum Einsatz kommen. Oft sind die vorhanden Systemlandschaften aber zu komplex um daraus sinnvolle Erkenntnisse zu gewinnen oder schlicht zu schwierig zu benutzen.
Erfahren Sie in diesem Vortrag was die Snowflake Cloud Architektur so einzigartig macht, warum sich bereits mehr 4.500 Kunden für Snowflake entschieden haben und wie Sie die Zügel wieder in die Hand nehmen können, um ein echtes datengetriebenes Unternehmen zu werden.
Zielpublikum: "Jeder der mit Daten effizienter, schneller und kostengünstiger arbeiten möchte (Data Engineers, Data Analysts, Data Scientists, Entwickler, Business User bis hin zum CDO)
Voraussetzungen: Grundkenntnisse zu Data & Analytics
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Im Workshop werden wir einführend auf die Snowflake Cloud Plattform eingehen, die auf AWS, Microsoft Azure oder Google Cloud aufsetzt. Durch den Cloud basierten Ansatz eröffnen sich Ihnen nahezu unbegrenzte Speicher- und Datenauswertungsmöglichkeiten bei gleichzeitig nahezu unbegrenzter Performance. Somit brechen Sie Ihre Datensilos durch einen zentralisierten Daten Layer auf. Mit Snowflake können Sie Data Warehouse, Data Lake und Data Science Use Cases abbilden, da nativ sowohl strukturierte, semi-strukturierte (wie JSON, XML, Parquet, ORC, Avro) als auch unstrukturierte Daten unterstützt werden.
Zudem können Sie sehr feingranular über Rollen das passende Security und Governance Modell steuern und über dynamische Maskierung Daten nur den Personen anzeigen, die hierfür die Berechtigung haben. Auch werden wir auf spannende Funktionen eingehen, die die Bereitstellung z.B. von Testumgebungen (“Zero-Copy-Clone”) oder das Wiederherstellen von vorherigen Datenbeständen (“Time Travel”) kinderleicht machen.
Erfahren Sie ebenfalls etwas über die Multi-Cloud, Multi-Region Fähigkeiten, die Ihnen erlaubt Daten innerhalb ihres Unternehmens, mit Partner oder Kunden nahtlos auszutauschen. Entweder sicher mittels Data Exchange, oder über den heute schon größten und schnell wachsenden Public Data Marketplace, bei dem schon heute über 500 Datenprovider teilnehmen.
Auch für Entwickler haben wir spannende Möglichkeiten im Gepäck, so dass in ihren präferierten Sprachen wie Java, Scala - und bald auch Python - Geschäftslogiken abgebildet werden können, die direkt in Snowflake ausgeführt werden (“Snowpark” & Java UDFs - User Defined Functions) .
Viele Funktionen werden wir Live in einer Demo zeigen und wir gehen natürlich gerne auf Ihre Fragen ein. Wir freuen uns auf Ihre Teilnahme!
Heutzutage sind Daten allgegenwärtig. Sie werden in Datenbanken, Applikationen, On-Premise und in der Cloud gespeichert und ständig von Systemen, Maschinen, Websites und anderen Feeds erstellt. Wie können Data Scientists auf all diese Daten zugreifen und Nutzen daraus ziehen? Die Herausforderung besteht darin, relevante Daten für die Analyse, das Prototyping und Modelltraining zu finden, zu verstehen, darauf zuzugreifen und zu verwenden. Sobald sich ein neues Modell als erfolgreich erwiesen hat, kann es problemlos in eine automatisierte Datenpipeline integriert werden. Dies hilft Unternehmen, neue Wege zu finden, um mit Kunden in Kontakt zu treten, neue Produkt- und Servicemöglichkeiten zu finden und Geschäftsmodelle zu verbessern.
In unserem Workshop werden wir Lösungen und Beispiele zeigen, wie Daten aus verschiedenen Quellen katalogisiert werden können, wie Governance angewendet werden kann, um mit Daten auf richtlinienkonforme Weise zu arbeiten, und wie Data Scientists in ihren Kernkompetenzen unterstützt werden können - mit Hilfe von zuverlässigen und qualitativ hochwertigen Daten in ihrer eigenen bevorzugten Sandbox und mit Verarbeitungsfunktionen für die Datenintegration, Datenqualität und Einbindung komplexer ML-basierter Algorithmen.
Dr. Hebach kam 2014 als Senior Solutions Architect zu Informatica. Er unterstützt Kunden und Partnerunternehmen bei der Konzeption von Datenmanagementlösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Vor seiner Tätigkeit bei Informatica war Dr. Hebach in den Bereichen IT-Management, Unternehmensarchitektur und Beratung tätig.
! Um den Workshop so interaktiv wie möglich zu gestalten füllen Sie bitte die kurze & anonyme Umfrage der Referenten aus: <link https: forms.gle dtcbfw3fttksxzsm6>forms.gle/dTCbFW3FttksxzSM6
Die Erwartung digitaler Kundenerlebnisse und vollständig integrierter Echtzeit-Operations passt nicht zu Daten- und Infrastruktursilos. Daten müssen kontinuierlich gesammelt, verarbeitet und reaktiv in Anwendungen im gesamten Unternehmen genutzt werden.
Mit anderen Worten: Wenn ein Unternehmen zunehmend software-definiert wird, braucht es eine Datenplattform, die in erster Linie für ""Data in Motion"" und nicht für ""Data at Rest"" ausgelegt ist.
Indem isolierte Datensilos aufgebrochen werden, können Daten besser analysiert und unternehmensübergreifend für Vertrieb, Marketing, Service, Produktion und Logistik nutzbar gemacht werden.
In unserem Data Value Workshop ermitteln wir gemeinsam, welche Herausforderungen in Ihrer aktuellen Umgebung bestehen. Unsere Experten analysieren die aktuelle Situation, um die nächsten Schritte zu bestimmen, die zur Erreichung der Unternehmensziele notwendig sind.
Wer von Ihnen schon einmal campen war, der kennt Sie vielleicht auch. Sogenannte Pop-Up Zelte, auch bekannt als Wurfzelte. Sie versprechen bezugsfertiges Camping-Glück binnen Sekunden.
Viele unserer Kunden haben noch immer das gleiche Bild im Kopf, wenn Sie mit uns über DWH-Automatisierung sprechen: Kostengünstig, schnell realisiert, überzeugendes Ergebnis.
Wie auch beim Wurfzelt, das im Gegensatz zu anderen Zeltvarianten zwar deutlich weniger aufwendig im Aufbau und einfacher in der Handhabung, sicher aber kein selbstaufbauendes Wunder ist, so verhält es sich auch mit der DWH-Automatisierung.
Doch wie können wir den Erwartungen unserer Stakeholdern in der Wurfzelt-Diskussion begegnen und was gibt es für Möglichkeiten, entsprechende Zeit- und Kosteneffekte sowie eine optimale Ergebnisqualität in DWH-Projekten zu realisieren?
Unsere Antwort heisst: Metadaten.
Was beim Wurfzelt ausgeklügelte Produktentwicklung ist, ist bei der DWH-Automatisierung die Vorarbeit im Rahmen der Analysephase. Als Projektleiter wissen wir, wie wichtig die Aufnahme der fachlichen Anforderungen an das Data Warehouse ist. Wird diese darüber hinaus in Form eines Fachdatenmodells abgebildet, dokumentiert und zudem noch Data Governance aufgebaut, ist die richtige Vorarbeit geleistet und die anschliessende Entwicklungsphase (fast) ein Klacks.
In unserem 90-minütigen Workshop stellen Barbara Kainz und Roger Unholz Ihnen unser End-2-End-Vorgehensmodell für metadatengetriebene DWH-Entwicklung vor, bei dem anhand der Metadatenmanagement-Software dataspot. ein Fachdatenmodell als Grundlage für die Data Governance und DWH-Entwicklung erstellt wird, das über den Data-Platform-Generator der BSgroup Data Analytics als Core-Modell im DWH umgesetzt wird.
Wer schon lange auf der Suche nach überzeugenden Werkzeugen und Methoden sowie einem Best-Practise-Vorgehen für die DWH-Entwicklung ist und ausserdem Lust hat mit uns die Ärmel hochzukrempeln und gemeinsam ein automatisiertes DWH auf der Grundlage von Metadaten zu entwickeln, der ist bei uns richtig!
Ausserdem werden wir bei unserem Workshop auch einen besonderen Schwerpunkt auf das Thema Data Governance legen, denn dataspot. ist DER Experte wenn es um den exzellenten Umgang mit Ihren Unternehmensdaten und die Umsetzung von Metadatenmanagement- und Data Excellence-Projekten geht.
Ergänzend zu diesem Workshop empfehlen wir Ihnen auch den Vortrag End-to-End-Use Case: Metadata Management & DWH mit Clemens Bousquet von der Oberbank und Lisa Müller von dataspot.
Voraussetzungen
Fortgeschrittene Kenntnisse in Datenmodellierung und DWH-Entwicklung
Zielgruppe
DWH-Architekten/ Solution Architects, BI Consultants, Data Engineers, Data Governance Manager
Level
advanced
Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.