Expert Forums / Free Program

Fachforen

Track: Workshop

Sort by Tracks
Alle ausklappen
  • Monday
    21.06.
  • Tuesday
    22.06.
  • Wednesday
    23.06.
15:40 - 17:10
Workshop 4
Wie gehen SAP Kunden die Transformation mit SAP Data Management Lösungen an?
Wie gehen SAP Kunden die Transformation mit SAP Data Management Lösungen an?

Profitieren Sie in der Paneldiskussion von den Erfahrungen unserer Kunden Stadtwerke München, Porsche und Randstad und lernen Sie deren Anwendungsfälle kennen.
Erfahren Sie aus erster Hand mehr zu Best-Practices und möglichen Herangehensweisen zu Ihrer digitalen Transformation mit Hilfe der SAP Data Management Lösungen.

Hakan Keles ist seit 2012 in verschiedenen Rollen und Projekten im Bereich Business Intelligence, Data Management & Analytics tätig.
Aktuell ist er bei der Porsche AG im Bereich AI Platforms & Data Management aktiv.
Dort ist er Product Expert für SAP Business Warehouse, SAP Analytics Cloud und SAP Data Warehouse Cloud und berät Projekte und Fachbereiche in Themen rund um Business Intelligence, Data Management & Analytics.
Zudem ist er dort mit verantwortlich für die Planung, den Aufbau, den Betrieb und die Weiterentwicklung von Data Management & Analytics Plattformen.
Ausbildung zum IT-Kaufmann
Studium Wirtschaftsinformation
SAP Berater (Business Warehouse und Master Data Management) in der chemischen Industrie (seit 2006)
SAP Berater für Business Warehouse bei Randstad (seit 2012)
Abteilungsleiter Analytics & Reporting Applications bei Randstad (seit 2017)
Ich bin nach einigen Jahren in der Beratung seit 2006 den SWM in unterschiedlichen Positionen beschäftigt. 2010 startete ich im BI-Umfeld als Requirements Engineer.  Hier habe ich mich um die Einführung von Standards und viele Projekte in unterschiedlichsten Fachbereichen begleitet. 2013 habe ich die Teamleitung des BI Bereichs und seit 2016 verantworte ich die Abteilung Data Analytics. Wichtig ist mir vor allem die strategische Weiterentwicklung des Bereichs im Hinblick auf die Bedarfe bei den Stadtwerken.
Matthias Stemmler ist Leiter der Abteilung Customer Advisory Platform & Data Management der SAP Deutschland SE & Co. KG in Walldorf. Darüber hinaus verantwortet er den Bereich der MEE Solution Hub Lead Platform Data Management.
Matthias Stemmler begann 1997 seine Karriere in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als Architekt und/oder Projektleiter. 
Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte er das Technologie Presales Team der SAP Deutschland SE & Co. KG. Ab April 2016 war er in der Rolle des „Platform Architect“ und unterstützt die Automotive OEMs und Zulieferer (insbesondere VW, BMW, Audi, Porsche) bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehouseing, Big Data und Maschine Learning.
Seit November 2018 leitet er das Customer Advisory Platform & Data Management in der SAP Deutschland SE & Co. KG.
Hakan Keles, Andreas Förger, Brigitte Ecker, Matthias Stemmler
Hakan Keles, Andreas Förger, Brigitte Ecker, Matthias Stemmler
Track: Workshop
Talk: Workshop 4
10:10 - 11:40
Workshop 5
Wie Ihnen Snowflake helfen kann ein datengetriebenes Unternehmen zu werden
Wie Ihnen Snowflake helfen kann ein datengetriebenes Unternehmen zu werden

Die meisten Unternehmen haben im Laufe der Jahre diverse Datensilos über Unternehmensteile, Organisationseinheiten und teilweise sogar innerhalb von Abteilungen aufgebaut. Zudem nimmt die Datenmenge schier unaufhaltsam zu, so dass neben den klassischen Enterprise Data Warehouses auch immer öfter Data Lakes zum Einsatz kommen. Oft sind die vorhanden Systemlandschaften aber zu komplex um daraus sinnvolle Erkenntnisse zu gewinnen oder schlicht zu schwierig zu benutzen.
Erfahren Sie in diesem Vortrag was die Snowflake Cloud Architektur so einzigartig macht, warum sich bereits mehr 4.500 Kunden für Snowflake entschieden haben und wie Sie die Zügel wieder in die Hand nehmen können, um ein echtes datengetriebenes Unternehmen zu werden.

Zielpublikum: "Jeder der mit Daten effizienter, schneller und kostengünstiger arbeiten möchte (Data Engineers, Data Analysts, Data Scientists, Entwickler, Business User bis hin zum CDO)

Voraussetzungen: Grundkenntnisse zu Data & Analytics

Schwierigkeitsgrad: Anfänger

Extended Abstract:
Im Workshop werden wir einführend auf die Snowflake Cloud Plattform eingehen, die auf AWS, Microsoft Azure oder Google Cloud aufsetzt. Durch den Cloud basierten Ansatz eröffnen sich Ihnen nahezu unbegrenzte Speicher- und Datenauswertungsmöglichkeiten bei gleichzeitig nahezu unbegrenzter Performance. Somit brechen Sie Ihre Datensilos durch einen zentralisierten Daten Layer auf. Mit Snowflake können Sie Data Warehouse, Data Lake und Data Science Use Cases abbilden, da nativ sowohl strukturierte, semi-strukturierte (wie JSON, XML, Parquet, ORC, Avro) als auch unstrukturierte Daten unterstützt werden.
Zudem können Sie sehr feingranular über Rollen das passende Security und Governance Modell steuern und über dynamische Maskierung Daten nur den Personen anzeigen, die hierfür die Berechtigung haben. Auch werden wir auf spannende Funktionen eingehen, die die Bereitstellung z.B. von Testumgebungen (“Zero-Copy-Clone”) oder das Wiederherstellen von vorherigen Datenbeständen (“Time Travel”) kinderleicht machen.
Erfahren Sie ebenfalls etwas über die Multi-Cloud, Multi-Region Fähigkeiten, die Ihnen erlaubt Daten innerhalb ihres Unternehmens, mit Partner oder Kunden nahtlos auszutauschen. Entweder sicher mittels Data Exchange, oder über den heute schon größten und schnell wachsenden Public Data Marketplace, bei dem schon heute über 500 Datenprovider teilnehmen.
Auch für Entwickler haben wir spannende Möglichkeiten im Gepäck, so dass in ihren präferierten Sprachen wie Java, Scala - und bald auch Python - Geschäftslogiken abgebildet werden können, die direkt in Snowflake ausgeführt werden (“Snowpark” & Java UDFs - User Defined Functions) .
Viele Funktionen werden wir Live in einer Demo zeigen und wir gehen natürlich gerne auf Ihre Fragen ein. Wir freuen uns auf Ihre Teilnahme!

Tobias Kutzer arbeitet als Senior Solution Engineer für Snowflake Computing und unterstützt Unternehmen beim Aufbau oder Modernisierung ihrer Daten- und Analyseplattformen. Zuvor war er in seiner 15-jährigen IT-Laufbahn bei IBM, Worksoft und ServiceNow als Solution Consultant, Solution Architect und in Presales-Funktionen in der DACH-Region und außerhalb tätig.

LinkedIn URL: linkedin.com/in/tobias.kutzer
Saša Mitrović arbeitet als Senior Sales Engineer bei Snowflake und hilft Unternehmen innovativer, schneller und kosteneffizienter den Mehrwert aus eigenen Daten im Cloud zu erzeugen.

Zuvor war er in Unternehmen wie FIS, Ericsson, Here und MarkLogic als Software Entwickler, Enterprise Architekt, Product Owner und Sales Engineer tätig. Seine Spezialgebiete sind Systemarchitektur, Datenintegration und Infrastructure Modernisation im Cloud. Er spricht regelmäßig auf Meetups und Konferenzen und bloggt gerne.

Tobias Kutzer, Sasha Mitrović
Tobias Kutzer, Sasha Mitrović
Track: Workshop
Talk: Workshop 5

 

 

11:50 - 13:20
Workshop 6
Advanced Data Analytics - Das Leben eines Data Scientists
Advanced Data Analytics - Das Leben eines Data Scientists

Heutzutage sind Daten allgegenwärtig. Sie werden in Datenbanken, Applikationen, On-Premise und in der Cloud gespeichert und ständig von Systemen, Maschinen, Websites und anderen Feeds erstellt. Wie können Data Scientists auf all diese Daten zugreifen und Nutzen daraus ziehen? Die Herausforderung besteht darin, relevante Daten für die Analyse, das Prototyping und Modelltraining zu finden, zu verstehen, darauf zuzugreifen und zu verwenden. Sobald sich ein neues Modell als erfolgreich erwiesen hat, kann es problemlos in eine automatisierte Datenpipeline integriert werden. Dies hilft Unternehmen, neue Wege zu finden, um mit Kunden in Kontakt zu treten, neue Produkt- und Servicemöglichkeiten zu finden und Geschäftsmodelle zu verbessern.
 
In unserem Workshop werden wir Lösungen und Beispiele zeigen, wie Daten aus verschiedenen Quellen katalogisiert werden können, wie Governance angewendet werden kann, um mit Daten auf richtlinienkonforme Weise zu arbeiten, und wie Data Scientists in ihren Kernkompetenzen unterstützt werden können - mit Hilfe von zuverlässigen und qualitativ hochwertigen Daten in ihrer eigenen bevorzugten Sandbox und mit Verarbeitungsfunktionen für die Datenintegration, Datenqualität und Einbindung komplexer ML-basierter Algorithmen.

Dr. Hebach kam 2014 als Senior Solutions Architect zu Informatica. Er unterstützt Kunden und Partnerunternehmen bei der Konzeption von Datenmanagementlösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Vor seiner Tätigkeit bei Informatica war Dr. Hebach in den Bereichen IT-Management, Unternehmensarchitektur und Beratung tätig.
Vincent Loosli ist Solution Architect bei Informatica mit 20 Jahren Erfahrung in Datenmanagement, Datenqualität, Datenintegration und Datengovernance. Er hat Wirtschaftsinformatik in der Schweiz studiert. 
Martin Hebach, Vincent Loosli
Martin Hebach, Vincent Loosli
Track: Workshop
Talk: Workshop 6
14:00 - 15:30
Workshop 7
Lang lebe die Datenbank? Endlich Mehrwert aus "Data in Motion" ziehen
Lang lebe die Datenbank? Endlich Mehrwert aus "Data in Motion" ziehen

! Um den Workshop so interaktiv wie möglich zu gestalten füllen Sie bitte die kurze & anonyme Umfrage der Referenten aus: https://forms.gle/dTCbFW3FttksxzSM6

Die Erwartung digitaler Kundenerlebnisse und vollständig integrierter Echtzeit-Operations passt nicht zu Daten- und Infrastruktursilos. Daten müssen kontinuierlich gesammelt, verarbeitet und reaktiv in Anwendungen im gesamten Unternehmen genutzt werden.

Mit anderen Worten: Wenn ein Unternehmen zunehmend software-definiert wird, braucht es eine Datenplattform, die in erster Linie für ""Data in Motion"" und nicht für ""Data at Rest"" ausgelegt ist.

Indem isolierte Datensilos aufgebrochen werden, können Daten besser analysiert und unternehmensübergreifend für Vertrieb, Marketing, Service, Produktion und Logistik nutzbar gemacht werden.

In unserem Data Value Workshop ermitteln wir gemeinsam, welche Herausforderungen in Ihrer aktuellen Umgebung bestehen. Unsere Experten analysieren die aktuelle Situation, um die nächsten Schritte zu bestimmen, die zur Erreichung der Unternehmensziele notwendig sind.

Mark Schulze, Marie Fraune
Mark Schulze, Marie Fraune
Track: Workshop
Talk: Workshop 7
09:00 - 10:30
Workshop 9
From business definition to DWH implementation – Metadatengetriebene DWH-Automatisierung mit dataspot. und der BSgroup Data Analytics
From business definition to DWH implementation – Metadatengetriebene DWH-Automatisierung mit dataspot. und der BSgroup Data Analytics

Wer von Ihnen schon einmal campen war, der kennt Sie vielleicht auch. Sogenannte Pop-Up Zelte, auch bekannt als Wurfzelte. Sie versprechen bezugsfertiges Camping-Glück binnen Sekunden.

Viele unserer Kunden haben noch immer das gleiche Bild im Kopf, wenn Sie mit uns über DWH-Automatisierung sprechen: Kostengünstig, schnell realisiert, überzeugendes Ergebnis.

Wie auch beim Wurfzelt, das im Gegensatz zu anderen Zeltvarianten zwar deutlich weniger aufwendig im Aufbau und einfacher in der Handhabung, sicher aber kein selbstaufbauendes Wunder ist, so verhält es sich auch mit der DWH-Automatisierung.

Doch wie können wir den Erwartungen unserer Stakeholdern in der Wurfzelt-Diskussion begegnen und was gibt es für Möglichkeiten, entsprechende Zeit- und Kosteneffekte sowie eine optimale Ergebnisqualität in DWH-Projekten zu realisieren?

Unsere Antwort heisst: Metadaten.

Was beim Wurfzelt ausgeklügelte Produktentwicklung ist, ist bei der DWH-Automatisierung die Vorarbeit im Rahmen der Analysephase. Als Projektleiter wissen wir, wie wichtig die Aufnahme der fachlichen Anforderungen an das Data Warehouse ist. Wird diese darüber hinaus in Form eines Fachdatenmodells abgebildet, dokumentiert und zudem noch Data Governance aufgebaut, ist die richtige Vorarbeit geleistet und die anschliessende Entwicklungsphase (fast) ein Klacks.

In unserem 90-minütigen Workshop stellen Barbara Kainz und Roger Unholz Ihnen unser End-2-End-Vorgehensmodell für metadatengetriebene DWH-Entwicklung vor, bei dem anhand der Metadatenmanagement-Software dataspot. ein Fachdatenmodell als Grundlage für die Data Governance und DWH-Entwicklung erstellt wird, das über den Data-Platform-Generator der BSgroup Data Analytics als Core-Modell im DWH umgesetzt wird.

Wer schon lange auf der Suche nach überzeugenden Werkzeugen und Methoden sowie einem Best-Practise-Vorgehen für die DWH-Entwicklung ist und ausserdem Lust hat mit uns die Ärmel hochzukrempeln und gemeinsam ein automatisiertes DWH auf der Grundlage von Metadaten zu entwickeln, der ist bei uns richtig!

Ausserdem werden wir bei unserem Workshop auch einen besonderen Schwerpunkt auf das Thema Data Governance legen, denn dataspot. ist DER Experte wenn es um den exzellenten Umgang mit Ihren Unternehmensdaten und die Umsetzung von Metadatenmanagement- und Data Excellence-Projekten geht.

Ergänzend zu diesem Workshop empfehlen wir Ihnen auch den Vortrag End-to-End-Use Case: Metadata Management & DWH mit Clemens Bousquet von der Oberbank und Lisa Müller von dataspot.

Voraussetzungen
Fortgeschrittene Kenntnisse in Datenmodellierung und DWH-Entwicklung

Zielgruppe

DWH-Architekten/ Solution Architects, BI Consultants, Data Engineers, Data Governance Manager

Level

advanced

Barbara Kainz ist Geschäftsführerin der dataspot. GmbH. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Roger Unholz ist Power BI-Profi und in seiner Rolle als Partner und Senior Consultant bei der BSgroup Data Analytics seit mehr als 15 Jahren unermüdlich dafür im Einsatz, dass seine Kunden Reports und Dashboards nach den neusten Tech-Standards bekommen. Insbesondere die Themen Data Visualization und Information Design sind seine grosse Leidenschaft - aber auch die Weiterentwicklung des Service-Angebots liegt in seiner fachlichen Verantwortung  und so ist auch der Power BI Administrator, das jüngste Tool-Kit der BSgroup Data Analytics-Familie aus seinem Innovationsgeist heraus entstanden.
Barbara Kainz, Roger Unholz
Barbara Kainz, Roger Unholz
Track: Workshop
Talk: Workshop 9

back