Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Thema: Data Analytics
- Dienstag
11.06. - Mittwoch
12.06. - Donnerstag
13.06.
Bei Unternehmen, wie Swiss Life, die nicht aus einem datenbasierten Geschäftsmodell entstanden sind, hat die Auswertungsmöglichkeit von Daten zugenommen. Im Swiss Life EKV-Bereich hat dies zu vielen einzelnen Lösungen in der Datenlandschaft geführt. Um den Umgang mit Daten zu harmonisieren, wurden Zielbilder für eine moderne Datenorganisation und -architektur entwickelt, die nun implementiert werden. In diesem Vortrag erfahren Sie mehr über die Datenstrategie sowie die Erfolge und Herausforderungen, die mit deren Implementierung verbunden sind.
Zielpublikum: Entscheidungsträger (die eine moderne data & analytics Organisation aufbauen wollen)
Voraussetzungen: Grundverständnis von Datenorganisationen, Data Governance und Datenplattformen
Schwierigkeitsgrad: Basic
Extended Abstract:
In 2023 wurde für das EKV-Geschäft der Swiss Life in Zusammenarbeit mit der Alexander Thamm GmbH eine neue Datenstrategie entwickelt, welche den Rahmen für den zukünftigen Umgang mit Daten setzt. Sie soll im Zielbild die historisch gewachsene, fragmentierte und intransparente Datenlandschaft durch eine moderne, cloud-native Datenarchitektur als 'single source of interpretation' ersetzen und gleichzeitig hohe Mehrfachaufwände in der Datenbeschaffung und -aufbereitung durch eine effiziente 'Hub & Spoke'-Organisation reduzieren. So sollen in Zukunft datengetriebene Geschäftsprozesse und Entscheidungsfindungen gefördert und innovative Lösungen ermöglicht werden. In diesem Vortrag möchten wir über die Entwicklung der Datenstrategie und getroffene Design-Entscheidungen berichten, auf das erste halbe Jahr der Umsetzung der Strategie zurückblicken und über die technischen und organisatorischen Erfolge und Herausforderungen, die hiermit verbunden sind, reflektieren.
Livia Kaiser-Auernheimer ist Beraterin für Datenstrategie und Data Science bei der Alexander Thamm GmbH und unterstützte Swiss Life bei der Entwicklung ihrer Datenstrategie. Sie begeistert sich für datengetriebene Lösungen und Entscheidungsfindungen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/livia-kaiser-auernheimer/
Arne Steinkraus ist Leiter des Data & Analytics Hubs bei Swiss Life (EKV) Deutschland. Zudem hat er einen Lehrauftrag für statistisches Lernen an der TU Braunschweig. Er ist sowohl Data-Science- als auch Ökonometrie-begeistert.
Vortrag Teilen
Beim 'Data & Analytics Escape Room' sind analytische Fertigkeiten Schlüssel zum Erfolg. In diesem interaktiven Spiel bewältigen Teams von 3-6 Mitgliedern gemeinsam Daten-Herausforderungen. Nutzen Sie SQL für Spurensuche, konfigurieren Sie ML-Modelle für Hinweise und bereinigen Sie fehlerhafte Daten, um voranzukommen. Sind Sie bereit, Ihre analytischen Fähigkeiten in einem Rennen gegen die Zeit zu testen?
Max. Teilnehmendenzahl: 30
Für die Teilnahme wird ein Laptop benötigt.
Zielpublikum: Data Analysts, Data Engineers, Data & Analytics Enthusiasts, Data Practioners, Data Scientists, ML Engineers
Voraussetzungen: SQL, Data Analysis, Python(basic)
Schwierigkeitsgrad: Advanced
Florian Dindorf ist Consultant bei b.telligent. Er arbeitet seit 7 Jahren im BI-Bereich. Erst als dualer Student und Entwickler in einem Handelsunternehmen und anschließend als Berater. Der Fokus liegt dabei im BI-Backendbereich und im Data Engineering mit einer Passion für den Modern Data Stack.
Lennart Dangers baut bei linkFISH Consulting GmbH Brücken zwischen fachlichen Anforderungen, Konzeption und technischer Umsetzung. Als Consultant für Business Intelligence und Data Analytics sind seine Schwerpunkte Advanced Analytics und Weiterentwicklung im Modern Data Stack.
Vortrag Teilen
Das ESG-Reporting adressiert in wesentlichen Teilen das Risikomanagement der Geschäftstätigkeit und die Nachhaltigkeit im Sinne einer dauerhaften und schonenden Nutzung der eingesetzten Ressourcen. Dabei zeigt sich jedoch in aktuellen Projekten, dass diese Schwerpunkte beim Aufsetzen eines ESG-Berichtswesens selbst zum Teil nicht berücksichtigt werden, sodass Individuallösungen oder Insellösungen entstehen, um schnell den gesetzlichen Anforderungen gerecht zu werden. ONTRAS zeigt, dass Nachhaltigkeit bei Digitalisierung anders aussehen kann.
Zielpublikum: Zielgruppe sind Personen, die sich zum einen fachlich mit dem Thema ESG oder den Initiativen darum beschäftigen, und zum anderen Personen, die analytische Architekturen in Organisationen betreuen.
Voraussetzungen: Grundverständnis für Analytics
Schwierigkeitsgrad: Basic
Extended Abstract:
Das Environment, Social, Governance-(ESG)-Reporting adressiert in wesentlichen Teilen das Risikomanagement der Geschäftstätigkeit und die Nachhaltigkeit im Sinne einer dauerhaften und schonenden Nutzung der eingesetzten Ressourcen. Dabei zeigt sich jedoch in aktuellen Projekten, dass diese Schwerpunkte beim Aufsetzen eines ESG-Berichtswesens selbst zum Teil nicht berücksichtigt werden, sodass Individuallösungen oder Insellösungen entstehen, um irgendwie schnell den gesetzlichen Anforderungen gerecht zu werden.
Nun haben viele Unternehmen bereits seit Jahren in Business-Intelligence-Architekturen investiert und hier großes Know-how aufgebaut, sodass die Themen der Wiederverwendbarkeit geschaffener Strukturen und damit einhergehend eine Risikominimierung beim Aufsetzen und Betreiben einer Reporting-Lösung genauso im Mittelpunkt stehen sollten, um weiteren Nutzen aus den Digitalisierungsbemühungen im Berichtswesen ziehen zu können. Im Folgenden zeigt ein konkretes Projektbeispiel auf, dass ESG idealerweise als Bestandteil existierender analytischer Architekturen aufgefasst wird und auch, dass die Herausforderungen im Berichtswesen nicht erst seit ESG auch in der Datenbeschaffung liegen.
ONTRAS startete 2019 in das Projekt: 'Berichtswesen Energie- und Umweltmanagement', das nun auch Teil des ESG-Berichtswesens wird. Ausgehend von einer Vielzahl manueller Prozesse und qualitätsseitig zunächst nur begrenzt tragfähiger Daten wurde im Projektverlauf innerhalb der existierenden analytischen Architektur bei ONTRAS eine effiziente, qualitätsgesicherte und für Fachanwender nachvollziehbare Berichtlösung geschaffen. Diese bietet eine vor allem für vielseitige Anforderungen wie Berichte für ESG oder auch Zertifizierungen nutzbare Oberfläche, um den Verantwortlichen alle relevanten Informationen direkt nutzbar zur Verfügung zu stellen. Hervorzuheben ist dabei die Sicherstellung der Datenqualität über eine idealerweise direkte Quellenanbindung, aber auch notwendigerweise Optimierung manueller Datenlieferungen, Validierungs- und Freigabeprozesse zur Verbesserung einer jeden Möglichkeit des Dateninputs und eine weitestgehend hochgradige automatisierte Verarbeitung. Dieser Beitrag zeigt den Ausgangspunkt des Projektes, Herausforderungen und deren Lösungen im Prozess, sodass nachvollziehbar ist, wie die entstandenen Ergebnisse in nun transparenten Informationsflüssen den Anwendern Sicherheit bei der Nutzung der berichteten Werte geben.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/sonja-wiedemann/
Philipp Seidel ist als Teamleiter im Bereich Oberflächen sowie erfahrener Projektleiter für Business Intelligence und Analytics bei der Marmeladenbaum GmbH. Er betreut Projekte von der Anforderungsanalyse und Konzeption bis zur Umsetzung von Oberflächen und beherrscht mehrere Werkzeuge alternativer Hersteller wie beispielsweise Microsoft, MicroStrategy oder auch Pentaho. Branchenseitig hat er umfassende Erfahrungen in den Branchen Logistik, Energie sowie Banken und Versicherungen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/philipp-seidel/
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/claudia-koschtial/
Vortrag Teilen
Die EU-Richtlinie für erneuerbare Energien ermöglicht den direkten nachbarschaftlichen Stromhandel, z.B. von PV-Überschüssen. Ziel solcher erneuerbaren Energiegemeinschaften (EEG) ist die Optimierung der sog. Eigendeckung. Das bedingt eine Verhaltensanpassung, etwa beim Laden von Elektroautos. Hierzu müssen die Mitglieder gut über Überschussmengen und -zeiten informiert sein. Der Beitrag stellt eine Datenanalyselösung vor, aktuell in zwei Pilot-EEGs im Einsatz. Themen sind Aufbereitung und Visualisierung der Zeitreihendaten sowie Prognosen.
Zielpublikum: Interessierte Bürger, Datenanalysten, Datenarchitekten
Voraussetzungen: keine
Schwierigkeitsgrad: Basic
Extended Abstract:
Die EU-Richtlinie über erneuerbare Energien (RED II) ermöglicht die Gründung sogenannter erneuerbarer Energiegemeinschaften (EEG). Konkret geht es um Stromhandel in der Nachbarschaft, beispielsweise von Überschüssen aus PV-Anlagen, die nicht an Energiekonzerne, sondern direkt an Nachbarn verkauft werden. Durch das Entfallen eines Zwischenhändlers ergeben sich Preisvorteile, sowohl beim Einspeisen als auch beim Bezug.
In Deutschland ist die Entwicklung noch schleppend aufgrund der großen bürokratischen Hürden, aber auch hier ist das Thema im Kommen. In Österreich ist man schon weiter, Smart Meter Rollout, vereinfachte Verfahren und Anreize wie Rabatte auf die Netznutzung haben dazu geführt, dass in der Alpenrepublik bereits Hunderte solcher EEGs in Betrieb sind.
Ziel einer EEG ist es, möglichst viel Energie innerhalb der Gemeinschaft zu verbrauchen, und zwar genau zu der Zeit, in der sie (beispielsweise durch Photovoltaik) erzeugt wird. Hierzu müssen die Mitglieder gut über Überschussmengen und -zeiten informiert sein. Kann man das Laden von Elektroautos, Warmwassererzeugung etc. in diese Zeiten verlegen, muss weniger externer Strom zugekauft werden. Das gleiche gilt im Kleinen natürlich auch für einzelne Haushalte (ohne Energiegemeinschaft).
Der Beitrag stellt eine Datenanalyselösung für erneuerbare Energiegemeinschaften vor, die aktuell in zwei EEGs im Pilotbetrieb verwendet wird. Behandelt wird die Datenaufbereitung, ein Dashboard zur Analyse der Energieüberschüsse und der Fremddeckung, sowie eine KI-basierte Vorhersagekomponente. Es ist geplant, die Lösung als Open Source weiteren Energiegemeinschaften zugänglich zu machen.
Prof. Dr. Torsten Priebe ist Dozent für Data Analytics an der Fachhochschule St. Pölten und leitet dort die Forschungsgruppe Data Intelligence. Zuvor war er in leitenden Positionen bei verschiedenen Beratungsunternehmen tätig. Sein Doktorat erwarb er 2005 an der Universität Regensburg mit einer Dissertation über semantische Technologien zur Integration von strukturierten und unstrukturierten Daten. Seit August 2023 ist er außerdem Gründer und Obmann der Energiegemeinschaft Ratzersdorf.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/torsten-priebe/
Christian Hofmann ist Gründer und Obmann der Energiegemeinschaft Göttweigblick, einer der größten erneuerbaren Energiegemeinschaften in Österreich. Mittlerweile hat der Pionier der österreichischen Energiewende über ein Dutzend weitere Energiegemeinschaften bei der Gründung unterstützt. Darüber hinaus ist er als selbstständiger Coach und Digitalisierungsexperte tätig.
Vortrag Teilen
Wie kann man eigentlich schnell Analytics-Ideen in einer Organisation umsetzen und auch den Mehrwert für das Business heben? Dieser zentralen Frage gehen wir anhand eines Blueprint-Vorgehens aus der Telekommunikationsbranche am Beispiel von 1&1 Versatel auf den Grund. Vom Geschäftsmodell ausgehend betrachten wir konkrete Use-Cases aus dem Analytics-Umfeld. Hier geht es nicht nur um 'Rapid Prototyping', sondern auch darum, wie man Menschen damit erreicht.
Zielpublikum: Data Engineer, Data Scientist, Decision Makers
Voraussetzungen: Grundkenntnisse, Erfahrung mit Daten und geschäftlichen Zusammenhängen
Schwierigkeitsgrad: Basic
Extended Abstract:
Wie kann man eigentlich schnell Analytics-Ideen in einer Organisation umsetzen und auch den Mehrwert für das Business heben? Dieser zentralen Frage gehen wir anhand eines Blueprint-Vorgehens aus der Telekommunikationsbranche am Beispiel von 1&1 Versatel auf den Grund. Vom Geschäftsmodell ausgehend betrachten wir konkrete Use-Cases aus dem Analytics-Umfeld. Wie kann man diese im 'Rapid Prototyping'-Ansatz mit den Stakeholdern diskutieren und in Form von Dashboard-Prototypen bereitstellen. Daten, analytische Lösungen und Dashboards machen zusammen nicht den Unterschied - es sind die Menschen, die diese Erkenntnisse nutzen, damit man wirklich etwas verändert.
Dr. Stephan Hausberg hat Mathematik und Betriebswirtschaftslehre an der TU Dortmund studiert. Nach einer Promotion über ein Thema in der Theorie partieller Differenzialgleichungen und einer Anwendung in der Biomathematik hat er sich auf Datenthemen fokussiert. Im Moment leitet er ein Expertenteam im Datenbereich der 1&1 Versatel. Hier geht es um die Modellierung von Fragestellungen rund um den Glasfaserausbau und wie man datenbasiert Mehrwerte generiert.
Vortrag Teilen
Die Session soll einen Rahmen geben, um unterschiedliche Analyseansätze & -Tools kennenzulernen, sowohl durch das eigene Umsetzen wie auch Impulse anderer Teilnehmer:innen.
Dazu wollen wir uns in diesem Hackathon mit verschiedenen Logistik-Daten beschäftigen. Dabei sollen die Teilnehmenden gerne das Tool verwenden, in dem sie sich wohlfühlen, oder eines, das sie gern ausprobieren möchten.
Die Referenten geben eine Einleitung, beantworten Fragen zu den Daten und leisten bei allgemeinen analytischen Fragestellungen Hilfestellung.
Es wird ein eigener Laptop benötigt
Zielpublikum: Alle, die Spaß an der Datenanalyse haben
Voraussetzungen: Mindestens Grundwissen und erste Erfahrungen in der Datenanalyse; Interesse an Datenanalyse und Austausch dazu
Schwierigkeitsgrad: Basic
Extended Abstract:
Zielsetzung
Dieser Hackathon soll den Teilnehmer:innen die Möglichkeit geben, in lockerer Atmosphäre unterschiedliche Stärken verschiedener Analyse-Technologien bzw. -Tools und -Methodiken kennenzulernen und sich von anderen inspirieren zu lassen.
Tools
Die Teilnehmenden entscheiden selbst, mit welchen Tools sie arbeiten. Das können sowohl Technologien sein, die sie gut kennen & beherrschen, wie auch Tools, die sie gern schon immer einmal ausprobieren wollten.
Daten
Dazu stellen wir verschiedene Datensätze aus der Logistik bereit, die vielfältige Analyseansätze zulassen (z.B. zeitliche, räumliche, finanzielle Fragestellungen), die wir gut kennen und bei denen wir entsprechend toolagnostische Hilfestellungen anbieten können. Geplant haben wir, Datensätze über Kraftstoffpreise und Containerverkehr anzubieten, die durch Routing-fähige Shapefiles, soziodemografische Daten und ggfs. weitere Daten ergänzt werden können. Die Datenbereitstellung erfolgt wahlweise über flache Dateien oder über Snowflake.
Ablauf
Der Ablauf sieht nach kurzer Vorstellung & Einführung ins Thema eine Explorationsphase vor, in welche die Teilnehmer:innen die Daten kennenlernen können. Anschließend findet ein kurzer Austausch über die gewonnenen Erkenntnisse statt, woraufhin alle Teilnehmer:innen eine Fragestellung formulieren sollen, die sie im weiteren Verlauf des Hackathons bearbeiten. Auf Wunsch unterstützen wir gern beim Finden einer geeigneten Fragestellung. Nach gemeinsamer Pause können die Teilnehmer:innen in die Bearbeitung der Fragestellungen gehen, die wir bei Bedarf gern technisch oder fachlich unterstützen. Nach einer weiteren Kaffeepause können die Ergebnisse kurz & knackig präsentiert werden, und gemeinsam wählen die Teilnehmer:innen eine:n Gewinner:in aus, wobei in diesem Format keinesfalls der Wettbewerb im Vordergrund stehen soll.
Benjamin Schalk arbeitet als Principal Consultant bei The Information Lab in Hamburg und berät Kund:innen mit Fokus auf technische Fragen der Business Intelligence - über Strategie- und Infrastrukturfragen, zur Datenhaltung, -Verarbeitung und Analyse.
Moritz Schirmböck arbeitet ebenfalls als Principal Consultant bei The Information Lab in Hamburg und berät Kund:innen mit Fokus auf fachliche Mehrwerte, um derenGeschäft weiterzuentwickeln & Werte zu generieren.
Vortrag Teilen
Woran scheitern viele SSBI-Projekte? Immer wieder an der überbrodelnden Komplexität der Daten, der Prozesse und manchmal der Tools. Da kommt ein Konzept, das seit 2012 bekannt ist, wie gerufen: Knowledge-Graphs! Wie können solche Wissens-Datenbanken uns bei der Etablierung von SSBI helfen? Wie baut man sich solch ein System auf? Und was bringt das Ganze dann eigentlich?
In dieser Session zeige ich, wie man sich einen ersten Knowledge-Graph-Prototyp mit KNIME und weiterer OS-Software aufbaut, einsetzt und betreibt.
Zielpublikum: Anwender und Stakeholder aller Level aus Business & Daten
Voraussetzungen: Erste Berührungspunkte mit SSBI und GPTs
Schwierigkeitsgrad: Advanced
Extended Abstract:
In diesem interaktiven Hands-On-Vortrag 'Self-Service Reloaded: Dank Knowledge-Graph zur SSBI-Kultur' werden die Teilnehmer eine praktische Einführung in den Aufbau und die Nutzung eines Knowledge-Graphs für Self-Service Business Intelligence (SSBI) erhalten.
Der Vortrag beginnt mit einer kurzen Einführung in die Problematik von SSBI-Projekten, die oft an der Komplexität von Daten, Prozessen und Tools scheitern. Anschließend wird erläutert, wie Knowledge-Graphs als Lösungskonzept diese Herausforderungen überwinden können, indem sie ein umfassendes Verständnis des Unternehmenskontexts ermöglichen.
Im Hauptteil des Vortrags werden die Schritte zum Aufbau eines Knowledge-Graph-Prototyps mit KNIME und anderen Open-Source-Tools detailliert erklärt. Die Teilnehmer werden lernen, wie man Daten aus verschiedenen Quellen integriert, Beziehungen zwischen den Daten modelliert und Interaktionsmöglichkeiten implementiert, um den Knowledge-Graph intuitiv zu nutzen.
Durch eine praktische Demonstration werden die Teilnehmer Schritt für Schritt durch den Prozess geführt und haben die Möglichkeit, das Erlernte direkt umzusetzen. Dabei werden sie selbst einen einfachen Knowledge-Graph-Prototyp erstellen und verschiedene Analyse- und Abfragefunktionen ausprobieren können.
Abschließend werden die potenziellen Nutzen eines Knowledge-Graphs für SSBI-Projekte diskutiert, einschließlich effizienterer Datennutzung, verbesserte Zusammenarbeit und fundiertere Entscheidungen. Die Teilnehmer werden ermutigt, das Gelernte in ihren eigenen Projekten anzuwenden und so die SSBI-Kultur in ihren Organisationen zu stärken.
Durch diese praktische und interaktive Herangehensweise werden die Teilnehmer befähigt, das Konzept des Knowledge-Graphs besser zu verstehen und direkt anzuwenden, um ihre eigenen SSBI-Projekte voranzutreiben.
In den letzten 16 Jahren spezialisierte sich Philipp Baron Freytag von Loringhoven auf die Unterstützung von Unternehmen bei der Entwicklung effektiver Werbekampagnen mithilfe von Daten und Marketing-Analytics. Er leitete internationale Marketing- und Data-Teams für Start-ups und Unternehmen. Als Freelancer hilft er Firmen bei einer Nutzung ihrer Daten, die zu weiterem Marketing- und Sales-Erfolg führt. Philipp möchte durch und dank Daten wieder bessere, interessantere Werbung sehen. Werbung, die begeistert, die anspricht. Deshalb betreibt er seit 2020 auch den Podcast Dataengage, um mehr Menschen den Zugang zu Daten, Technologie und Marketing zu ermöglichen.
Vortrag Teilen
The successful establishment of low-code and self-service platforms in enterprises is not a guaranteed. Seamless collaboration among departments, management, IT, and security is crucial. The Müller Service Group has effectively tackled this challenge through the implementation of a governance framework. In this session, we will share best practices and insights from our journey towards successful governance. We will use the Microsoft Power Platform as a case study within the presentation as an example of a low-code platform at Müller.
Target Audience: Decision Makers, project leaders, IT-managers, IT-architects, data analysts, Chief Data Officers (CDOs), Chief Information Officers (CIOs), responsible individuals in Data & Analytics
Prerequisites: Basic Knowledge
Level: Basic
Extended Abstract:
In this session, we will first introduce the foundational framework crucial for the successful operation of a low-code platform, particularly within the context of the Microsoft Power Platform. Subsequently, we will delve into a detailed examination of opportunities and risks associated with operating such a platform, emphasizing the strategic significance of governance.
An additional emphasis during the presentation highlights the central role of IT in operating low-code and self-service platforms. Managers and domain experts will gain valuable insights with practical tips on successfully convincing and engaging their IT in the benefits of the low-code concept. This session provides a comprehensive overview of the potentials and challenges of low-code and self-service platforms.
Join us as we explore the transformative potential of this governance approach for Low-Code & Self-Service-Platforms.
For over 5 years, Deepak Sahu has been a software engineer at Mueller Service GmbH. With 13 years of experience, he crafts robust code for critical applications. As a Microsoft-certified expert, his focus spans Manufacturing Systems, Warehouse Automation, and financial instruments. Architecting and leading 'The Replay Software' showcases his prowess in optimizing Agile workflows. Proficient in ERP integration, web, desktop apps, and Azure DevOps, he excels in CI/CD processes. Establishing a Microsoft Power Platform Onboarding Center and proactive incident management underscore his commitment. His structured project management using Clarity PPM ensures quality and risk assessment.
Dominik Wuttke serves as the Principal Team Lead for Digitalization & Data Science at Marmeladenbaum GmbH. His expertise spans Predictive Analytics, Microsoft Power Platform, and Data Engineering. Having successfully delivered numerous projects in sectors such as medical technology, insurance, and energy, Dominik Wuttke combines leadership with technical prowess. As a seasoned lecturer, he shares his comprehensive knowledge at key conferences, solidifying his position as a principal team lead in the industry.
Florian Rappelt ist ein Senior Power Platform Architekt und zuständig für die Gestaltung und Entwicklung moderner Lösungen. Mit einem starken Fokus auf Governance zeichnet sich Florian darin aus, effiziente Prozesse zu gestalten, die den Erfolg von Organisationen vorantreiben. Seine Hingabe zur Befähigung der Nutzer zeigt sich in seinen umfassenden Schulungsinitiativen, die eine aktive und engagierte Maker-Community fördern. Florians Leidenschaft liegt darin, das Potenzial der Power Platform maximal auszuschöpfen. Dies beinhaltet auch die Erstellung von Chatbots mit Copilot Studio und die Anwendung von generativer KI.
Vortrag Teilen
Im Zuge der Entwicklung neuer digitaler Lösungen im Bankengeschäft werden jeden Tag große Datenmengen erzeugt. Die Analyse dieser Daten unterstützt maßgeblich dabei, die Prozessabläufe in Sparkassen effizienter zu gestalten und kundenindividuelle Bedürfnisse zu verstehen.
Dazu werden Daten von Kundenreisen durch die Implementierung standardisierter Messpunkte in Prozessen ausgewertet und den Sparkassen zur Verfügung gestellt, um einen Einblick in die Prozessabläufe zu gewinnen und eine Vergleichbarkeit der Prozesse zu ermöglichen.
Die präzise Analyse der Prozesse mittels Process Mining schafft Transparenz und ist die Grundlage für die kundenzentrierte Weiterentwicklung. Im Rahmen dieses Vortrags werden praxisnahe Einblicke in die datengetriebene Prozessanalyse der Sparkassen Finanzgruppe gegeben.
Agenda
- Überblick
- Prozessanalyse in Customer Journeys
- Detailanalysen im Process Mining
- Fazit
Zielpublikum: Datenanalyst:innen, Entscheidungsfinder:innen
Voraussetzungen: Grundkenntnisse
Schwierigkeitsgrad: Basic
Nach seiner Promotion in 2017 hat Dr. Florian Bergmann bei synvert saracus seine Tätigkeit aufgenommen. Er arbeitet dort als Senior Lead Consultant und war bereits für diverse Kunden tätig. Seit Ende 2023 ist er bei der Finanz Informatik Projektmanager und Arbeitspaketleiter in der Vertriebssteuerung im Bereich Data & Analytics. Dort sind seine Schwerpunkte die Teamleitung und Projektleitung von diversen Projekten zur Bereitstellung von KPIs im OSPlus Kontext.
Sophie-Theresa Kleinke ist Mathematikerin mit einem Fokus auf Data Science. Bei der Finanz Informatik (FI), dem zentralen IT-Dienstleister der Sparkassen, liegt ihr Schwerpunkt auf der Analyse und Optimierung von Geschäftsprozessen, im Speziellen im Bereich Process Mining, wo sie von der Datenaufbereitung im Backend mit SQL bis zur Visualisierung im Frontend mit einem gängigen BI-Tool tätig ist.
Vortrag Teilen
In diesem Vortrag beleuchten wir die anhaltende Relevanz von Corporate Analytics für die Unternehmensführung, die nahtlose Integration von Data Scientists in bestehende Analyseplattformen und die Umsetzung zentralisierter Kommunikation in multinationalen Konzernen. Ziel ist es, darzulegen, wie Corporate Analytics als strategisches Werkzeug dient, um eine robuste, datengesteuerte Entscheidungskultur zu fördern und somit die Unternehmensleistung zu optimieren.
Zielpublikum: Data Analysts, Data Scientists, Management, Decision Makers
Voraussetzungen: Basic knowledge in Data Analytics
Schwierigkeitsgrad: Basic
Christian Klinge ist seit über 12 Jahren im Bereich Datenanalyse und -visualisierung aktiv. Dabei hat er eine große Bandbreite an praktischen Erfahrungen im Consulting und Projekt- & Produktmanagement sammeln können. Aktuell verantwortet er die zentralen Analytics-Plattformen sowie die globalen Standards und Prozesse für BI bei Hapag-Lloyd.
Vera Schulz ist seit über 10 Jahren beratend im Bereich Business Intelligence & Data Analytics tätig. Mit ihrem Team verantwortet sie sowohl Analytics-Projekte als auch Themen rund um Cloud-Datenplattformen. Ihre Anerkennung als TDWI-Expertin dieses Jahr zeugt von ihrer tiefen Branchenkenntnis und ihrem Engagement für datengesteuerte Geschäftslösungen.
Vortrag Teilen
Die Präsentation hebt die zentrale Rolle der Datenkompetenz in der modernen digitalen Wirtschaft hervor. Sie beginnt mit einer Diskussion über die Bedeutung von Daten in verschiedenen Branchen und geht auf die Herausforderungen im Umgang mit Daten ein, wie z.B. Datenschutz und die Komplexität der Datenanalyse. Der Hauptteil der Präsentation konzentriert sich auf Datenkompetenz als Lösung für diese Herausforderungen, untermauert durch konkrete Praxisbeispiele.
Zielpublikum: Die Fachabteilungen innerhalb des Unternehmens, insbesondere diejenigen, die mit Daten arbeiten und von Self-Services innerhalb des Unternehmens betroffen sind
Voraussetzungen: keine
Schwierigkeitsgrad: Basic
Extended Abstract:
Die Präsentation 'Steigerung der Datenkompetenz als Kernbestandteil digitaler Transformationen' zielt darauf ab, die Bedeutung von Datenkompetenz in der heutigen digitalisierten Welt hervorzuheben. Sie beginnt mit einer Einführung in die Rolle von Daten in verschiedenen Industrien und diskutiert die Herausforderungen im Umgang mit Daten, einschließlich Datenschutz und Komplexität von Datenanalyse-Tools. Der Fokus liegt auf der Darstellung von Datenkompetenz als Schlüssellösung für diese Herausforderungen.
Durch Praxisbeispiele wird aufgezeigt, wie Unternehmen ihre Datenkompetenz verbessern können. Eine Diskussionsrunde regt zur Reflexion darüber an, wie jedes Unternehmen von einer gesteigerten Datenkompetenz profitieren kann. Die Präsentation behandelt auch aktuelle technologische Entwicklungen in der Datenanalyse und deren Einfluss auf die Datenkompetenz.
Sie endet mit einem Aufruf zum Handeln, motiviert das Publikum zur Förderung der Datenkompetenz in ihren Organisationen und bietet eine Gelegenheit für Fragen und Antworten. Ziel ist es, das Publikum inspiriert, motiviert und mit dem nötigen Wissen ausgestattet zu entlassen, um Datenkompetenz in ihren jeweiligen Bereichen effektiv zu implementieren und zu nutzen.
Dilyana Bossenz ist Trainerin für Data & AI Literacy bei BI or DIE. Sie ist Dozentin für Datenvisualisierung an der Digital Business University in Berlin.
Sie verfügt über mehrjährige Erfahrung als BI-Beraterin bei Good Healthcare Group GmbH, Ceteris AG und M2.technology & project consulting GmbH. Gleichzeitig war sie bei M2 in leitender Position als Enablement Managerin tätig. Ihre Aufgabe war es, dafür zu sorgen, dass sowohl Kunden als auch Mitarbeiter:innen den richtigen Umgang mit Daten erlernen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/dilyana-bossenz/
Vortrag Teilen
Was bedeutet es, im Mittelstand 'data driven' zu sein, und wie kann eine BI-Lösung auf pragmatische Weise mit überschaubarem Budget gewachsene Excel-Strukturen ersetzen?
Max erzählt von den Besonderheiten im Retail-Service und warum dort viele Daten anfallen, die teils semi-strukturiert sind. Bei der Datenmodellierung ist deshalb mehr notwendig, als Standards zu nutzen, und so wurden die Möglichkeiten einer modernen BI-Lösung im Microsoft-Umfeld ausgereizt, um das Handling der Daten trotzdem so effizient wie möglich zu machen.
Zielpublikum: Entscheider, Projektleiter, BI-Experten
Voraussetzungen: Grundzüge der Datenmodellierung und Datenbanken sind von Vorteil
Schwierigkeitsgrad: Advanced
Extended Abstract:
Pragmatische und Professionelle BI im Retail-Service
Wofür werden Daten im Retail-Service genutzt? Was bedeutet es, im Mittelstand 'data driven' zu sein, und wie kann eine BI-Lösung auf pragmatische Weise mit überschaubarem Budget gewachsene Excel-Strukturen ersetzen?
Als mittelständischer Dienstleister im Retail-Service steht die SIG Sales GmbH & Co. KG täglich in Kontakt zu Supermärkten und generiert zahlreiche Daten über die Besuche vor Ort.
Diese werden sowohl für die operative Steuerung genutzt, aber auch für umfassende nachgelagerte Analysen.
Max erzählt von den Besonderheiten seiner Branche und warum in seiner Branche vergleichsweise viele Daten anfallen, unter anderem auch semi-strukturierte Daten aus qualitativen Dokumentationen. Im Bereich der Datenmodellierung ist deshalb mehr notwendig, als branchentypische Standards zu nutzen, und so wurden die Funktionen und Möglichkeiten einer modernen BI-Lösung im Microsoft-Umfeld ausgereizt, um das Handling der Daten trotzdem so effizient wie möglich zu machen.
Die Umsetzung erfolgte weitgehend durch interne Ressourcen, um Kompetenz intern zu behalten und weitgehend unabhängig zu bleiben. Lediglich für ein fachliches Sparring zu Spezialthemen wurde ein externer Berater hinzugezogen.
Max Frisch ist als Leiter der BI-Abteilung für die kontinuierliche Weiterentwicklung des Data-Bereichs der SIG Sales verantwortlich.
Mit dem Ziel der Standardisierung und Automatisierung wurde über die letzten Jahre eine Excel-Lösung durch ein BI-Werkzeug abgelöst, wobei Max in eigener Umsetzung ein Datenmodell konzipiert hat, welches als Datenbasis für das heutige Reporting genutzt wird.
Auch die Anreicherung um die Businesslogik, die Visualisierung der Daten sowie die Bereitstellung an in- und externe Kunden liegen in seinem Verantwortungsbereich. Privat lebt Max mit seiner Frau sowie seinem kleinen Sohn in Karlsruhe und verbringt seine Freizeit gerne mit der Familie, auf Reisen oder mit Sport (besonders Fußball).
Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe.
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld.
Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.
Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.
Vortrag Teilen
Begonnen hat alles mit einem Cube. Inzwischen hat sich die analytische Landschaft von Agaplesion drastisch erweitert, die Begleitung des 'Patienten-Journey' ohne Daten unvorstellbar. Datengetriebene Entscheidungen beeinflussen alle Aspekte des KKH-Alltags. Ohne leistungsfähige Architektur dahinter undenkbar: Mit seiner Data Fabric nutzt Agaplesion verteilte Datenquellen, Wissen über Daten inkl. umfassender Datenschutzregeln und erlaubt so, mit intelligenten ML-Prozesse die KKH-Prozesse optimal, nachvollziehbar und sicher zu unterstützen.
Zielpublikum: Analytics/Solution Architects, Decision Makers, Controller, Project Leader. More technical than Business
Voraussetzungen: Basic Knowledge of Data Management Strategies and Architectures (Data Warehouse, Data Fabric)
Schwierigkeitsgrad: Advanced
Extended Abstract:
Der Fokus der analytischen Landschaft von Agaplesion hat sich dramatisch gewandelt: Während früher ausschließlich Planung und Reporting im Vordergrund standen und durch kombinierte Einzellösungen repräsentiert wurden, wird heute der Bedarf und Nutzen von Analysen sehr viel höher eingeschätzt. Der umfassende Datenschatz im Unternehmen kann vielfach zur Optimierung oder Steuerung der Prozesse genutzt werden, zum Vorteil für Patienten, medizinisches Personal, aber auch in kommerzieller Hinsicht. In Zeiten von Pandemien, Fachkräftemangel und im Hinblick auf die kommende Alterspyramide kann sich unsere Gesellschaft kein leeres Bett oder unnötige Doppeluntersuchungen leisten!
Der Bedarf an Umgang mit den vorhandenen oder neuen Daten kann nicht nur durch Experten gedeckt werden - Fachanwender, Analysten und Data Scientists sind gefragt! Damit der Umstieg, die Übernahme analytischer Tätigkeit effizient gelingt, sind neue Methoden und damit Technologien gefragt: Self-Service BI, Data Science benötigt gut dokumentierte Daten, damit Bedeutung und Hintergründe nicht nur den Datenexperten transparent sind. Gleichzeitig muss mit definierten, automatisierbaren Zugriffsregeln der Datenschutz sichergestellt werden. Und nicht zuletzt geht mit der zunehmenden Nutzung von Data Science und AI die Verantwortung nach Nachvollziehbarkeit und Überwachung der AI einher.
Agaplesion hat sich daher in einer technischen Neubewertung entschlossen, eine analytische Plattform einzuführen, die sowohl die Aspekte Data Governance, Datenzugriff und Potenzial für umfassende Data Science/AI-Prozesse abdeckt, als auch die bisherigen Einzellösungen integriert.
In diesem Vortrag werden der fachliche Hintergrund und die resultierende Daten-Strategie besprochen, die bisherige Umsetzung mit Erfolgen und Hindernissen gezeigt und die weiteren Ziele von Agaplesion mit dieser Plattform.
Jan Geesen, geboren 1986, beschäftigt sich seit 2012 mit dem Gesundheitswesen und Analytik. Erst als Controller mit Schwerpunkt BI in der Zentrale der AGAPLESION gAG, wo er zuständig war für alle Leistungsbereiche (Somatik, Psychiatrie, Wohnen & Pflegen, Hospiz, Reha, Med. Versorgungszentren). 2018 wechselte er für 2 Jahre in Leitungsfunktion ins Controlling an einen Konzernstandort mit 5 Gesellschaften und kehrte anschließend als Leitung Business Analytics zurück in die Zentrale. Dort treibt er seitdem die Datennutzung, -konsistenz und eine zentrale Datenstrategie voran.
Marc Bastien, Jahrgang 1967, arbeitet seit 1993 kontinuierlich in Analytics-Projekten. Nach einigen Jahren beim Endkunden, wechselte Marc Bastien schon bald zum Hersteller, um dort in zahlreichen Projekten in unterschiedlichen Branchen und Rollen mitzuarbeiten. Nach ca. 20 Jahren und zuletzt im Presales entschied er sich, wieder Lösungen von Anfang bis Ende zu begleiten. In seiner Eigenschaft als Analytics Architekt umfassen die Tätigkeiten von der Architekturberatung, über Umsetzung von analytischen Projekten bis zur Betriebsunterstützung großer Data Management Plattformen.
Vortrag Teilen
Die Neurowissenschaften bestätigen: Unser Gehirn ist nicht dafür gemacht, Daten zu verarbeiten. Deshalb fällt es unseren Entscheidern oft schwer, sich für unsere Analytics-Projekte zu begeistern und Maßnahmen daraus umzusetzen. Gehirngerechte Datenkommunikation erzeugt Bilder im Kopf und macht so Daten leicht verdaulich. Julia zeigt, wie du mithilfe von Data Storytelling deine Zuhörer von deinem Analytics-Projekt und den Ergebnissen daraus überzeugst, und gibt dir einfache Kommunikationshacks in die Hand, die du gleich umsetzen kannst.
Zielpublikum: Analysten, Data Scientists, Data Engineers, Controller, Data-Governance-Experten und dergleichen
Voraussetzungen: keine
Schwierigkeitsgrad: Basic
Julia Zukrigl war Analystin, die bei so manchem Datenprojekt einfach nicht zu Entscheider:innen und User:innen durchgedrungen ist. Doch dann erinnerte sie sich an ihren Ursprung als Verhaltensforscherin, hat das Wissen über menschliches Entscheidungs- und Informationsverhalten auf die Welt der Daten umgelegt und mit wirksamen Kommunikationstechniken verknüpft. Heute teilt sie diesen Data-Storytelling-Methodenkoffer mit Datenexpert:innen als Head-Trainerin im DATA story LAB.
Beim 'Data & Analytics Escape Room' sind analytische Fertigkeiten Schlüssel zum Erfolg. In diesem interaktiven Spiel bewältigen Teams von 3-6 Mitgliedern gemeinsam Daten-Herausforderungen. Nutzen Sie SQL für Spurensuche, konfigurieren Sie ML-Modelle für Hinweise und bereinigen Sie fehlerhafte Daten, um voranzukommen. Sind Sie bereit, Ihre analytischen Fähigkeiten in einem Rennen gegen die Zeit zu testen?
Max. Teilnehmendenzahl: 30
Für die Teilnahme wird ein Laptop benötigt.
Zielpublikum: Data Analysts, Data Engineers, Data & Analytics Enthusiasts, Data Practioners, Data Scientists, ML Engineers
Voraussetzungen: SQL, Data Analysis, Python(basic)
Schwierigkeitsgrad: Advanced
Florian Dindorf ist Consultant bei b.telligent. Er arbeitet seit 7 Jahren im BI-Bereich. Erst als dualer Student und Entwickler in einem Handelsunternehmen und anschließend als Berater. Der Fokus liegt dabei im BI-Backendbereich und im Data Engineering mit einer Passion für den Modern Data Stack.
Lennart Dangers baut bei linkFISH Consulting GmbH Brücken zwischen fachlichen Anforderungen, Konzeption und technischer Umsetzung. Als Consultant für Business Intelligence und Data Analytics sind seine Schwerpunkte Advanced Analytics und Weiterentwicklung im Modern Data Stack.
Vortrag Teilen