Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Track: Branchentrack Finanzindustrie
- Mittwoch
12.06.
AssetMetrix hat die bisher genutzte Reporting-Lösung für Private-Equity-Berichte komplett auf eine moderne, datengetriebene Technologie umgestellt.
Dazu wurden über 200 verschiedene Elemente identifiziert, die flexibel zu Berichten kombinierbar sein müssen. Diese Charts, Texte, Grafiken und Tabellen sollten zudem kundenspezifische Layoutanforderungen sowie I18N berücksichtigen.
In diesem Beitrag erklären wir die Anforderungen, gehen auf die Umsetzung ein und ziehen ein Resümee.
Zielpublikum: Projektleiter, CIO, Head of Reporting, Head of Controlling
Voraussetzungen: Grundsätzliches Interesse an automatisiertem Reporting
Schwierigkeitsgrad: Basic
Extended Abstract:
AssetMetrix nutzte für die Reporterzeugung vor Projektbeginn eine auf Microsoft Office basierende Softwarelösung. Aufgrund steigender quantitativer und qualitativer Anforderungen sollte der Reporterstellungsprozess auf eine moderne, datengetriebene Technologie gehoben werden.
Nach einer umfassenden Analyse hat AssetMetrix dazu über 200 verschiedene Elemente identifiziert, die flexibel in einer Reportinglösung kombinierbar sein müssen. Diese Charts, Texte, Grafiken und Tabellen mit fachlichen Private-Capital-Inhalten sollten zudem kundenspezifische Layoutanforderungen berücksichtigen.
Der einzelne Report muss sich dabei als homogenes Ganzes verhalten, in Sekunden produziert werden können und optisch den hohen Ansprüchen institutioneller Investoren gerecht werden.
Die Verwendung einer Pixel-perfekten Lösung, in der jeder Report kundenindividuell aus den verfügbaren Reporting-Elementen zur Laufzeit konfiguriert werden kann, war eine zentrale Anforderung an die Lösung.
Weiterhin müssen zur Laufzeit Schriftarten und -größen sowie Stylevorgaben (Tabellenlayouts, Header/Footer, Coverpages) aus einer Konfigurationsdatenbank gelesen werden und in die Berichterstellung einfließen. Alle Reporting-Elemente müssen außerdem auf die gewählte Berichtsprache (DE, EN, ES, FR, JP etc.) reagieren und neben entsprechenden Übersetzungen statischer und dynamischer Texte auch Zahlen- oder Datumsformate integrieren.
Hinzu kommen weitere Anforderungen bzgl. kundenindividueller Spezialreports (sog. One-Pager), die für jedes, in einem Fonds enthaltene Investment einzelne Berichtsteile automatisch wiederholen und mit eigenen Kapitelstrukturen ausstatten. Diese dynamischen Berichtsteile müssen sich ebenso nahtlos in die regulären Kundenreports integrieren lassen wie alle anderen Berichtselemente.
- Große Zeitersparnis und deutlich reduzierte Fehleranfälligkeit durch automatisierte Berichterstellung
- Wiederverwendbarkeit der Reporting-Elemente
- Vereinheitlichung des Erstellungsprozesses für alle Kunden
- Erweiterung des Funktionsspektrums (z. B. One-Pager)
- Selbstdokumentation durch neue Metadaten
- Problemlose Reproduzierbarkeit von Reports
- Hohe Akzeptanz dank anwenderfreundlichem Setup
In diesem Beitrag erklären wir die Anforderungen, gehen auf die Umsetzung mit Jaspersoft ein und ziehen ein Resümee.
Dr. Johannes Held berät bei der PRODATO umfänglich zu den Themen Datenstrategie und Datenwertschöpfung. Seine Kernthemen dabei sind Berichts- und Datenstrategielösungen. Dabei legt er seinen Fokus auf eine Umsetzung mittels Datenvirtualisierung sowie den Einsatz der moderne NoSQL-Datenbank Couchbase.
Er ist diplomierter Informatiker und promovierte an der FAU zum Thema Datenqualität für Testdaten.
Michael Hoffmann leitete das Projekt zur Einführung einer modernen Private-Capital-Reportinglösung in der Asset Metrix GmbH. Seit 2019 verantwortet er dort das Data Enrichment, das Reporting und die Reportingportale. Zuvor war er 12 Jahre bei einer großen KVG tätig und verantwortete zuletzt das Reporting, das Datenmanagement sowie das Performance- und Risikocontrolling. Herr Hoffmann hält einen M. Sc. in Praktischer Informatik sowie ein Diplom in Wirtschaftsinformatik.
Ein leicht verständliches Datenmodell bildet in der apoBank die Basis, um Mitarbeitern im Self-Service die Möglichkeit zu geben, ohne tiefe IT-Kenntnisse schnell Reports und Datenausleitungen zu erstellen. Flankierend zum Datenmodell wurde zudem ein Data-Governance-Tool eingeführt, welches es den Mitarbeitern ermöglicht, sich über Daten, Zuständigkeiten und Datenflüsse zu informieren. So entstehen im Reporting-Alltag große Mehrwerte bei gleichzeitiger Ausrichtung der kompletten Architektur an den Vorgaben der BCBS239 und MaRisk.
Zielpublikum: Fachanwender Finanzindustrie, Data Governance Manager, DWH-Verantwortliche, Data Manager, BI-Analysten
Voraussetzungen: keine
Schwierigkeitsgrad: Basic
Extended Abstract:
Daten spielen in vielen Unternehmen eine zunehmend zentrale Rolle. Dies betrifft sowohl die interne Steuerung als auch Entscheidungen über Maßnahmen für die Ausrichtung des Vertriebs. Dabei werden die Daten im Sinne der klassischen Business Intelligence in Reports und Ad-hoc-Abfragen, aber auch im Umfeld der Advanced Analytics mit Algorithmen der Künstlichen Intelligenz genutzt.
Ziel der Datenbereitstellung muss es mehr und mehr sein, auch Mitarbeiter ohne tiefe (technische) Kenntnisse der Datenmodellierung in die Lage zu versetzen, Auswertungen zu erstellen und Daten ohne Hilfe von Datenexperten zu nutzen. Dies ist aber auf Grund der zum Teil komplexen Datenmodelle und fehlender Beschreibungen der Daten für Fachanwender nur sehr schwer möglich. In dieser Hinsicht unterscheiden sich Banken kaum von anderen Unternehmen. In Banken kommt jedoch hinzu, dass regulatorische Vorgaben der BCBS239 und der MaRisk fordern, dass es eine ausgeprägte Data Governance für insbesondere jene Daten gibt, die für die Risikosteuerung verwendet werden. Es muss also in der gesamten Architektur neben den eigentlichen Daten insbesondere auch die Erfassung von Metadaten, Zuständigkeiten und Data Lineage adressiert werden.
Die Deutsche Apotheker und Ärztebank e.G. (apoBank) arbeitet seit einigen Jahren an der Implementierung und Erweiterung des 'Fachlichen Datenmodells' sowie den flankierenden regulatorischen Maßnahmen. Der Anspruch des Datenmodells im Sinne der 'Abbildung der Fachsprache der Bank' ist sehr herausfordernd, schafft aber enorme Potenziale bei der Befähigung der Banker, eigenständig Reports und Analysen auf den Daten zu erstellen. Da das Kernbanksystem heute ein eher technisches Datenmodell besitzt, war der Weg der Harmonisierung und Transformation der Daten in die Fachsprache komplex. Ziel des Datenmodells ist es, historisierte und materialisierte Tabellen zu erschaffen, die schnell und performant abgefragt werden können. Dazu wurde auf der einen Seite darauf geachtet, dass die Entitäten und Attribute des Datenmodells exakt in der Sprache der Fachanwender benannt wurden, gleichzeitig aber möglichst wenig Joins bei Abfragen benötigt werden. Zudem werden umfangreiche Metadaten erfasst, damit die Nutzung der Daten nicht zu unterschiedlichen Interpretationen führt. Der eigentliche Zugriff erfolgt dann mit gängigen Reportingtools und einfacher SQLs. Alle Informationen rund um das Datenmodell werden im Data-Governance-Tool dataspot. vorgehalten. Die Mehrwerte dieses Ansatzes zeigten sich bereits sehr schnell nach der Einführung der ersten Versionen des fachlichen Datenmodells mit seinen Metadaten.
Die Nutzung von dataspot. als integraler Bestandteil der Data-Warehouse-Architektur begann Mitte 2023. Dataspot. wird sukzessive mit den relevanten Informationen aus dem Data Warehouse und den umliegenden Systemen um die Metadaten zu Datenquellen, Data Lineages und Datenverwendungen sowie organisatorische Zuständigkeiten ergänzt. Diese orientieren sich zu Beginn an den Vorgaben der BCBS239 und MaRisk, sollen aber dauerhaft auf andere Datenbereiche ausgeweitet werden.
Das Data-Governance-Tool dataspot. wurde innerhalb von wenigen Monaten eingeführt. Startpunkt war die Durchführung eines Proof of Concepts anhand von konkreten praktischen Beispielen. Im Zentrum der Betrachtung standen:
- Erfassung und Pflege von Metadaten
- Verwaltung und Visualisierung der fachlichen und technischen Data Lineage
- Fachliche Modellierung von Data-Dictionary-Objekten und grafische Darstellung
- Erstellung und Pflege von Rollen & Verantwortungen
Nach der Entscheidung für dataspot. erfolgte der Aufbau der Data-Excellence-Organisation und die Einführung der Software nach der dataspot.-Blueprint-Methode. Diese beinhaltet sowohl den unternehmensweit geschaffenen Metadatenstandard für die apoBank als auch die Modellierungsvorgaben (Sprache, Umfang, Granularität, ...) für die Datenmodelle:
- Welche Arten von Metadaten (technische, fachliche, Governance-Metadaten) werden erfasst?
- Welche Metadatenmodelle und Elemente werden gepflegt und von wem?
- Wie hängen die Metadatenmodelle zusammen? Welche Zusammenhänge werden modelliert?
- Wie werden die Informationen so plakativ mit dem Fachlichen Datenmodell des DWH verbunden, damit der Anwender das Tool auch in der Praxis als Mehrwert im täglichen Reportingumfeld nutzt?
Ein besonderes Augenmerk wurde zudem auf die Anbindung von technischen Metadaten aus dem Data Warehouse und den angebundenen Quellsystemen gelegt, denn nur wenn die Aktualisierung automatisch erfolgt, kann gewährleistet werden, dass die vorgehaltenen Modelle auch aktuell sind. Die Verbindung der fachlichen mit den technischen Datenmodellen ist dann die zentrale Voraussetzung für eine durchgängige End-to-End-Lineage. Ebenfalls im Fokus standen die Transformationen im Metadaten-Tool: Um die vertikale und horizontale Lineage gut unterscheiden zu können, wurden 12 verschiedene Stereotype für die Arten der Mappings definiert. Diese determinieren die notwendigen Workflows zur Erfassung von Freigabe von Änderungen, die ebenfalls konfiguriert wurden.
Insgesamt bildet das Data Warehouse mit dem Fachlichen Datenmodell in Kombination mit dataspot. und den darin enthaltenen Metadaten-Beschreibungen nun eine Basis, apoBanker schrittweise in Eigenverantwortung an die richtigen und relevanten Daten zu bringen und in Zukunft konform zu regulatorischen Anforderungen Erweiterungen in der Architektur zu implementieren.
Ruth Greive ist Referentin für Data Analytics in der apoBank und verfügt über mehr als 10 Jahre Erfahrung im Bereich Datenmanagement. Ihr Themenschwerpunkt liegt im Bereich Data Governance und dort insbesondere auf dem Fachlichen Datenmodell. Mit diesem will sie Fachkolleg:innen die Möglichkeit geben, selber Reports zu erstellen und Daten auszuwerten.
About 15 years ago, the finance sector pioneered data and analytics with developments like central Data Warehousing solutions and the establishment of BICC organizations. Recently, innovation has shifted towards public cloud and industries like automotive, significantly transforming the landscape. The finance sector, encountering similar challenges, is actively navigating the transition to the cloud. This presentation aims to highlight industry shifts in data management, addressing challenges and opportunities for the finance sector.
Target Audience: Everyone, who is interesting about the further development of data architecture for finance sector
Prerequisites: No prerequistes
Level: Basic
Dr. Xuanpu Sun currently serves as the Lead IT Architect for Data & Analytics at Landesbank Baden-Württemberg (LBBW). He possesses extensive research experience in the fields of Business Intelligence, Big Data, and Data Analysis. Throughout his career, he has worked in various industries, including manufacturing, banking, and automotive. His previous positions include the Lead Data Architect role at Mercedes-Benz AMG and the Bausparkasse Schwäbisch Hall.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/xuanpu-sun/
Vortrag Teilen
ESG bekommt für Versicherer eine immer größere Bedeutung. So spielt es bspw. beim Design neuer Produkte, Bewertung von Kunden, der Geldanlage, dem ethischen Umgang mit Daten und KI eine immer wichtigere Rolle.
Welche Aspekte von ESG haben einen Einfluss auf Versicherer und wie können diese durch Daten und KI unterstützt werden.
Im Text werden Anwendungen für Enviromental, Social und Governance an konkreten Beispielen vorgestellt und eingeordnet.
Zielpublikum: ESG Interessierte
Voraussetzungen: keine
Schwierigkeitsgrad: Basic
Dr. Michael Zimmer ist Chief Data & AI Officer und Leiter des Kompetenzzentrum für KI in der W&W-Gruppe. Michael wird die strategische Kompetenz in der W&W-Gruppe auf diesem Gebiet ausbauen. Er hat über Agilität von Datenarchitekturen promoviert und war vor seiner Zeit bei der W&W CDO der Zurich Gruppe deutshcland und mehr als 13 Jahre in der Beratung tätig. Er ist Herausgeber und Autor diverser Bücher und unter anderem TDWI Fellow, männlicher Alliierter der Woman Leaders in Data & Analytics (WLDA) sowie Mitglied der Arbeitsgruppe Ethical AI der deutschen Aktuarsvereinigung.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/michael-zimmer/
Der Vortrag schildert die Transformation der Viridium zum datengetriebenen Versicherer, getrieben durch das Risikomanagement. Er beleuchtet die vielfältigen Aspekte dieser Reise - von der Einbindung der Menschen und Automatisierung über den Einsatz von KI und Analytics bis hin zur Entwicklung der IT- und Daten-Infrastruktur. Diese organische Entwicklung zeigt, wie eine ganzheitliche Datenintegration in allen Unternehmensbereichen echten Mehrwert schafft, und stellt den Weg der Viridium als Modell für die Branche dar.
Zielpublikum: Data Decision Makers, Data Leaders, Data Strategists, Change Agents, Data Architects, Project Leader, Citizen Data People
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced
Extended Abstract:
In meinem Vortrag stelle ich die umfassende Transformation der Viridium zum datengetriebenen Versicherungsunternehmen vor, eine Entwicklung, die maßgeblich durch das Risikomanagement initiiert und vorangetrieben wurde. Ich werde beleuchten, wie wir durch die Einbindung unserer Mitarbeiter, die Nutzung von Automatisierungstechnologien, Künstlicher Intelligenz und Analytics sowie durch den Ausbau unserer IT- und Dateninfrastruktur eine tiefgreifende Veränderung in unserer Unternehmenskultur erreicht haben.
Ein Schlüsselaspekt meines Vortrags ist die Erläuterung, was es wirklich heißt, datengetrieben zu arbeiten. Ich werde darlegen, dass dies über die reine Anwendung von KI hinausgeht und die allumfassende Nutzung von Daten in sämtlichen Unternehmensbereichen einschließt. Dies ermöglicht es uns, operative Prozesse zu verbessern, datenbasierte Entscheidungen zu treffen und unsere Arbeitsabläufe zu standardisieren.
Im Fokus steht dabei die Anfangsphase unseres datengetriebenen Risikomanagements, die von manuellen Prozessen und einem begrenzten Zugang zu Rohdaten geprägt war. Die Einführung der Programmiersprache R führte zu einer effektiven Automatisierung und Analyse unserer Daten, wodurch wir die Arbeitsqualität verbessern und neue strategische Wege einschlagen konnten.
Die Errichtung einer robusten Analytics-Infrastruktur und Einführung der Daten-Virtualisierung markierte einen weiteren wesentlichen Schritt. Diese Maßnahmen verbesserten die Nutzung, Sicherheit und Governance unserer Daten. Zudem ermöglichte die Integration verschiedener Datenquellen und Systeme eine flexiblere und effizientere Datenverarbeitung.
Die Erweiterung unserer Tool-Palette um Python und andere Entwicklungsumgebungen förderte die interne Zusammenarbeit und den Austausch im Unternehmen. Wir erkannten zudem die Bedeutung der Einbindung aller Mitarbeiter in den datengetriebenen Prozess und boten entsprechende Schulungen an, um eine breite Akzeptanz und Nutzung unserer Analytics-Plattform zu erreichen.
Zum Abschluss meines Vortrags werde ich unsere zukünftigen Pläne vorstellen, die darauf abzielen, unsere datengetriebenen Prozesse weiterzuentwickeln und zu verfeinern. Wir streben danach, eine unternehmensweite Datenkultur zu schaffen und zu fördern. Die Einführung von Power BI und die geplante Integration von Julia in unsere Plattform zeigen unser Bestreben, alle Mitarbeiter einzubeziehen und unsere Position als datengetriebenes Unternehmen zu stärken.
Insgesamt zeigt dieser Vortrag auf, wie Viridium durch eine organische Entwicklung und die ganzheitliche Integration von Daten in sämtlichen Unternehmensbereichen nicht nur effizienter und innovativer wurde, sondern sich auch als Vorbild in der Versicherungsbranche etabliert hat.
Mit Fundamenten in Actuarial Science, Computer Science und Wirtschaftswissenschaften ist Dr. Jan-Hendrik Weinert ein Datenstratege und Experte für Risk Analytics, der sich dafür einsetzt, eine Kultur der datengetriebenen Entscheidungsfindung in der Finanz- und Versicherungsbranche voranzutreiben. Als Architekt der unternehmensweiten Analytics-Plattform und eines Datenvirtualisierungslayers der Viridium Gruppe fördert er die unternehmensweite, dezentrale Zusammenarbeit mit Daten und beschleunigt die Entwicklung hin zu einem datengetriebenen Versicherer. Sein Engagement trägt dazu bei, die Lücke zwischen Technologie und Geschäftswelt zu schließen.
Die Finanzindustrie hat es bei der Einführung von Cloudlösungen schwerer als andere Branchen. In vielen Fällen dominieren Sorgen, mit der Einführung von Cloudtechnologien gegen bankrechtliche Vorgaben wie das Kreditwesengesetz oder gesetzliche Vorgaben der Bundesanstalt für Finanzdienstleistungen zu verstoßen. Dieser Sorgen sind sich Cloudanbieter bewusst und Lösungen wie Power BI oder Snowflake implementieren von Haus aus Features, um die Einführung von Cloudtechnologen im Einklang mit bankrechtlichen Vorgaben zu ermöglichen.
Zielpublikum: Projektleiter, Entscheidungsträger
Voraussetzungen: Wissen im Bankenumfeld
Schwierigkeitsgrad: Basic
Extended Abstract:
Cloudtechnologien sind in vielen Branchen auf dem Vormarsch. Die Finanzindustrie als stark reguliertes Gebiet hingegen hat es bei der Einführung von Cloudlösungen deutlich schwerer als andere Branchen. In vielen Fällen dominieren Sorgen, mit der Einführung von Cloudtechnologien gegen bankrechtliche Vorgaben wie das Kreditwesengesetz oder gesetzliche Vorgaben der Bundesanstalt für Finanzdienstleistungen (BaFin) zu verstoßen. Dieser Sorgen sind sich Cloudanbieter bewusst und Lösungen wie Power BI oder Snowflake implementieren von Haus aus Features, um die Einführung von Cloudtechnologen im Einklang mit bankrechtlichen Vorgaben zu ermöglichen. Im Vortrag stellen wir BaFin-Vorgaben und Features von Power BI und Snowflake gegenüber, die den Wechsel in die Cloud erleichtern. Des Weiteren gehen wir auf die speziell für den europäischen Markt angekündigte AWS-Lösung 'AWS European Sovereign Cloud' ein, die zusätzliche Sicherheit im Bereich der regulierten Industrien geben soll.
Dr. Ina Humpert ist Mathematikerin und als Beraterin bei der viadee IT-Unternehmensberatung tätig. Ihr Schwerpunkt ist Data Engineering auf SQL basierten Datenbanken im Bankenumfeld. Außerdem interessiert sie sich für Daten-Visualisierung unter anderem mit Power BI.
Marissa Quante ist Beraterin bei der viadee Unternehmensberatung AG. Ihr aktueller Schwerpunkt liegt im Bereich Data Warehousing, Data Engineering und Analytics im Bankenumfeld. Sie ist Snowflake Core zertifiziert und begeistert sich für die Themen Snowflake und Cloud.
Vortrag Teilen