Track: Branchentrack Finanzindustrie
- Mittwoch
24.06.
Was ist zu tun um eine KI Einheit erfolgreich im Unternehmen zu etablieren. Basierend auf dem Kapitel des neuen TDWI KI Buches, wird ein Vorgehen vorgestellt und eingeführt. Das Vorgehen wurde bereits mehrmals in Finanzkonzernen erfolgreich umgesetzt.
Zielpublikum: Management
Voraussetzungen: Data, AI and Management understanding
Level: Basic
Die Raiffeisen Information Service KonsGmbH (RIS) ist der zentrale IT-Dienstleister der Südtiroler Raiffeisenkassen.
Wir präsentieren den Aufbau eines Datalake in der RIS, um die zukünftige Datenlandschaft der RIS skalierbar, flexibel und effizient auszurichten.
Der Datalake stärkt die Rolle der RIS als datenorientierter Dienstleister im Raiffeisenverbund, schafft die Basis für Analytics und KI-Use Cases wie Predictive Banking und LLM-basierte Anwendungen für die Raiffeisenkassen und verhindert…
Wir beschreiben Wege bei der Modernisierung der Datenlandschaft bei der Zurich Gruppe Deutschland. Gestartet in den frühen 2000ern mit einem klassischem DWH, der Erweiterung um einen Data Lake in Form einer sog. "Graswurzelbewegung" bis hin zur Konsolidierung der beiden Ansätze in einem Data Lakehouse. Wir diskutieren die Erfolgsfaktoren für diesen evolutionären Ansatz. In einem dritten Teil diskutieren wir die Herausforderungen bei der Überführung in eine Data Lakehouse Architektur und unsere…
Trotz historischer Systemlandschaften, begrenzter Ressourcen und strenger regulatorischer Anforderungen ist es einem Versicherungsunternehmen (HanseMerkur) gelungen, ein leistungsfähiges, near-real-time Data Warehouse aufzubauen – ganz ohne Cloud, moderne ETL-Plattform oder Big-Bang-Ansatz. Der Vortrag und ergänzende techn. Deep-Dive reflektieren, wie unter realen Rahmenbedingungen eine zukunftsfähige Datenplattform entstehen kann: mit klarer Strategie, konsequenter Automatisierung, modularer…
Der Vortrag zeigt die Reise der ILB – von interner Nutzenkommunikation u. aufsichtsrechtlichen Vorgaben (RDARR) für das Metadatenmanagement bis zur Umsetzung im Metadatentool – mit Strukturaufbau, Datenanbindung, Data Lineage. Ein Deep Dive beleuchtet die Berechnung zentraler Risikokennzahlen, kritische Datenelemente sowie Auswirkungen auf die Datenqualitätsprüfung. So erhalten die Teilnehmer Live-Insights in die Bereiche Kennzahlenermittlung im Risikocontrolling, abstrakte Abbildung im…
Customer Experience beginnt im Verständnis realer Kundenreisen. In diesem Vortrag zeigen wir, wie Customer Journeys über mehr als 120 digitale Bankprozesse hinweg analysiert und vergleichbar gemacht werden können, trotz stark unterschiedlicher Strukturen und Abläufe. Anhand konkreter Beispiele demonstrieren wir, wie Journey Analytics Optimierungspotenziale sichtbar macht und die Customer Experience messbar verbessert. Zudem geben wir Einblicke in die technische Architektur, die diese Analysen im…
