Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Track: Case Study
- Dienstag
11.06. - Mittwoch
12.06. - Donnerstag
13.06.
Für das weltweit tätige Unternehmen Fressnapf ist der moderne und alltägliche Umgang mit Daten der Kern der Wertschöpfungskette.
Die Haltung des Managements zur Messbarkeit von „Happyness“ mittels Daten und einhergehend die Fokussierung auf die „richtigen“ Tätigkeiten, ist das Fundament.
Der Vortrag beschreibt, wie das Unternehmen zur Ausrichtung datenbasiertes Arbeiten kultiviert.
Die Herausforderungen besteht vielmehr darin, moderne Arbeitsweisen und die Haltung in Bezug auf Daten…
Mit dem 'Procurement Data Analyzer' hat die Melitta Gruppe einen entscheidenden Schritt in Richtung eines datengetriebenen Einkaufs getan. Er vereint Einkaufsdaten aus allen Geschäfts- und Unternehmensbereichen und schafft eine einheitliche Analyseplattform. Die Einkaufseffizienz wird essentiell gesteigert durch das Aufdecken von Synergien und Optimierung der Stammdaten. Mit Exasol, Datavaultbuilder und MicroStrategy wurde eine leistungsstarke Lösung mit einen intuitivem Frontend geschaffen, die…
Mit dem EU AI Act wird ein neuer Rahmen gesetzt und Unternehmen müssen sich fachlich und technisch mit AI Governance beschäftigen. Sollten sie auch, denn wie schon in anderen Regulierungen (Basel, Sarbanes-Oxley, Solvency), bieten sich neben der Pflicht zur Einschätzung und Dokumentierung weitere zahlreiche notwendige Ansatzpunkte und Chancen. Welches Unternehmen möchte als nächstes in den Reihen der peinlichen Veröffentlichungen von halluzinierenden oder rassistischen Bots aufgenommen werden?…
Weitere Informationen zu dieser Case Study folgen.
In der fabelhaften Welt der Technologie und Daten lebte ein mutiges Entwicklerteam, das auf der Suche nach dem sagenumwobenen Data Warehouse war. Doch der Weg war voller Herausforderungen: Merge-Konflikte wie dichte Nebelschwaden und Codefehler-Drachen versperrten ihnen den Weg. Da trat der weise Zauberer Datavault Builder auf den Plan. Mit seinem magischen Wissen über Datenmodellierung half er den Helden, die Geheimnisse des Data Warehouses zu entschlüsseln. Gemeinsam kämpften sie gegen die…
GenAI ohne Automatisierung – NOGO! Gemeinsam mit valantic hat Toyota Deutschland GenAI-gestützte Services entwickelt, die sowohl innerhalb des Unternehmens, Handelspartnern, Dienstleistern als auch bei Fahrzeughaltern als virtuelle Assistenten zum Einsatz kommen. Im Vortrag präsentiert Toyota das preisgekrönte Erfolgsprojekt eCare und zeigt darüber hinaus, in welchen Unternehmensbereichen (Gen)AI und modernste Chat-/Voicebot-Technologien in einem plattformübergreifenden Ansatz (Composable…
Weitere Informationen zu dieser Case Study folgen.
Automatisierungsplattformen werden zunehmend metadatengesteuert und nutzen Metadaten, um Datenmanagementprozesse zu orchestrieren und zu automatisieren. Automatisierungstools können Aufgaben wie Datenintegration, -umwandlung und -verwaltung intelligent automatisieren, indem sie Metadaten nutzen, um die Struktur, Beziehungen und Herkunft von Datenbeständen zu verstehen.
VaultSpeed ist ein Pionier in dieser Entwicklung. Wir bieten das einzige Automatisierungstool, das das Geschäftsverständnis mit…
FINMA Circular 2023/01, which comes into force on January 1, 2024, requires banks to define, identify and monitor the data elements that are considered critical for the successful and sustainable provision of the institution's services or for regulatory purposes. In this presentation the CDO of Banca Stato will outline how the bank as utilized Collibra to build an effective data governance framework and achieved following benefits:
- Improved data quality
- Increased data security
- Enhanced…
Medien sind ein Spiegel unserer Zeit und das Gedächtnis unserer Gesellschaft. Wer Zugang zu ihren Inhalten hat, sie auswerten kann und richtig einzusetzen weiß, hält ein mächtiges Werkzeug in Händen. Das Fraunhofer IAIS entwickelt und nutzt LLM und KI in verschiedenen Projekten. Werfen Sie gemeinsam mit uns einen Blick in die nahe Zukunft unserer Arbeitswelt.
Andre Dörr präsentiert in seinem Vortrag die Evolution seines Hobbys BeatTheBookie zu einem kostengünstigen Geschäftsmodell. Als Data Engineer bei Areto Consulting GmbH zeigt er, wie schlanke Lakehouse-Architekturen dabei helfen, einen vollständigen Business Case umzusetzen. Mit einem Fokus auf Kosteneffizienz demonstriert er, wie diese Architekturen die Herausforderungen der Sportwettenindustrie bewältigen und eine effiziente Datenverarbeitung ermöglichen.
WashTec AG, Weltmarkt- und Innovationsführer im Bereich der Autowaschtechnik, ist auf dem kontinuierlichen Weg zum datengetriebenen Unternehmen. Im Zuge der Digitalisierung werden mit Data Analytics den Waschanlagenbetreibern und Service-Technikern erste Ansätze für ein Predictive Maintenance der Waschanlagen geboten, welche Downtimes vermeidet sowie einen noch effizienteren Betrieb gewährleistet. Mit Anlauf zur digitalen Plattform: Umsetzung von Data Analytics Use Cases bei Autowaschindustrie…
Weitere Informationen zu dieser Case Study folgen.
Abstract
Technologische Alternativen und best practice für Data Lakehouse-Aufbau: Der Vortrag beleuchtet die Herausforderungen bei der Definition einer modernen Datenarchitektur mit Data Lakehouse-Ansatz aus der Praxis. Der Ansatz lässt in der Theorie noch einige Fragen offen. Für IT und Fachbereiche steht ein Paradigmenwechsel an, low-code- und no-code- Lösungen werden genauso wie SQL in Frage gestellt. Was führt letztlich zum Erfolg, was treibt die Kosten und was ist zu beachten? Akademischer…
Viele Unternehmen stehen unter dem Druck, generative KI so bald wie möglich zu implementieren, doch nicht für jeden sind die Risiken klar erkennbar. Neue Forschungsergebnisse von Actian zeigen, dass fast 80 % der Befragten der Meinung sind, ihre Datenqualität sei für diese Aufgabe ausreichend. Doch eine echte Datenvorbereitung benötigt mehr Einsatz, als viele Unternehmen annehmen.
Wie können Sie die Stolpersteine der Datenvorbereitung umgehen, die ein generatives KI-Projekt zum Scheitern bringen…
- Schlüsselanforderungen für Unternehmen entlang des KI-Lebenszyklus
- Möglichkeiten zur Durchsetzung von Compliance und Governance für komplexe Entscheidungsstrecken
- Ganzheitliche Sicht für vertrauenswürdige KI: Von den Daten bis zur Entscheidung
Im Zuge der Entwicklung neuer digitaler Lösungen im Bankengeschäft werden jeden Tag große Datenmengen erzeugt. Die Analyse dieser Daten unterstützt maßgeblich dabei, die Prozessabläufe in Sparkassen effizienter zu gestalten und kundenindividuelle Bedürfnisse zu verstehen.
Dazu werden Daten von Kundenreisen durch die Implementierung standardisierter Messpunkte in Prozessen ausgewertet und den Sparkassen zur Verfügung gestellt, um einen Einblick in die Prozessabläufe zu gewinnen und eine…
Wir sprechen über unsere Erfahrungen, die wir bei der Einführung von Fabric gemacht haben und über mögliche Hürden, die wir auf dem Weg identifiziert haben und wie diese umschifft werden können.
Die Herausforderungen für Data Engineers und -Analysts im Big-Data-Universum ähneln einer intergalaktischen Mission: Sie müssen effizient durch gigantische und komplexe Datenmengen navigieren, die Datenqualität sicherstellen und schnelle, präzise Erkenntnisse aus den Daten gewinnen und visualisieren.
In dieser Case Study zeigen wir, wie die Kombination aus der leistungsstarken Aviator Database (Vertica) und der flexiblen Aviator Intelligence (Magellan) bei der Überwachung eines Mobilfunknetzes…
Dieser Vortrag gibt Einblicke in die Historie des Data Warehousings bei GRENKE und damit einhergehend in die erfolgreiche Implementierung von Data Vault 2.0 und dbt in Zusammenarbeit mit Scalefree. Wir diskutieren die gewonnenen Erkenntnisse und Vorteile dieser neuen Technologien und Methodiken. Außerdem betrachten wir die Entwicklung und Integration eines Fachdatenmodells in das Data Warehouse und dessen Relevanz und die daraus resultierenden Vorteile für die Datenverarbeitung bei GRENKE.
Wir…
Der Bedarf an ein schnelles Deployment auf die verschiedenen Stages wächst immer mehr. Durch den Einsatz von WhereScape konnten im Bereich des DWH und DataLake der Helsana bereits erste Optimierungen und Beschleunigungen erreicht werden. Diese Case Study gibt einen Einblick welche Optimierungsmöglichkeiten beim Einsatz von WhereScape in Verbindung mit 2Version für ein automatisiertes Deployment vorhanden sind und wie diese in der Helsana umgesetzt wurden.
Wie wir nach 70+ erfolgreichen Implementierungsprojekten Snowflake für unsere Kunden einrichten. Schnell umgesetzt, leicht erweitert, dank Infrastructure-as-Code Ansatz skalierbar und versionskontrolliert. Kein lästiges Herumklicken in der UI mehr. Alle Informationen an einem Ort. Einfach, verständlich, und optimiert für gute Kostenkontrolle. Der perfekte Start in eine gute Snowflake Implementierung.