- Dienstag
24.06. - Mittwoch
25.06. - Donnerstag
26.06.
Als Datenexpert:innen möchten wir, dass unsere Entscheider:innen endlich datengetriebene, rationale Entscheidungen treffen. Doch: Oft fällt es uns schwer, unsere Kollegen von Bauchentscheidungen abzuhalten und unsere Dashboards, Datenservices und KI-Produkte bei den Usern so richtig zum Durchbruch zu bringen. Die schlechte Nachricht zuerst: Das menschliche Gehirn ist biologisch gar nicht in der Lage dazu, data-driven rationale Entscheidungen zu treffen, so wie wir uns das idealisiert vorstellen.…
Die HUK-COBURG befindet sich im Aufbau einer neuen On-Premise-Datenplattform, ersetzt ihren Data-Techstack durch die Stackable Data Platform und stellt diesen Stack dabei nahezu gänzlich auf den Kopf. Server werden zu Containern, Impala zu Trino, HDFS zu S3.
Die Schwächen der derzeitigen Plattform liegen unter anderem in mangelnder Flexibilität, begrenzter Skalierbarkeit und fehlenden GitOps-Möglichkeiten. Im Talk werden neue und alte Plattform mit Fokus auf diese Schwächen und Technologien…
Als Bottom-Up-Initiative des Business Intelligence Competence Centers begonnen erfreut sich Data Governance innerhalb der HUK-COBURG einer wachsenden Bekanntheit. Dies ist die Folge der Definition von Rollen, der Durchführung von Schulungen, der Entwicklung von Prozessen und Workflows, dem Ausbau des Datenkatalogs und vielem mehr. In diesem Jahr haben wir die Pilotphase verlassen, binden auch operative Systeme an den Datenkatalog an und etablieren weitere Prozesse.
Zielpublikum: Data Governance…
Artikel 4 im AI Act zieht gerade in Ihr Unternehmen ein. Mit nur 75 Wörtern wirkt er unscheinbar, doch er hat es in sich: Ab dem 2.2.2025 verlangt er von Unternehmen, dass alle, die dort mit KI arbeiten, über ausreichende KI-Kompetenzen verfügen. Doch was bedeutet „ausreichend“? Wer ist betroffen? Wie erfolgt der Kompetenznachweis? Und was droht bei Nichteinhaltung?
Wir erklären anschaulich und praxisnah, welche Anforderungen für Ihr Unternehmen aus Art. 4 resultieren und wie Sie das Trojanische…
In logistics, scalability and reliability are essential. Load testing ensures performance under growing demands, but manual analysis is time-consuming and overlooks critical factors like latency and resource use.
Learn how we integrated AI into load test analysis to automate result evaluations. AI analyzes complex data, providing actionable insights and identifying issues like memory leaks and CPU inefficiencies. This approach helps us scale quickly, meeting resilience goals and maintaining 95%…
In diesem Workshop lernen Sie, wie Retrieval Augmented Generation (RAG) funktioniert und warum Vektordatenbanken wie PostgreSQL pg_vector hierbei so entscheidend sind. Schritt für Schritt bauen wir ein RAG-System auf, das Wissensquellen erschließt und die Generierung von Texten durch Large Language Models (LLMs) verbessert. Obwohl wir PostgreSQL (alternativ FAISS als Vektorindex) als Beispiel nutzen, lassen sich die vorgestellten Konzepte problemlos auf andere Vektor-Datenbanken übertragen.
Maxi…
Bei der Disposition von Zügen im Bahnverkehr müssen sich die Infrastrukturdisponenten der DB InfraGO und die Eisenbahnverkehrsunternehmen abstimmen. Momentan geschieht dies oftmals telefonisch. Hier setzt die DB InfraGO nun mit einer Kombination aus KI unterstützten Dispositionsvorschlägen, automatisierten Vorprüfungen der Umsetzbarkeit und einem Ansatz für den digitalisierten Informationsaustausch neue Maßstäbe. In unserem Vortrag zeigen wir, wie man in einem hochregulierten Bereich der…
Wer hätte schon gedacht, dass eine kreative Träumerin im Controlling oder Business Intelligence Fuß fasst und glücklich wird?
Wie konnte es passieren, dass sie in den Augen ihrer Chefin plötzlich "zu technisch" war?
Und was treibt sie heute an, greifbare Datenprozesse und innovative Datenprodukte mit Leidenschaft zu gestalten?
In dieser inspirierenden und humorvollen Session erfährst du, wie du dich in unbekannte Datenlandschaften einarbeitest und dich den vielfältigen Herausforderungen deines…
Daten allein genügen nicht – ohne die richtige Kultur droht Chaos. Doch was ist Data Culture, und warum ist sie entscheidend? Der Vortrag nutzt die maritime Welt von Master and Commander, um datengetriebene Unternehmenskultur zu veranschaulichen: Unternehmen als Schiff, Strategie als Seekarte, Governance als Kompass und Data Literacy als gut ausgebildete Crew. Erfahren Sie, wie eine starke Data Culture Innovation, Zusammenarbeit und fundierte Entscheidungen fördert und Teams zusammenhält.
Zielpu…
In unserem Beitrag stellen wir ein Echtzeitreporting für den Einzelhandel vor. Es wird gezeigt, wie eine NoSQL-Datenbank die Verkaufsdaten der POS-Systeme in Echtzeit verarbeitet und wie sie als Berichte zur Verfügung gestellt werden können. Mit jeder Transaktion im POS werden strukturierte Daten (XML) über ein EMS an die Datenbank übermittelt.
In der aktuellen Ausbaustufe werden mehr als 2 Mio. Dokumente pro Tag verarbeitet. Die Architektur entkoppelt dabei das Berichtswesen von der Beladung…
Data Contracts erlauben in einer dezentralen Datenarchitektur (Data Mesh) auch eine dezentrale Governance und stellen Vertrauen her. Wir möchten euch zeigen, wie die Mobiliar dies bei sich umsetzt. Wir stellen den verwendeten offenen Industriestandard der Linux Foundation "Open Data Contract Standard" vor und zeigen auf, wie damit Ownership, Data Quality, Privacy&Terms spezifiziert und aber eben auch automatisiert sichergestellt und überwacht wird. Seid gewarnt: there will be YAML.
Zielpublikum:…
Die idem telematics GmbH hat einen KI-Assistenten entwickelt und in ihre Plattform Cargofleet 3 integriert.
Der Assistent soll sprachgesteuert und mit einer Ausgabe in natürlicher Sprache auf komplexe Fragen präzise antworten, ohne dass ein Datenverständnis notwendig ist. Der Assistent nutzt ein mehrstufiges LLM-Verfahren, um über notwendige Datenzugriffe zu entscheiden und anschließend dynamisch Datenbank-Statements zu generieren.
Der Vortrag gibt einen näheren Einblick in das Projekt und…
Viele Unternehmen verarbeiten Papier- und PDF-Dokumente manuell, was zeitaufwendig und fehleranfällig ist. Moderne Technologien wie Künstliche Intelligenz bieten hier enormes Optimierungspotenzial.
Der Vortrag zeigt, wie ein flexibles KI-Multi-Agenten-System zur automatisierten Dokumentenverarbeitung eingesetzt werden kann.
Anhand eines Beispiels aus dem Versicherungswesen wird aufgezeigt, wie individuell vorgegangen werden kann und was auf zahlreiche weitere Anwendungsfälle übertragbar ist.
Z…
This session explores the challenges and opportunities of applying AI in regulated industries, focusing on software development for compliance-critical environments. Using our cloud-native diagnostics platform as a case study, I will demonstrate how we achieved AI-driven USPs, addressing the needs of customers in highly regulated sectors. The session will also explore future applications of AI in fields like crime scene investigation.
Target Audience: IT and Business Leaders of Regulated…
Wie bündelt man Kundendaten DSGVO-konform aus konzernweiten Quellen, um eine zentrale Customer-360-Sicht für eine personalisierte Kundenansprache zu schaffen? Wir zeigen Ihnen, warum zentrales Data Management entscheidend ist, um diese Herausforderung durch klare Governance und hohe Datenqualität zu lösen. Erfahren Sie, wie Governance und Datenschutz von Beginn an eingebunden werden, um eine personalisierte Kundenansprache risikofrei zu ermöglichen.
Zielpublikum: Data Managers, Marketing…
Low-Code-Umgebungen, wie Oracle APEX, erlauben es, Anwendungen mit hoher Produktivität zu erstellen. Während sich Low Code bislang vor allem mit besagter Produktivität und der Integration in die Unternehmenslandschaft beschäftigt, rückt KI hier mehr und mehr in den Fokus. KI und Low Code kann einerseits bedeuten, den Anwender beim Entwickeln zu unterstützen – so kann KI SQL-Abfragen schreiben oder bei der Fehleranalyse helfen.
Zielpublikum: Entwickler, Architekten, Führungskräfte, Datenanalysten
…
Die Hapag-Lloyd AG hat sich als First-Mover entschieden, ihre gesamte Containerflotte mit Tracking Devices auszustatten, wodurch die Position in regelmäßigen Intervallen verfolgt werden kann. Durch die neu-generierten Daten ergeben sich spannende Analytics-Anwendungsfälle, technische Herausforderungen für die Dateninfrastruktur und Herausforderungen bei der Verarbeiten der „Big data“-Geo-Daten. In dem Vortrag werden die Analytics Platform, Methodiken und einige der Anwendungsfälle vorgestellt.
Zi…
Die Migration von Krankenbestands- und Leistungssystemen im laufenden Betrieb einer Versicherung stellt eine Herausforderung dar, da verschiedene Datenmodelle miteinander harmonisiert werden müssen. Die VKB löste diese Herausforderung mit einem Datenkatalog (Ab Initio Metadata Hub), in dem Fachdatenmodelle dokumentiert und regulatorische Anforderungen sowie Geschäftsprozesse effizient unterstützt werden. Wir zeigen, wie der Ab Initio Metadata Hub zügig eingeführt werden kann, und erläutern die…
As data-driven decision-making becomes central to modern businesses, implementing the principles of a DataMesh seems like the ideal path. But what happens when architectural ideals meet the complex realities of scaling an enterprise data platform?
Join us as we unpack the journey of building a data platform inspired by DataMesh. We’ll explore how we started with a theoretical foundation and made deliberate, practical deviations to address real-world challenges.
We will walk you through the tech…
Der unzufriedene DB-Admin hat gekündigt – aber vorher die Kennworte geändert? Du findest plötzlich Datenbankobjekte nicht mehr, obwohl diese noch abfragbar sind? Einfügeoperationen werden ohne Fehlermeldung durchgeführt, die Daten landen aber nie in der Tabelle? Derartige Vorkommnisse häufen sich ohne ersichtlichen Grund? Zeit für Sherlock Holmes ..., denn die Wahrheit liegt in der Programmierung! Und wenn man alles andere ausgeschlossen hat, ist das, was übrig bleibt, die Lösung – was zu…
Building a AI driven Chat bot for End/Power users on top of the enterprise knowledge graph
Target Audience: BI - Professionals, which want to dig into AI
Prerequisites: BI AND /OR AI background
Level: Advanced
Extended Abstract:
RAG for AI is like ETL for BI. With RAG, you can seamlessly integrate your BI platforms into custom chatbots using the LLM of your choice. However, RAG remains relatively unfamiliar to many BI teams. To address this, we must build a stronger connection between BI and data…
Ohne Data Governance geht es nicht! In diesem Vortrag wird zudem argumentiert, dass Data Governance als ganz eigene Abteilung etabliert werden soll. Gleichrangig zu Finanzen & Controlling, Human Resources usw. Jeder im Unternehmen braucht qualitätsgesicherte Daten. Dies gilt nicht erst, seitdem künstliche Intelligenz in aller Munde ist. Und Daten sind in der Verantwortung der Fachbereiche. Eine Abteilung auf Augenhöhe, nicht im Bereich der IT gelagert, die dafür die Verantwortung übernimmt, ist…
In einer Welt, wo Daten das neue Gold sind, öffnet dieser Workshop neue Horizonte: Nicht nur Produktverantwortliche und Data Engineers entdecken durch Design Thinking innovative Wege der Datenmodellierung. Diese Reise durch kreatives Denken und strukturierte Analyse führt zu robusten und flexiblen Datenstrukturen. Teilnehmer erleben, wie iteratives Prototyping die Verbindung zwischen Design und technischer Umsetzung stärkt. Ein Muss für alle, die ihre Data Solutions neu denken wollen. Dieser…
Welche Herausforderungen birgt es, ein modernes Datawarehouse (DWH) in nur 1,5 Jahren mit allen wesentlichen Unternehmenskennzahlen aufzubauen? Wie reagieren die Fachbereiche darauf? Und was passiert eigentlich mit dem „alten“ DWH? Begleitet das DWH-Team der flaschenpost auf ihrer spannenden Reise!
Wir zeigen euch, wie wir es geschafft haben, innerhalb von nur 6 Monaten den Deckungsbeitrag erfolgreich umzuziehen – und dabei jede Menge Stolpersteine zu überwinden. Freut euch auf Einblicke,…
Die BarmeniaGothaer steht aktuell vor der Herausforderung, die Balance zwischen Post-Merger-Integration und Innovation zu finden. Eine Antwort soll u.a. das strategische KI-Framework zur Förderung von Produktinnovation und Steigerung der operativen Exzellenz sein. Dieses verfolgt einen multidisziplinären Ansatz, um KI-Entwicklung innerhalb des Unternehmens zu fördern und Mehrwerte aus KI zu heben. Hierbei geht es um die organisatorische Neuaufstellung, Strukturierung von KI-Initiativen,…
Wären die TDWI-Veranstalter schon mal auf das Fusion-Festival gegangen, hätten sie den Termin der TDWI-Konferenz 2025 nicht auf die Fusion-Woche gelegt. ;-) Denn: Von der Fusion lässt sich lernen, wie Gemeinschaften große Herausforderungen wie die Organisation eines einwöchigen Festivals für 80.000 Menschen meistern. Eine andere, aber vergleichbare Herausforderung ist die Entwicklung und Umsetzung von Daten- & KI-Projekten mit vielen Beteiligten. Was ihr bei solchen Projekten von der Fusion…
Ziel der Datenstrategie des DB Fernverkehr ist, das Datenmanagement und die Datenintegration in der operativen und analytischen IT-Landschaft zu optimieren. Hierfür wurden Konzepte von Data Fabric und Data Mesh miteinander vereint, um die Trennung zwischen operativen und analytischen Anwendungsfällen und deren Bedarfe aufzuheben. Der Vortrag erläutert die Hintergründe dieser Transformation und gibt einen spannenden Einblick in die Reise des DB Fernverkehr zu einer modernen und nachhaltigen…
Seit Februar 2025 gelten die ersten Pflichten des EU AI Acts. Viele Unternehmen haben bereits erste Erfahrungen mit der Umsetzung der neuen KI-Regulatorik gesammelt. In diesem offenen Diskussionsformat sprechen wir über Erfahrungen, Best Practices, Herausforderungen und offene Fragen zur weiteren Umsetzung der KI-Verordnung.
Zielpublikum: Projektleiter, CDO, ML / AI Engineer, Data Scientist
Voraussetzungen: Grundverständnis von KI
Schwierigkeitsgrad: Basic
Extended Abstract:
Als Rechtsrahmen für…
Datenteams generieren Insights von Dashboards bis ML-Modelle in Cloud mit einem limitierten Erkenntnisraum – sie verwenden ausschließlich interne Datenbanken oder extern gekaufte Daten. Datenlücken werden entweder gar nicht erkannt oder lapidar mit Datenmangel beantwortet. Die Datenanalyse endet jedoch nicht mit der Datenbank, sondern kann durch zahlreiche quantitative und qualitative Methoden im Bereich der Verhaltenswissenschaften auf ein neues Qualitätsniveau gehoben werden. Unternehmen…
Erfahren Sie aus erster Hand, wie die IT-Kostenplanungslösung der BSH Hausgeräte GmbH in Zusammenarbeit mit den T.CON-Experten effizienter und einfacher gestaltet werden konnte.
Anstatt komplexer Excel-Lösungen konnte das Projektteam mit der SAP Analytics Cloud als Planungstool einen agilen Prozess etablieren, der die Planung von Projekten (Demands) und deren Zuweisung zu IT-Budgets erheblich vereinfacht. In unserem Vortrag geben wir exklusive Einblicke in die Lösung, die darüber hinaus auch…
Traditional Retrieval Augmented Generation (RAG) relies on semantic search to retrieve relevant information from unstructured text documents. However, additional details based on relationships between data entities, which may not be semantically connected in general but are connected in the document, can make the search and generation more accurate. Graph RAG explicitly extracts entities and relationships from the unstructured text and represents them as a structured knowledge graph.
Target…
Data-driven business models are prevalent across industries. Data systems have evolved from relational databases via NoSQL and Big Data to near real-time data processing. Data streaming requires rethinking conventional paradigms. The rise of AI/ML adds complexity, requiring MLOps to bridge engineering and science. Building cost-effective, future-proof platforms involves technical and non-technical perspectives. This talk maps challenges in real-time data architecture and AI, offering insights…
Medienhäuser verfügen zumeist über einen großen Datenschatz, dessen Potenzial sie jedoch oft nicht vollständig ausschöpfen können. Dieser Beitrag wird die Herausforderungen und Learnings im Zusammenhang mit der Transformation im Datenbereich bei MediaPrint beschreiben und gleichzeitig versuchen, praktische Tipps auch für andere Branchen aufzuzeigen.
Zielpublikum: Data Leader, C-Level, Entscheider aus datenaffinen Bereichen & Teams
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic
Extended Abstract:
…
In diesem Vortrag präsentieren wir die Entwicklung eines innovativen Chatbots für ein Dokumentenmanagementsystem, das Nutzern ermöglicht, schnell und effizient aus über 16.000 Dokumenten die benötigten Informationen zu finden. Gemeinsam mit der Unternehmensgruppe Theo Müller geben wir Einblicke in die Umsetzung, Chancen und Herausforderungen des Projekts. Dank der Low-Code-Technologie von Copilot Studio konnten wir die Lösung in kürzester Zeit entwickeln. Erfahren Sie, wie smarte Technologien…
Wir laden sie ein, mutige und möglicherweise provokante Thesen zur Diskussion zu stellen. Die Expertenrunde bekommt die Gelegenheit, sich Pro oder Contra zu positionieren und dies in maximaler 1 Minute pro These kurz zu erläutern. Daraus ergibt sich ein kompaktes Bild zum Stand von Data Mesh.
Zielpublikum: Jeder, der an Data Mesh interessiert ist
Voraussetzungen: Erfahrung mit Datenplattformen
Schwierigkeitsgrad: Advanced
Extended Abstract:
Die Thesenarena ist ein Format, bei dem sich jeder…
In einem Impulsvortrag teilen wir bewährte Methoden und Erkenntnisse aus zahlreichen KI-Workshops und Einführungsprojekten. Im Fokus steht die erfolgreiche KI-Einführung und Governance mit Dos und Dont’s aus der Praxis.
Anschließend diskutieren wir interaktiv Fragen, die auch vorab eingereicht und live gestellt werden können. Wir animieren dabei die Teilnehmenden zur Diskussion und zum Erfahrungsaustausch, um auch eine Vernetzung zu ermöglichen und unterschiedliche Facetten zu beleuchten.
Zielpu…
Zwei Kontrahent:innen, eine Schachuhr und gleich mehrere kontroverse Datenthemen! Jede Seite hat 5 Minuten Redezeit pro Runde und klickt abwechselnd auf die Uhr. Wer überzeugt das Publikum mit schlagkräftigen Argumenten zu KI, Analytics & Co.? Jede Sekunde zählt im rasanten Schlagabtausch. Natürlich gibt es dabei kein objektives Richtig oder Falsch – entscheidend ist, wer mit seiner Taktik und Präzision punktet. Am Ende jeder Runde kürt das Publikum den Sieger.
Zielpublikum: Alle mit Interesse…
In der modernen datengetriebenen Geschäftswelt benötigen Organisationen effektive und flexible Betriebsmodelle, um ihre Dateninfrastruktur und -strategien zu maximieren.
Der Vortrag zeigt auf, wie die DB Fernverkehr AG für ihre Data-Management-, Analytics- und KI-Organisation ein neues Target Operating Model (TOM) im Hub & Spoke-Ansatz entworfen hat und die Einführung plant.
Zielpublikum: Dieser Vortrag richtet sich an Führungskräfte, Datenmanager und KI-Experten, die ihre Organisationen…
Die Entwicklung der elektronischen Patientenakte beinhaltete unterschiedliche Herausforderungen, um die Daten der Patienten zu einer Quelle auswertbar zusammenzuführen.
Zielpublikum: Entwickler, Architekten, Führungskräfte, Datenanalysten
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic
Weitere Informationen folgen in Kürze.
Lasst den ersten Konferenztag bei kühlen Getränken und guten Gesprächen ausklingen.
Sensor- und Zeitreihendaten begegnen uns in vielen Bereichen wie Energie oder IoT. Sie bringen spannende Möglichkeiten, aber auch Herausforderungen wie unterschiedl. Zeitzonen und Auflösungen oder Datenlücken mit sich. In diesem praxisorientierten Vortrag erfahren Sie, wie Sie Zeitreihen effizient speichern und analysieren. Anhand realer Daten zeigen wir Ihnen, wie Sie typische Fallstricke meistern, robuste Vorhersagen erstellen und selbst unvollständige Echtzeitdaten sinnvoll einsetzen.…
In Short: How Vodafone started and progressed the Data Governance journey with a brand-new data catalog. Onboarding various systems and building use cases.
Potential Sub-sessions:
Focus on use cases, such as PII data; best cases and worst cases.
Target Audience: CIO, CDO, Head of BI, Data Governance, Privacy and Protection, Data Stewards, Data Owner
Prerequisites: Understanding of generic data and the value of data
Level: Advanced
AI enhances mobility infrastructure by detecting damage to roads, rails, cars, and cable cars early using AI algorithms. Analyzing high-frequency vibration data helps identify anomalies and wear patterns, preventing costly failures. Modern edge AI and cloud technologies enable cost-efficient, scalable systems. Real project examples show how these technologies reduce costs, increase availability, and optimize maintenance processes.
Target Audience: Infrastructure Managers and Engineers,…
Lenze hat in den letzten Jahren zahlreiche Self-Service-Berichte (Power BI) neben den Standardberichten (SAP Lumira) geschaffen. Erleben Sie, wie Lenze den Weg zu einer erfolgreichen Managed-Self-Service-BI-Strategie mit Fokus auf den Aufbau einer Key User Community und der Rollenverteilung zwischen dem zentralen BI-Team, den Key Usern und den Endanwendern gestaltet hat und welche standardisierten Prozesse zur Erstellung und Weiterentwicklung von Self-Service-Berichten auf diesem Weg im…
Die Insel Gruppe AG ist die größte Spitalgruppe der Schweiz mit 72 Gebäuden an fünf Standorten. Die Direktion Immobilien und Betrieb verwaltet die Spitalinfrastruktur, darunter Gebäudeplanung und Facility Services. 2023 wurde das neue Hauptgebäude als BIM-Projekt digital überführt. Um die Datenqualität langfristig zu sichern, wird seit 2023 ein einheitliches Fachdatenmodell aufgebaut. Mit dem Tool Dataspot soll bis 2025 ein zentrales Metadatenmanagement etabliert werden.
Zielpublikum: Alle…
Daten und KI haben ein enormes Potenzial für Organisationen, aber die Mitarbeiter müssen mit den richtigen Fähigkeiten ausgestattet sein, um sie zu nutzen. Bei Miele haben wir hierfür die Data & AI Academy ins Leben gerufen. In dieser Präsentation werden wir die wichtigsten Merkmale der Academy, die Schritte, die wir unternommen haben, und die dabei gewonnenen Erkenntnisse vorstellen. Begleiten Sie uns, um 10 häufige Fallstricke zu entdecken, die Ihren Erfolg beim Aufbau von Daten- und…
Innerhalb eines integrierten Finanzkonzerns sind unterschiedliche Anforderungen an Daten, KI und Regulatorik zu erfüllen. Im Vortrag werden die Bemühungen der W&W auf dem Weg zum Data-Driven Finanzkonzern beschrieben und eingeordnet.
Zielpublikum: All
Voraussetzungen: None
Schwierigkeitsgrad: Basic
Die erfolgreiche Implementierung bitemporaler Datenkonzepte erfordert ein solides Fundament. In dieser Session führt Dirk Lerner systematisch durch die technischen und konzeptionellen Voraussetzungen für bitemporale Daten. Anhand praktischer Beispiele verdeutlicht er die konkreten Vorteile und positiven Konsequenzen dieser Grundlagen. Die Session zeigt klar, warum diese Voraussetzungen für heutige Geschäftsanforderungen essenziell sind und wie Unternehmen durch ihre Anwendung präzisere Analysen…
Willkommen an Bord! Es ist Sternzeit -297601,71
Wir starten unsere BI-Expedition mit einem Blick in den Maschinenraum der Datenwelt. In dieser Eröffnungs-Session geben wir einen Überblick über das Tagesprogramm, Gewinnspiel, stellen unsere Crew vor und setzen den thematischen Kurs. Zudem beleuchten wir, warum „Data Culture“ mehr als nur ein Buzzword ist – denn ohne eine starke Datenkultur droht jedes BI-Projekt, wie ein beschädigter Warpkern, auseinanderzubrechen. Also: Energie!
Store smart,…
Die richtige Datenarchitektur und Plattform für Datenanalyse und AI unterscheidet sich für jedes Unternehmen. Rahmenbedingungen, Herausforderungen und Ziele sind sehr individuell, gleichzeitig versprechen Hersteller und Berater die eine Lösung für alle.
Mit hohem Praxisbezug berichte ich von unterschiedlichen Projekten und Situationen – und zeige einen großen Teil der Bandbreite moderner Datenprojekte und der Herangehensweisen. Und was sich von ihnen lernen lässt.
Zielpublikum: Data Architect,…
The presentation discusses the transformation of a traditionally hierarchical data department at 1&1 Versatel into an agile data organization. The target model is the Spotify model. Currently, we are in phase 3 of the transformation. The presentation will highlight and discuss the experiences and insights from the individual phases.
Target Audience: data manager, data leaders, product owner, chapter leads, tribe leads
Prerequisites: Basic understanding of the spotify model
Level: Basic
Extended…
Inmitten der heutigen Krisen ist es schwierig, den Rohstoffmarkt zu überblicken. Für die Bayerischen Staatsforsten (BaySF) ist es wichtig, Fluktuationen auf dem komplexen Holzmarkt zu verstehen. Ziel ist es, Preisentwicklungen im Voraus zu erkennen. Ein ML-Algorithmus (Machine Learning) hilft dabei, externe Einflüsse wie klimatisch bedingte Schadereignisse zu berücksichtigen. Dies führte zu überwiegend positiven Ergebnissen. Im Vortag thematisieren wir Herausforderungen und Chancen.
Zielpublikum…
Die Micosoft Power Platform als Low-Code-Werkzeug ist Treiber der digitalen Demokratisierung und ermöglicht Laien die selbstbestimmte Nutzung komplexer KI-Funktionalitäten. Notwendige Workflows werden oft, wie in unserem Use-Case-Portfolio-Reporting mit Databricks und PowerBI, in heterogenen Umgebungen mit hoher Vulnerabilität an Schnittstellen betrieben. Wir zeigen, wie automatisierte Schema-Migration die nahtlose Integration tagesaktueller, geschäftskritischer Informationen über Hersteller-…
How successful is our content on traditional television compared to our streaming platform, Joyn? And how do we ensure that as many viewers as possible tune in? These are just a few examples of key business questions that we answer using our Data Warehouse.
In this presentation, we will take a closer look at our BI transformation and demonstrate how we have successfully implemented "agility" in the context of data warehousing within a multi-team setup. In addition to innovative approaches to…
Im Data-Bereich wird oft die beste Fachkraft zur Führungskraft gemacht – und dann mit ihren Herausforderungen allein gelassen. Das macht es Datenteams und ihren Führungskräften schwer, ihr Potenzial zu entfalten und Impact für Unternehmen zu entwickeln. Der Vortrag benennt drei typische Fehler bei der Führung von Datenteams und zeigt auf, wie Data-Leader es besser machen können. Sie erreichen dadurch: stärkere Weiterentwicklung für ihre Teams, höhere Sichtbarkeit für ihre Themen und mehr…
Moderne Datenmigration: Wie Zusammenarbeit von Expert:innen und LLMs Effizienz und Qualität erhöht
Das Thema Datenmigration stellt für Banken und Versicherungen eine zentrale Herausforderung dar, die zumeist manuell von Data Engineers durchgeführt wird. Diese Aufgabe ist allerdings prädestiniert dazu, auf die Leistungsfähigkeit von LLMs zurückzugreifen und durch eine (Teil-)Automatisierung eine signifikante Effizienz- und Qualitätssteigerung zu erzielen. Der Vortrag zeigt anhand von…
La Biosthétique optimierte ihren B2C-Onlineshop durch eine BI-Strategie zur besseren Kundenbindung und Umsatzsteigerung. Herausforderungen waren fehlende Customer Insights, hohe Gastkäufe (50 %) und kein BI-System. Durch Datenbereinigung, Anreicherung und KI-gestütztes Leadscoring wurden Kampagnen personalisiert und die Wiederkaufrate erhöht. Ergebnis: 10 % Umsatzsteigerung. Nächste Schritte umfassen internationale Expansion, Upselling-Optimierung und den Ausbau automatisierter Kundenkampagnen.
…
Die Daten verändern sich in die Vergangenheit? Da braucht es bitemporal. Dieser Automatismus gilt nicht immer. Mitunter gibt es auch viel einfachere Lösungen. Es werden konkreten Anwendungsszenarien auf die Notwendigkeit der bitemporalität untersucht. Für ein klassisches Anwendungsszenario werden dann die Beispieldaten geliefert, an denen sich die optimale Umsetzung zeigen und messen lässt.
Daten sind der Treibstoff moderner Unternehmen – doch wer das Steuer über die eigene Flotte aus der Hand gibt, verliert Kurs und Kontrolle. Open Source ist kein unbekanntes Universum: es kann die Grundlage für stabile, flexible Datenlandschaften sein, die Innovation und KI-Entwicklung auf Warp-Geschwindigkeit bringt. Der Apache Big Data Stack zeigt, wie Unternehmen souverän ihre digitale Reise steuern – ob in der Cloud, On-Premises oder auf zu neuen Welten.
Traditionelle Datawarehouses stoßen an ihre Grenzen. Data Lakehouses bieten Skalierbarkeit und Flexibilität für die Herausforderungen moderner Datenlandschaften. Doch wie integriert man bewährte Modellierungsansätze wie Data Vault 2.0 in diese neue Architektur? Der Vortrag beleuchtet die Vorteile und Herausforderungen dieser Kombination und zeigt konkrete Lösungen auf. Erfahren Sie, wie Hashing, Speicher und die Medaillon-Architektur im Data-Lakehouse-Kontext betrachtet werden und welche…
Die digitale Transformation der Energieversorgung erfordert eine strukturierte und verantwortungsvolle Nutzung von Daten. In diesem Kontext spielt eine durchdachte Data Governance eine Schlüsselrolle. Sie sorgt für Datenverantwortung, Datenkompetenz, Datentransparenz und Datenqualität, wodurch unsere Versorgungsnetze effizienter, sicherer und nachhaltiger werden. Der Beitrag zeigt, wie gezielte Governance-Werkzeuge ungenutzte Potenziale heben und damit die Energiewende aktiv vorantreiben.
Zielpub…
Wie bringt man Self-Service BI in großen Organisationen zum Erfolg? Martin Bubenheimer, Power BI-Architekt bei Daiichi Sankyo, zeigt, wie eine internationale Daten-Community aufgebaut wurde. Erfahre, wie Wildwuchs in geordnete Bahnen gelenkt, Nutzer begeistert und Innovationen gefördert werden – und warum guter Service, Monitoring und Wissensaustausch wichtiger sind als reine Datenmodellierung. Ein Einblick in die Erfolgsfaktoren für nachhaltiges BI!
Zielpublikum: BI Managers, BICC Leaders, BI…
Seit über 50 Jahren begeistern wir als Blume 2000 unsere Kunden in der Filiale, im Depot oder online. Die bisherigen „BI“-Systeme bestehen aus QlikView, .NET bis Excel. Jeder hat für sich die richtige Zahl.
Die Herausforderung: alle bestehenden Lösungen durch einen Single Point of Truth zu ersetzen. Dabei sollen Daten aller relevanten Stakeholder berücksichtigt werden.
Wie geht das?
Wir geben einen kurzen Einblick in die Historie, die Projektansätze und die final verwendete Technologie.
Kleiner…
Datenkultur kann den Erfolg eines Datenprojekts maßgeblich vorantreiben oder die Umsetzung ausbremsen. Andreas Peter und Artur König stellen aus ihrer Projekterfahrung verschiedene Szenarien vor, die positiv, negativ oder in unerwarteter Art und Weise von der Datenkultur einer Organisation beeinflusst wurden. Nach Vorstellung jeder Situation (ohne den Ausgang des Projekts zu beschreiben) sind die Teilnehmer zu einer kurzen Diskussion eingeladen, bei der sie von ähnlichen Situationen berichten…
Die Finanz Informatik, Digitalisierungspartner der Sparkassen-Finanzgruppe, stand vor erheblichen Herausforderungen mit ihren historisch gewachsenen Datenbanksystemen, da das wachsende Datenvolumen zu Engpässen und Kapazitätsgrenzen führte.
Durch die Integration von Exasol wurden die Datenverarbeitung revolutioniert, die Altsysteme optimiert und direkte Mehrwerte für die Endkunden geschaffen. Schnelle Datenauswertungen ermöglichen rechtzeitige Berichte und fundiertere Entscheidungen.
Beispiel: Ein…
As of September 2025, the EU Data Act will extend regulatory coverage from privacy to product data, targeting connected products and related services, such as cars generating sensor data. With well-organized data, the new obligations for manufacturers active in the EU market will be straightforward. Conversely, organizations with a lower degree of data maturity may well use the regulation as a vehicle to better control their data estate.
Target Audience: Data Professionals with touchpoints to…
Um bitemporal historisierte Daten zu analysieren ist hohes Fachwissen erforderlich. Einem Großteil der Anwender reicht aber häufig eine unitemporale Sicht auf die Daten oder der aktuelle Zustand. Unter Umständen ist die Zulieferung aus den Quellen so komplex, dass zunächst nur eine unitemporale Historisierung möglich ist und die bitemporale Sicht nachgereicht wird.
Der Vortrag zeigt eine Praxislösung, die den Aufbau und die Präsentation der Datenhistorie flexibel aufbaut, so dass auch…
Microsoft, Salesforce & Co dominieren den BI-Markt – aber sind sie wirklich alternativlos? Apache Superset zeigt, dass Open Source eine ernstzunehmende Option sein kann: flexibel, skalierbar und unabhängig von proprietären Systemen. In diesem Vortrag ziehen wir einen Vergleich, räumen mit Vorurteilen auf und sprechen über die echten Endgegner bei der Einführung eines neuen (Open Source) BI-Tools. Spoiler: es sind nicht die Borg und auch keine (andere) Technologie.
Weitere Informationen folgen in Kürze.
BI-Projekte versprechen klare Insights und datengetriebene Entscheidungen – doch in der Praxis scheitern sie häufig an nicht-technischen Hürden. Warum? Zu starker Fokus auf Tools, zu wenig auf Kultur, Prozesse und Nutzerbedürfnisse. In diesem Vortrag plaudern wir aus dem Nähkästchen und teilen ehrliche Learnings aus unserem eigenen BI-Projekt: Was hat funktioniert? Wo sind wir gescheitert? Und wie hätten wir uns so manchen Phaser-Schuss ins eigene Bein ersparen können und was hat Corporate…
Die Ablösung einer Datenplattform bindet erhebliche Ressourcen und wertvolle Zeit. Eine evolutionäre Herangehensweise ermöglicht es hingegen, die Plattform schrittweise an neue architektonische und technologische Anforderungen anzupassen. Wir zeigen dir, wie du mit offenen Technologien und den richtigen Designentscheidungen den fliegenden Wechsel im Data Stack realisierst, für deine Anwender kontinuierlichen Nutzen lieferst und gleichzeitig State-of-the-Art bleibst.
Zielpublikum: Data Owner, Data…
EWE hat sich das Ziel gesetzt, den Wert von Daten nachhaltig zu maximieren. Ein Jahr nach Start unserer Daten-Exzellenz-Initiative blicken wir zurück:
Welche Erfolge konnten wir feiern, welche Herausforderungen haben wir gemeistert und welche Erkenntnisse haben wir gewonnen? Der Vortrag gibt einen Einblick in unsere Erfahrungen mit einer virtuellen Datenorganisation, Data Stewardship und Metadatenmanagement in Konzernstrukturen. Anhand eines Use Case zeigen wir, wie wir den Wandel zu einer…
Anhand von produktiven Use Cases wird erläutert, wie KI gestütztes Inputmanagement die zur Dunkelverarbeitung benötigten Daten für verschiedene Prozesse bereitstellen kann. Darüber hinaus werden Herausforderungen und konkrete Learnings aus der Umsetzung beleuchtet. Der Vortrag gibt einen Einblick in die Methoden und Technologien, die für die Entwicklung und den Betrieb von KI-Lösungen in der Versicherungsbranche erforderlich sind. Er zeigt die Potenziale und Grenzen von KI auf und bietet Tipps…
Der Aufbruch in eine neue Ära bedeutet Abschied – und bei congstar war es SAP BO, das seinen Platz räumen musste. Die Vision, eine datengetriebene Organisation zu werden, führte zur Einführung von Pyramid Analytics und zu einer Transformation, die alles veränderte. Wir erzählen von den schmerzhaftesten Stolperfallen, den unnachgiebigsten Berichten, von versteckten Logiken und davon, wie aus jeder Hürde ein Erfolg wurde. Erleben Sie, wie der Abschied von BO der Beginn einer Success-Story wurde,…
Fiege Logistik entwickelt eine neue Datenplattform basierend auf Microsoft Azure. Die anfängliche starke Orientierung an den Quellsystemen einer sehr heterogenen Systemlandschaft führte jedoch zu Herausforderungen bei der Umsetzung fachlicher Anforderungen. Mit der Einführung eines individuellen Model-Based Designs wurden die Business-Analyse und Datenmodellierung erheblich verbessert. Das optimierte Zusammenspiel von „Push“ aus den Datenquellen und „Pull“ durch Anwenderanforderungen…
The large international corporations Bosch and MAHLE are increasingly discovering communities as an important component of a successful data strategy. The development and implementation of a holistic data strategy is a particular challenge, especially with international teams. This challenge is due, on the one hand, to the international nature of the organization and, on the other, to the enormous range of products and markets. The involvement of different stakeholders in the form of communities…
Im Jahre 2013 hat die EZB erstmals im Rahmen von BCBS 239 eine Dokumentation von Data Lineages für Banken gefordert. Deren Dokumentation ist auch 2025 noch ein wichtiges Element, um die BCBS-239-Richtlinien aus Sicht der Aufsicht adäquat umzusetzen. Dieser Workshop beleuchtet die Herausforderungen, die auch Jahre nach der Veröffentlichung von BCBS 239 in Banken immer noch bestehen und auch branchenübergreifend auftreten.
Es werden praxisnahe Ansätze gezeigt und Best-Practice-Lösungen diskutiert,…
In diesem Vortrag wird vorgestellt, wie die BARMER, eine große deutsche Krankenkasse, den Datenkatalog dataspot. als zentralen Zugangspunkt in ihre Datenwelt integriert. Anhand der automatischen Integration von Metadaten aus dem SAP HANA DWH und dem AWS Data Lake sowie dem Anlegen eines Fachdatenmodells wird gezeigt, wie Metadatenmanagement Transparenz schafft, das Datenverständnis verbessert und Kopfmonopole reduziert. Dies fördert eine datengetriebene Kultur und zielgerichtete Datennutzung.
Zie…
Temporale Datenhaltung ist ein wichtiges Thema in jedem Data Warehouse. Die geladenen Daten müssen so historisiert werden, dass Abfragen auf vergangene Datenstände möglich sind. Dabei sind oft mehrere Zeitachsen im Spiel. Immer wieder gibt es Anforderungen zu bi-temporaler (oder multi-temporaler) Historisierung, die leider oft in endlosen Diskussionen und Missverständnissen enden. Multi-temporale Historisierung ist ein komplexes Thema.
Der Vortragende hat in einem aktuellen Projekt mit einem…
Led by Informatica and Accenture
In this interactive workshop, attendees will explore how robust, governed data serves as the cornerstone for scalable AI solutions through interactive discussions led by experts from Informatica and Accenture.
Learn how AI technologies are revolutionising data management are revolutionising data management and discuss the latest trends in data and AI, implementation best practices, successful use cases, and more.
Join us for this engaging and fun learning…
Voraussetzung für einen Weltraumeinsatz sind viele Komponenten: Mission, Crew und Raumschiff. KI im Unternehmen braucht ebenso das Zusammenspiel verschiedener Komponenten. Entlang eines Anwendungsfalls nehmen wir Sie mit auf die Reise der KI-Implementierung. Von der ersten Idee, über Business Analyse zu Datenanforderungen. Wir beleuchten Datapipelines, KI-Modell-Auswahl und die Integration in die Anwendungslandschaft. Boarding complete - steigen sie ein und führen Sie Ihr Unternehmen mit Warp-9…
Unsere Reise durch die Datenwelt nahm heute ihren Anfang, und eines wurde deutlich: Ohne eine starke Datenkultur bleibt selbst die beste Technologie nur Schall und Rauch – oder schlimmer noch, ein beschädigter Warpkern. Wir haben die Weichen gestellt, den Kurs festgelegt und sind bereit für neue Abenteuer. Doch selbst die fähigste Crew braucht hin und wieder eine Pause, um ihre Energiereserven aufzuladen. Und was könnte dafür besser geeignet sein als ein kühles Bier in geselliger Runde im…
Ich habe bereits 2024 auf der DOAG im TDWI-Partnertrack eine Präsentation gehalten, in der ich mit dem Mythos aufgeräumt habe, dass KEIN Anwendenden-Unternehmen mehr on-prem Datawarehouses betreibt und ALLE nur noch Cloud-Data-Plattformen nutzen. Dieses Thema werde ich in abgewandelter und dann aktualisierter Form auch im Rahmen der TDWI-Konferenz vorstellen.
Zielpublikum: Solution Architects, BI Teamleads, Leiter BI Competence Center, CIO
Voraussetzungen: BI Architecture Background, BI Strategy…
Highly developed civilizations achieve remarkable outcomes through seemingly small contributions by individuals and collaboration. The same applies to organizations and data governance. This session draws parallels between the development of civilizations and operationalizing effective data governance and how both can be interconnected. We cover common pitfalls, how AI agents can add business value for and with the foundation of everything: data excellence, and how to convert data quality from a…
Online-Unternehmen sind massivem Betrugsdruck ausgesetzt und benötigen wirksame Gegenmaßnahmen. ML-Risikomodelle können helfen, stoßen jedoch auf komplexe statistische Hürden: unzuverlässige Labels mit Zeitverzug, extreme Imbalance, blinde Flecken, aktive Gegenspieler, Feedback-Schleifen u.a.
Viele dieser Themen werden auch in der Forschung behandelt, die Praxis erfordert aber vor allem pragmatische Ansätze. Der Vortrag beleuchtet diese Herausforderungen und präsentiert Lösungswege.
Zielpublikum:…
SSBI-Strategien bieten großes Potenzial, stoßen in der Realität aber oft auf Widerstand oder Desinteresse. Warum? Weil reine Logik (Spock) nicht ausreicht – es braucht die Überzeugungskraft von Kirk. Der Vortrag zeigt, wie man mit einer Mischung aus rationalen Argumenten und emotionalem Storytelling Analytics-Initiativen ins Rampenlicht rückt und SSBI (Self-Service Business Intelligence) nachhaltig steigert.
Zielpublikum: Analysten, Daten- und BI-Spezialisten und Verantwortliche für SSBI. Auch…
Datenprodukte sind der Schlüssel zur Zusammenarbeit zwischen Fachbereichen und IT. Sie strukturieren Projekte, fördern Effizienz und Innovationen. Der Vortrag zeigt, wie Dateninfrastrukturen, Governance und strategische Ansätze datengetriebene Entscheidungen ermöglichen. Im Fokus steht eine starke Datenkultur, die Verantwortung und Zusammenarbeit fördert und den effektiven Einsatz von Datenprodukten in Fachbereichen ermöglicht, um nachhaltigen Mehrwert zu schaffen.
Zielpublikum: Fach- und…
Die Zurich modernisierte ihre Berichtsplattform für den strategischen Lebensversicherungsbestand, um auch hier die digitale Transformation voranzutreiben. Der Vortrag beleuchtet die Herausforderungen einer teuren Hostapplikation und die Vorteile der neuen, event-getriebenen Architektur: wartbarer Code, reduzierte Kosten, Self-Service BI und schnellere Berichterstellung. Kritische Erfolgsfaktoren wie automatisiertes Testing und eine agile Herangehensweise werden hervorgehoben. Abschließend wird…
In Unternehmen mit geringer Data Governance Maturity stellt sich die Frage, wie das Business befähigt werden kann, eine ganzheitliche Dateneigentümerschaft zu entwickeln. Das IT&DT-Ressort hat in den heterogenen MEWA-Fachbereichen die Strategie „Data Documentation as a Service“ eingeführt – ein niedrigschwelliges Angebot, das technische und fachliche Stakeholder schrittweise einbindet. Anhand eines Fallbeispiels wird aufgezeigt, wie die Top-Down-Datenstrategie erfolgreich Bottom-up umgesetzt…
Temporale Daten sind ein wesentlicher Bestandteil moderner Datenlösungen. In dieser Session soll gezeigt werden, wie Data Engine Thinking eine ideale Grundlage bietet, um das komplexe Konzept der bitemporalen Daten erfolgreich zu implementieren. Data Engine Thinking - das ist der umfassende Ansatz zur Schaffung einer wirklich flexiblen, erweiterbaren und robusten Datenlösung. Bi-temporale Datenhaltung ist nicht nur ein technisches Feature, sondern integraler Bestandteil der DNA des Data Engine…
Agile Projektmethoden ermöglichen deutlich kürzere Entwicklungszyklen bis hin zum permanenten Deployment. Dies erhöht den Druck, in kürzester Zeit aussagekräftige Tests durchführen zu können. Traditionelle Vorgehensweisen mit langwierigen inkrementellen Tests haben ausgedient.
Inhalte des Vortrags
• Kennenlernen verschiedener agiler Testmethoden
• Möglichkeiten der Automatisierung bei der Erstellung und Durchführung von Tests, Bereitstellung von Testdaten usw.
• geeignete Infrastruktur für agiles…
Die DB Systel nutzt Data & AI Design Thinking, um nutzerzentrierte und wertorientierte KI-Lösungen zu entwickeln. Anhand eines realen Workshops zeigen wir, wie die Methode des Data & AI Business Design den Prozess von der Ideenfindung über die Priorisierung bis zur Anforderungsspezifikation unterstützt. Die vorgestellten Visualisierungswerkzeuge (Canvas) sind kostenlos verfügbar, sodass Teilnehmende direkt nach dem Vortrag mit Data & AI Design Thinking starten können.
Zielpublikum: Analytics…
Am Beispiel eines Projektes mit dem Landesamt für Soziales, Jugend und Versorgung (LSJV) in Rheinland-Pfalz wird gezeigt, wie eine KI-basierte Lösung zu einer effizienteren Abwicklung von Verwaltungsprozessen führt. Das neu entwickelte KI-Modul für die Vertragsabwicklung lernt dabei kontinuierlich durch die im Rahmen der Prozesse erfassten Daten und generiert automatisch Auswertungen, die eine weitere Steuerung der Prozesse ermöglichen. Die automatische Analyse & Prüfung der Dokumente führt zu…
Bewährtes Konzept, neue Daten und Dashboards auf der großen Bühne. Wer schafft es, am besten in 2 bis 4 Minuten spontan eine Geschichte oder nachvollziehbare Analyse zu einem zufällig ausgewählten Dashboard zu erzählen und die Zuschauer zu begeistern?
Es wird pro Teilnehmer ein zufälliges Dashboard ausgewählt und es gibt 2 Minuten, um sich damit vertraut zu machen. Dann folgt die Präsentation, die von den Zuschauern in den Kategorien Logik, Storytelling und Spaß bewertet wird.
Am Ende gibt es Ruhm…
To implement the Once-Only principle, we are required to introduce a strictly register-centered data management for the entire administration. The aim is to achieve broad data interoperability between registers and information systems. This talk will illustrate our ongoing, comprehensive change process from an organizationally grown data management to a modern, register-centered, standardized data management based on harmonization. We highlight the necessary building blocks that facilitate such…
In diesem Vortrag erfahren Sie, warum BI-Projekte oft an der zwischenmenschlichen Kommunikation scheitern und wie Sie dies vermeiden können. Zwischenmenschliche Kommunikation ist mehr als nur die Übermittlung von Fakten; sie umfasst auch soziale Kohäsion und emotionale Intelligenz von Einzelnen und im Team. Ich beleuchte die Bedeutung der "Construction of Meaning" und zeige Ihnen meine Lieblingshilfsmittel für effektive Kommunikation im BI-Kontext.
Zielpublikum: Projektleiter, Product Owner,…
Geodaten und Künstliche Intelligenz revolutionieren die Risikoanalyse. Durch GeoAI lassen sich Schäden präziser vorhersagen, Versicherungsrisiken besser bewerten und Prozesse automatisieren. Doch nicht nur Versicherungen profitieren: Auch Immobilien- und Energiewirtschaft können durch intelligente Geodatenanalysen fundiertere Entscheidungen treffen. Im Vortrag wird ein Einblick in die Potenziale und Anwendungsfälle gegeben.
Zielpublikum: Mitarbeiter aus Versicherungsunternehmen, der Immobilien-…
Ob BI-Teams in der IT, dem Business oder separat als Competence Center im Unternehmen aufgehängt werden sollen, ist eine fortwährende Diskussion, die durch Data-Mesh-Architekturen, Self-Service- und KI-Funktionalitäten neu an Bedeutung gewinnt.
Obwohl BI-Teams im Unternehmen erhebliche Potenziale heben, müssen sie sich bei Umstrukturierungen oft als erstes verteidigen und immer wieder neu erfinden.
Wie das gelingen kann, wird anhand eines Erfahrungsberichts in der Bilfinger SE diskutiert.
Zielpubl…
Jede Session wird von einem Mitarbeitenden des jeweiligen Herstellers geleitet, der die Teilnehmenden durch den Implementierungsprozess führt. Als Grundlage dient der Willibald-Datensatz, anhand dessen die bi-temporale Modellierung und Verarbeitung von Daten in einem Data Vault System umgesetzt wird.
Die Teilnehmenden bearbeiten unter Anleitung der Tool-Anbieter folgende Aufgaben:
- Modellierung und Integration bi-temporaler Datenstrukturen in Data Vault
- Automatisierte Verarbeitung historischer…
Seit 2012 nutzte die Kassenärztliche Vereinigung Westfalen-Lippe ein Datawarehouse auf Basis einer Appliance. Wegen des auslaufenden Supports und steigender Kosten wurde mit DATA MART Consulting eine neue Data-Lakehouse-Architektur gewählt und ein Migrationsplan erstellt. Innerhalb eines Jahres musste die Migration erfolgen, um die Performance für 1.000 tägliche Nutzer zu gewährleisten. Der Vortrag zeigt das Vorgehen, die Herausforderungen und den erfolgreichen Abschluss des Projekts sowie die…
About 3.5 years ago the Data Quality & Governance Journey was launched under the umbrella of the Data Strategy & Transformation Programme for the Lufthansa Group. Establishing data as corporate asset and thus making data usage more efficient is setting the foundation for a data- and AI-driven company as the main objective. After having focused on developing the Data Quality & Governance framework now the attention has shifted towards the data user enablement, i.e. making Data Quality &…
Supper & Supper is a leading AI solution provider specializing in agriculture, crop science, and sustainability. In this presentation, we will showcase how artificial intelligence is transforming agriculture and providing solutions to the pressing challenges of the future. Through practical use cases, such as precise residue analysis, early warning systems, plant disease detection, and smart resource optimization, we demonstrate how our AI technologies enable more sustainable and efficient…
Was macht ein Dashboard schön und wie wichtig ist die Ästhetik in der Datenvisualisierung? Muss ein Dashboard wirklich schön sein, oder reicht es, funktional zu sein? In diesem Vortrag wird die Konvergenz von Kunst und Wissenschaft in der Informationsästhetik behandelt. Wir beleuchten, wie Ästhetik und Funktionalität in der Gestaltung von Dashboards und Reports zusammenwirken und welche Rolle diese Elemente für eine effektive und zugängliche Datenpräsentation spielen.
Zielpublikum:…
Wir erklären, warum Leuchtturmprojekte in Konzernen oft scheitern und welche Herausforderungen dadurch entstehen, wenn jede Abteilung eigene Prioritäten setzt. Statt isolierter Lösungen zeigen wir in diesem Workshop alternative Strategien auf, um bereichsübergreifend und nachhaltig IT-Strukturen im Konzern zu etablieren. Ziel ist es, durch klare Ansätze und erprobte Methoden langfristigen Erfolg und eine starke Zusammenarbeit im Unternehmen zu gewährleisten. Die Moderatoren des Workshops geben…
Der Anteil der CO2-Emissionen durch IT nimmt weltweit exponentiell zu. Verantwortlich dafür ist zum Großteil Software – von uns entwickelt.
Green Software berücksichtigt Energie- und Ressourceneffizienz von Software. Alle Beteiligten am Softwareentwicklungsprozess können hierzu einen Beitrag leisten.
Im Talk vermitteln wir Basis-Wissen für alle Rollen und schauen auf den besonderen Kontext von Data.
Am Ende steht ein Win-Win für Umwelt und Unternehmen, weil Emissionen und Kosten sinken.
Zielpu…
Datenmodellierung und Kettlebell-Training – auf den ersten Blick völlig verschieden, doch überraschend ähnlich! Diese Analogie zeigt, wie Disziplin, Präzision und Fokus im Sport auch auf die Welt der Datenmodellierung übertragen werden können. Ein augenzwinkernder Vergleich mit ernstem Kern.
Zielpublikum: Manager, Datenmodellierer, Projektleiter, Datenmanagementexperten, Dateningenieure
Voraussetzungen:Keine
Schwierigkeitsgrad:Basic
Extended Abstract:
Was hat eine Kettlebell oder das Training mit…
Ein Praxisbericht von unserem Weg als ein sehr traditionelles Unternehmen zu einer datenorientierten Organisation. Welchen Herausforderungen mussten wir uns stellen und welche veralteten Sichtweisen mussten wir ablegen, um das Potenzial von datenbasierten Customer Insights nutzbar zu machen.
Zielpublikum: Marketing, Vertrieb, CRM, Sales Controlling, Customer Development
Voraussetzungen:Keine
Schwierigkeitsgrad:Basic
Extended Abstract:
Sechs Jahre nach Einführung unseres B2B-CRM-Systems generieren…
Die Stadt Zürich wählt ein kombiniertes Vorgehen:
• Top Down: Datenstrategie und mehr
• Bottom Up: Anwendungsfälle und Ausrollung
Vom Auftrag des Stadtrats bis zur Umsetzung braucht es viel Konzeptions-, Diskussions- und Überzeugungsarbeit. Die Herausforderungen sind vielfältig: Komplexes Daten- & Aufgabenumfeld, Personal- und Organisationsentwicklung. Konkrete Anwendungsfälle & Erfolgsgeschichten spielen dabei eine wichtige Rolle als Katalysatoren mit Überzeugungswirkung.
Zielpublikum: Data…
As part of the Green Deal announced by the European Commission, digital product passports (DPPs) are here to stay. They have the potential to create business value that goes beyond legal compliance. However, numerous challenges have to be mastered by the organizations before successfully launching DPPs. Yet, the solution space for DPPs is still barely defined. The session aims to showcase the state of research on known challenges and design principles to mitigate them to master the…
Der Data Catalog als ein populäres Tool zur Datendemokratisierung erfreut sich großer Beliebtheit. Daten können dort einem breiten Spektrum an Usern z.B. in Form von Datenprodukten zur Verfügung gestellt werden. Gemäß dem Motto „Garbage in, Garbage out“ ist die Qualität eine der wichtigsten Eigenschaften von Daten. Mithilfe eines Prototyps stellen wir ein holistisches Konzept vor, das Datenqualität flexibel anhand selbstdefinierter Dimensionen mit jeweils mehreren Metriken quantifizierbar macht.
…Auf Basis des Modern Data Stack in der Automobilindustrie und getrieben durch den AI-Trend ist es notwendig, in kurzer Zeit AI-Usecases in Betrieb zu nehmen. In dieser Session wird praktisch gezeigt, wie dies durch eine zentrale Datenplattform und den Modern Data Stack erfolgreich realisiert werden kann. End-2-End-DBT-Datenpipelines beliefern verschiedene KI-Modelle und diese können mithilfe von Dagster und Databricks effizient betrieben werden.
Zielpublikum: Data & AI Engineers, Architects,…
Mit einer Einkaufsdatenplattform und gezielten Use Cases Entscheidungen und Einkaufsprozesse besser und effizienter gestalten – darum geht es bei Procurement Analytics. Lernen Sie das dafür gewählte Vorgehensmodell zur Vermeidung von Proof-of-Concept-Fallen und langwierigen Architekturdebatten sowie Beispiele für Quick Wins und strategische Use Cases kennen. Zudem werden aktuelle strategische Weiterentwicklungen und die erfolgskritische Bedeutung von cross-funktionaler Zusammenarbeit erläutert.
…
State-of-the-Art KI-Systeme verknüpfen unternehmensinternes Wissen mit der Leistungsfähigkeit von GenAI-Modellen. Ein zentraler Grundbaustein dafür sind intelligente Suchsysteme, die mäßig strukturiertes Wissen erschließen und kontextbezogen bereitstellen. Wir teilen Projekterfahrungen aus der Entwicklung eines modernen Suchsystems in einem Lebensmittelkonzern und demonstrieren anhand von erhobenen Metriken, wie intelligente Suchsysteme die Suchqualität im Vergleich zu traditionellen Ansätzen…
In unseren Projekten begegnen wir immer wieder Personen, die jede Form von komprimierten Dashboards ablehnen, weil man ja nicht wie in Excel „Schnell mal eine Zahl abändern kann“.
In diesem Vortrag wollen wir vorstellen, wie es mit einem Fokus auf Interaktivität und Flexibilität möglich ist, auch Kritiker von aufbereiteter Datenanalyse zu überzeugen, und wie damit der Übergang von Excel in ein modernes Reporting deutlich erleichtert wird.
Zielpublikum: Data Analysts, Dashboard-Entwickler und…
In diesem Panel möchten wir die Tatsache diskutieren, dass ein Großteil der Innovationen und Anbieter im Data- und Analytics-Bereich aus dem angelsächsischen Raum kommt. Wir fragen Experten aus dem Bereich, warum dies so ist, und überlegen gemeinsam, ob und wie man die Umgebung für Innovationen in Deutschland und Europa fördern kann.
Teilnehmer des Panels sollen Vertreter aus der Wissenschaft/Hochschule, Wirtschaft/Start-up und Politik/Wirtschaftsförderung sein.
Eine Einbeziehung des Publikums…
Marketing – das sind die mit den bunten Bildern, den großen Ideen und der spontanen KPI-Phobie. Controlling und BI? Das sind die mit den Tabellen, den klaren Metriken und der unerschütterlichen Liebe zur sauberen Datenstruktur. Kein Wunder, dass es da öfter knirscht.
Aber was, wenn ich euch sage: Marketeers brauchen Zahlen. Sie wissen es nur oft nicht. Oder nicht welche. Und Controller wissen oft nicht, warum Marketeers so chaotisch erscheinen – oder warum „Brand Awareness“ plötzlich wichtiger…
Accurate predictions are crucial for informed decisions, even when only historical data is available and traditional time series models like ARIMA are not applicable. This work aims to develop a generic forecasting model that delivers robust predictions through feature engineering and prediction algorithms. Enhanced by time series data, diagnostic and autocorrelation analysis, the model's explainability is improved. The goal is to ensure data and model quality, promote operational excellence and…
Steigende Anforderungen an das Nachhaltigkeitsreporting setzen Unternehmen zunehmend unter Druck. Dies beeinflusst das Datenmanagement und führt zur Bildung von Datenökosystemen. Unternehmen müssen zu einer proaktiven Datenbeschaffung übergehen, um interne und externe qualitativ hochwertige Daten zu erhalten. Das Forschungsvorhaben beleuchtet die Herausforderungen des unternehmensübergreifenden Datenaustauschs, die Herkunft der Daten und deren Nutzung sowie Potenziale über die Berichterstattung…
Die Weltwirtschaft basiert auf einer primär effizienzgetriebenen Ausgestaltung von Lieferbeziehungen, die selbst bei geringen Planabweichungen eine hohe Fragilität aufweisen können. Darüber hinaus wird die Berücksichtigung von Nachhaltigkeitsaspekten zunehmend wichtiger. Um solchen Herausforderungen (inkl. ESG-Daten) zu begegnen, wird ein prototypisches Management Dashboard entwickelt, das ökonomische und ökologische Analysen von Lieferketten ermöglicht.
Zielpublikum: Head of Sustainability…
Der Aufbau moderner KI-Plattformen bringt immense technische und organisatorische Herausforderungen mit sich. Planung, Implementierung und Inbetriebnahme sind für viele Unternehmen eine Herkules-Aufgabe. Besonders das Informationstechnikzentrum Bund als zentraler IT-Dienstleister steht vor zusätzlichen Herausforderungen. Der Vortrag zeigt, wie KI-Plattformen mithilfe von Infrastructure as Code (IaC) in OnPrem-Infrastruktur als Plattform as a Service aufgebaut und in Betrieb genommen werden…
Im Rahmen der globalen Datenstrategie eines Automobilherstellers wird ein Einblick gegeben, wie die Datenstrategie konkret operationalisiert wurde, und dabei wird ein spezieller Fokus auf die technische Automatisierung des Dateneinkaufsprozesses auf Basis von Collibra als wichtiger Teil der Datenstrategie gegeben.
Zielpublikum: Data Governance Experts / Architects, Data Leaders, Strategists
Voraussetzungen: Base Knowledge about Data Mesh, Data Governance and Strategies
Schwierigkeitsgrad: Basic
Large Language Models (LLMs), wie GPTs, sind leistungsstarke Tools zur Verarbeitung natürlicher Sprache. Dieser Vortrag beleuchtet eine eher untypische Anwendung: die Prognose numerischer Zielvariablen. LLMs verarbeiten strukturierte und unstrukturierte Daten und bieten Vorteile bei der Merkmalsgenerierung. Anwendungsfälle wie die Kombination von tabellarischen Daten und Freitext sowie der Vergleich von Open- und Closed-Source-Modellen werden untersucht, mit Fokus auf Vorhersagequalität und…
Genervt von dummen Fragen, kaputten Dashboards und absurden KPI-Wünschen?
Willkommen in der Analytics-Gruppentherapie! Hier kannst du endlich all das loswerden, was dich nachts wachhält: Stakeholder mit absurden Anforderungen, BI-Tools, die mehr Probleme schaffen als lösen, und die ewige „One Source of Truth“, die keiner findet.
Ein sicherer Raum für Frust, Lachen und Leidensgenossen – mit nur einer Regel: Was hier gesagt wird, bleibt hier.
Zielpublikum: Alle, die sich etwas von der Seele…
Microsoft Fabric als Basis für Industrie-4.0-Szenarien? Das soll funktionieren? Wir hatten die Gelegenheit, die innovative One-Stop-Plattform bei der Basalt AG erstmals dem IoT-Test zu unterziehen – mit Erfolg!
Begleiten Sie uns auf einer spannenden Projektreise, an deren Ende die Erschließung umfangreicher Datenströme aus großen Steinbrechern für unterschiedlichste geschäftliche Einsatzgebiete steht.
Zielpublikum: Allg. Fabric-Interessierte und Verantwortliche, die das Potenzial der Technologie…
What started as "just implement four image generation use cases" turned into a journey of technical nightmares, stakeholder frustration, and seemingly impossible challenges. We will share how our expectations of "just use a GenAI model" crashed into reality when dealing with product visualization, semantic editing, and brand consistency. Experience our rollercoaster of CUDA dependency issues, model limitations, and how persistence (and some creative problem-solving) finally got us there.
Target…
Der aktuelle Hype um Triangulation im Marketing Measurement darf nicht darüber hinwegtäuschen, dass sich bislang kein einheitliches Verständnis, geschweige denn Konsens über den gemeinsamen Einsatz von Attribution, MMM & Incrementality Tests herausgebildet hat. Dr. Isabelle Kes und Alexander Eiting (FELD M GmbH) bringen mittels Praxisbeispielen und Einblicken in den wissenschaftlichen Diskurs Licht ins Dunkel dieser Ansätze. Sie zeigen, wie Triangulation die Herausforderungen der…
Die Ulrich Holding optimiert mit einer datengetriebenen Strategie ihren B2B-Vertrieb. Durch die Integration von ERP-, CRM- und E-Mail-Daten, ergänzt um externe Marktinformationen, wird die Datenqualität verbessert. Ein KI-gestütztes Leadscoring nutzt Kaufhistorie, CRM-Interaktionen und Handelsregisterdaten zur Leadbewertung. Automatisierte Kampagnen und Predictive Analytics steigern die Effizienz. Erste Benchmarks belegen den Erfolg, während kontinuierliche Datenpflege und Governance den…
Die Einführung neuer Technologien erfordert einen ganzheitlichen Managementansatz – insbesondere bei der Übertragung von Verantwortungs- und (Daten-)Zugriffsrechten an Fachbereiche. Low-Code Development Platforms (LCDPs) treiben solch eine Demokratisierung der Softwareentwicklung in Unternehmen voran. Der Vortrag präsentiert Erkenntnisse aus über vier Jahren Forschung mit knapp 20 Unternehmen, darunter ein praxiserprobtes LCDP-Reifegradmodell sowie Erfolgsgeschichten bei der unternehmensweiten…
Der Einsatz intelligenter Technologien ist in unserer datengetriebenen Geschäftswelt unverzichtbar. Unternehmen benötigen moderne Technologien wie KI, um wettbewerbsfähig zu bleiben. Zugleicht entstehen neue Risiken bei der KI-Integration. Angesichts wachsender Datenmengen und zunehmender KI-Lösungen gilt es, passende Einsatzbereiche zu identifizieren und KI bedarfsgerecht im Unternehmen zu integrieren bzw. anzuwenden. Diese Präsentation zeigt, wie ein forschungsbasierter KI-Managementansatz bei…
Weitere Informationen folgen in Kürze.
Tauchen Sie ein in die Welt des "Zombierooms"! Erleben Sie einen praxisnahen Educational Escape Room, der Data-Science- und Datenmanagement-Kompetenzen auf die Probe stellt. Als Teil des "Data Driven Disease Defence Department" analysieren Sie in Teams eine simulierte Epidemie, lösen komplexe datenbasierte Aufgaben und messen deren Einfluss auf die Ausbreitung. Entdecken Sie neue Tools, stärken Sie kollaborative Problemlösung und erleben Sie, wie spielerisches Lernen Sie inspirieren kann.
Teaser…
Der Vortrag diskutiert den Zusammenhang von Daten- und Unternehmensarchitektur. Beide Konzepte werden an konkreten Beispielen aus dem DB-Konzern erläutert. Ich beleuchte die Vor- und Nachteile von getrennter oder gemeinsamer Betrachtung in der Architekturarbeit. Er gibt Denkanstöße für die praktische Arbeit in beiden Kontexten, insbesondere mit Blick auf die Möglichkeiten und Herausforderungen von KI. Die enge Abstimmung zwischen geschäftlichen und technischen Zielen zur Nutzenmaximierung wird…
Die Herausforderung in vielen Konzernstrukturen: BI- und AI-Teams beziehen Daten aus verschiedensten Quellen, ohne ein einheitliches Anforderungs- oder Qualitätsmanagement. Nun bringt Data Governance als neue Komponente einen übergreifenden Rahmen für Effizienz und Qualität. In diesem Vortrag stellen wir Ihnen ein Kollaborationsmodell vor, das Silos aufbricht und ein konzernweites Vorgehen für BI und AI etabliert. Erfahren Sie, wie Sie Prozesse harmonisieren und hochwertige Ergebnisse sichern.
Z…
Dieser Vortrag zeigt anhand des Beispiels aus der kritischen Infrastruktur, für die hohe regulatorische Anforderungen bestehen, wie Unternehmen die Vorgaben des AI Acts effizient umsetzen können. Dabei werden technische, rechtliche und organisatorische Aspekte betrachtet, um Compliance zu gewährleisten und Innovation sicher voranzutreiben. Die APG (Austrian Power Grid AG) zeigt, wie eine strukturierte und nachhaltige Herangehensweise zur Umsetzung regulatorischer Vorgaben durch ein stringentes…
Interaktiver Gamification-Ansatz zur Vermittlung von Know-how rund um verschiedene Visualisierungen, von einfach bis sehr speziell. Die Zuhörer bewerten Visualisierungen selbst in einer digitalen Abstimmung, statt Good Practices frontal gezeigt zu bekommen. Durch diese Einbeziehung in den Vortrag entsteht eine einzigartige Diskussion mit immer wieder neuen Erkenntnissen und Meinungen. Final können wir gemeinsam ein individuelles Ranking erstellen und zeigen praktisch, wie effektiv…
Digitale Zwillinge verändern den Maschinen- und Anlagenbau sowie die Fertigung grundlegend.
Teresa Alberts zeigt, wie die Unternehmen Verbund Hydropower (Wasserkraftwerke), RAUCH Furnace (Magnesiumschmelzöfen) und Technikum Laubholz (Nanocellulose-Produktion) durch innovative Lösungen Wettbewerbsvorteile erzielen. Die Präsentation beleuchtet technische Schlüsselbausteine und stellt einen 7-Schritte-Plan zur erfolgreichen Einführung vor.
Zielpublikum: Interessenten für neue innovative Themen
Vorau…
Viele Unternehmen messen den Erfolg ihrer Marketingaktivitäten hauptsächlich an der Conversion-Rate, doch die wahre Wirkung der Kommunikation wird häufig übersehen. Dieser Vortrag präsentiert eine Lösung, die es ermöglicht, die Kommunikationswirkung systematisch zu erfassen und in die gesamte Marketingstrategie zu integrieren. So wird der langfristige Einfluss auf die Markenwahrnehmung und -bindung greifbar und messbar, weit über die sofortigen Conversions hinaus.
Zielpublikum:…
Survival of the fittest: Drei Cloud-ETL-Tools im direkten Vergleich! Effizienz, Skalierbarkeit und Kosten – welches Tool bleibt bis zum Schluss im Rennen? Azure Data Factory, AWS Glue und Oracle Data Integrator treten gegeneinander an. Wir analysieren ihre Stärken, Schwächen und Praxisanwendungen, um Ihnen die beste Wahl für Ihre Datenstrategie zu ermöglichen. Bleibt Ihre Datenpipeline im Spiel oder scheidet sie früh aus? Finden Sie es in dieser Session heraus!
Zielpublikum: ETL-Entwickler,…