The times given in the conference program of TDWI München digital correspond to Central European Time (CET).
By clicking on "EVENT MERKEN" within the lecture descriptions you can arrange your own schedule. You can view your schedule at any time using the icon in the upper right corner.
Die unbequeme Wahrheit ist: Data Literacy ist Disruption. Gemeinsam durchleben wir in diesem Vortrag anhand von Geschichten aus der Praxis die disruptive Qualität von gescheiterten Ansätzen, in denen Zukunft und Vergangenheit aneinander prallen.
Sie nehmen eine Liste von Fehlern anderer mit, aber auch die Gewissheit, dass Sie einer kulturellen und organisatorischen Disruption gegenüber stehen. Wie stark Sie diese trifft, finden wir in dem Vortrag raus.
Zielpublikum: CDOs, Entscheidungsträger:innen, IT-Leiter:innen als Verantwortliche der Datennutzung, Data Engineers als Ausführende
Voraussetzungen: Verständnis über die Bedeutung von Data Culture und Data Literacy für die Zukunft von Unternehmen
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Data Literacy ist die Fähigkeit, kritisch mit Daten umzugehen. Datendemokratisierung verspricht die Befreiung von Daten zugunsten Aller aus den Händen Weniger. Eifrig werden Selfservice-Konzepte, Trainingskonzepte und Strategien erarbeitet. In Goldgräberstimmung werden Datenschätze vermutet, die komplette Belegschaft von Unternehmen wird mit Waschschalen ausgestattet, um das Gold aus dem Datenfluss zu waschen. Währenddessen hat es Medienkompetenz noch immer nicht überall auf den Stundenplan in Schulen geschafft hat.
Meist bleiben tiefe Enttäuschung und unerfüllte Erwartungen zurück. Statt auf Nuggets schaut man auf ein paar Krümmel Gold. Kritischer Umgang mit Daten führt auch zu lästigen kritischen Fragen, die allgemeine Verfügbarkeit von allen Daten auf der Suche nach der optimalsten Lösung verlangsamt Entscheidungsprozesse. Im Zweifel hilft ja immer noch der Einsatz von KI, wird behauptet.
Die unbequeme Wahrheit ist: Data Literacy ist Disruption. Gemeinsam durchleben wir in diesem Vortrag anhand von Geschichten aus der Praxis die disruptive Qualität von gescheiterten Ansätzen, in denen Zukunft und Vergangenheit aneinander prallen. Angefangen von der Tyranny of small decisions und Decision Fatigue über Wenn-wir-das-gewusst-hätten bis zur Überforderung der Organisation.
Sie nehmen eine Liste von Fehlern anderer mit, aber auch die Gewissheit, dass Sie einer kulturellen und organisatorischen Disruption gegenüber stehen. Wie stark Sie diese trifft, finden wir in dem Vortrag raus.
Christian Schneider ist der Bereichsleiter Data & Analytics bei der QuinScape GmbH. Als Consultant und Projektleiter war er langjährig in internationalen Großprojekten tätig und kennt die vielfältigen Herausforderungen unterschiedlichster Integrations- und Analytikszenarien aus der praktischen Arbeit. Insbesondere der Aspekt des Aufbaus von nachhaltigen Dateninfrastrukturen mit einem überschaubaren Kostenrahmen im späteren Betrieb durch eine gezielte Data Governance waren dabei wichtige Meilensteine. Er ist Co-Autor mehrerer Bücher und regelmäßiger Speaker bei Meetups und Konferenzen.
Tobias presents DANONE´s data strategy for 2025 and the lessons learned from a use case realization. Promises and expectations were high and are still very ambitious. Tobias will share lessons learned and best practices.
Target Audience: People who would to understand what happens on a data journey starting with a data strategy until handing over data products to business people.
Prerequisites: Curiosity
Level: Basic
Tobias Riedner is head of IT Data & Analytics in Danone since 2022. He is responsible for shaping and delivering the data analytics roadmap until 2025. Pillars are how to create business value out of data, defining the organization from scratch and deliver data products with the right architecture.
Im Rahmen der Migration eines Data Warehouse und der darauf aufbauenden Produkte in eine Cloud-Umgebung haben wir Erfahrungen gemacht, die in diesem Vortrag geteilt werden sollen. Anhand von thematisch gegliederten, kurzen Beispielen aus Bereichen wie technischer Architektur, Entwicklung sowie Projekt- und Produktmanagement zeigen wir unsere Erfolge und Misserfolge auf und formulieren Thesen für eine erfolgreiche Projektkultur, die für fruchtbare Diskussionen sorgen sollen.
Zielpublikum: BI-Verantwortliche und Projektmanager:innen, Data Engineers
Voraussetzungen: Interesse an (Business Intelligence) Projekten und Prozessen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Worum geht es eigentlich?
Thomas Oesterling-Pietsch ist Head of Data Management bei groupM Germany und seit mehr als 20 Jahren in der Mediabranche tätig. Aus dem BI-Bereich kommend, fokussiert er sich auf Themen des Data Managements und bildet zusammen mit seinem Team die Schnittstelle zwischen Anwendung und Entwicklung.
Markus Delhofen ist Geschäftsführer der arelium GmbH. Er ist seit mehr 20 Jahren in der IT-Branche zu Hause und besitzt umfangreiche Erfahrungen im Umfeld Microsoft SQL Server, Microsoft Azure und C#.NET-Entwicklung.
Sein Fokus liegt in den letzten 15 Jahren auf der Architektur und Implementierung von Datenplattformen. In diesem Umfeld kennt er sich sowohl mit modernen Cloud-Technologien als auch dem klassischen BI-Stack von Microsoft aus.
Habt Ihr diese Erfahrungen auch gemacht?
The Good: Wir starten mit ambitionierten Vorsätzen, um ein bestehendes Analytics System auf ein neues Level zu heben. Modernisierung heißt hier das Zauberwort.
The Bad: Dumm nur, wenn unsere Ambitionen und Vorsätze durch die Realität auf eine harte Probe gestellt werden.
The Ugly: Wir zeigen anhand von mehreren Beispielen auf, was in unseren Modernisierungsvorhaben nicht auf Anhieb funktioniert hat. Und warum wir überzeugt sind, dass eine Modernisierung sich trotzdem lohnt.
Zielpublikum: Alle, die schon einmal ein Analytics-Projekt im Kontext der Modernisierung durchgeführt haben, entweder als Projektleitung, Data Engineer, Entscheider:in etc.
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Habt Ihr diese Erfahrungen auch gemacht?
The Good: Wir starten mit ambitionierten Vorsätzen, um ein bestehendes Analytics System auf ein neues Level zu heben. Modernisierung heißt hier das Zauberwort. Durch ein modernes Data Management erreichen wir, dass mehr Daten in Echtzeit verarbeitet und bereitstellt werden können. Dank einem passgenauen Datenmodell integrieren wir schnell und automatisiert neue Datenquellen in unsere Anwendung. Mit dem modernen Frontend-Tool beglücken wir Data Consumer mit neuen Features, damit sie ihre Daten endlich effektiv nutzen können. Wir zielen auf viele Verbesserungen ab.
The Bad: Dumm nur, wenn unsere Ambitionen und Vorsätze durch die Realität auf eine harte Probe gestellt werden.
The Ugly: Wir zeigen anhand von mehreren Beispielen auf, was in unseren Modernisierungsvorhaben nicht auf Anhieb funktioniert hat. Mit diesen Beispielen zeigen wir reale Fälle auf, die wir als Berater:innen in unseren Projekten selbst miterlebt haben. Wir zeigen, dass Pauschalaussagen gefährlich sind und dass jedes Vorhaben von individuellen Gegebenheiten geprägt ist, für die es keine Musterlösungen gibt. Und wir sind überzeugt: Modernisierungen lohnen sich (trotzdem)!
Jürgen Fischer ist Director Corporate Development bei OPITZ CONSULTING Deutschland GmbH. In dieser Funktion verantwortet er die optimale Ausrichtung von Strukturen, Prozessen und Verhaltensweisen entlang der Wertschöpfungskette.
Seine fachlichen Wurzeln und seine Leidenschaft liegen im Bereich Business Intelligence und Analytics, in dem er seit mehr als 20 Jahren in zahlreichen Funktionen von der Analyse, Konzeption, Entwicklung bis zu Management und Führung überregionaler interdisziplinärer Teams tätig war. Sein aktueller Schwerpunkt liegt in der ganzheitlichen Beratung von der Strategie, der Konzeption und Organisation bis hin zur Verantwortung für die Umsetzung.
Arthur Arendt arbeitet bei OPITZ CONSULTING Deutschland GmbH als Manager Solution Consulting und verantwortet den regionalen DWH/BI & Analytics-Bereich. Seit über 8 Jahren setzt er sich im Projektgeschäft mit wirtschaftlichen und technischen Fragestellungen auseinander und erarbeitet kundenindividuelle Lösungen. Seine Erfahrungen kommen im gesamten Lebenszyklus von Analytics-Plattformen zur Geltung, wobei er besonderen Wert auf die Anforderungsaufnahme und -bewertung legt.
Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht, eine solche Software zu entwickeln. Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -typen sowie deren unterschiedliche Ansätze zur Erfassung von Gehirnströmen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der künstlichen Intelligenz einzusetzen.
Zielpublikum: Entscheider:innen, Manager:innen, Entwickler:innen, IT-affine Menschen
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -typen sowie deren unterschiedliche Ansätze zur Erfassung von Strömen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der künstlichen Intelligenz einzusetzen, welche die Auswertung der Gehirnströme aus der Elektroenzephalografie (EEG) unterstützen. Die Sprecher haben verschiedene Experimente und prototypische Showcases u. a. mit OpenBCI, EMotiv Epoc-X und NextMind implementiert und teilen ihre Erfahrung mit dem Publikum.
Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Echtzeit-Deepfakes, einer Shitposting-KI oder autonom fliegenden Minidrohnen.
Jonas studierte Informatik: Games Engineering an der TU München und beschäftigte sich dabei neben den üblichen Spieleprojekten auch intensiv mit High Performance Computing und Künstlicher Intelligenz.
Christoph Bergemann ist Consultant bei TNG Technology Consulting GmbH. In seinen Projekten hat er verschiedene Rollen als Entwickler, Architekt oder Product Owner ausgefüllt. Daneben ist er Mitglied im TNG Innovation Hacking Team, in dem er zur Entwicklung von Prototypen im VR und KI Umfeld beiträgt. Vor seinem Leben in der IT hat er als Wissenschaftler am Deutschen Zentrum für Luft- un d Raumfahrt gearbeitet. Dort hat er an Fernerkundung der Atmosphäre geforscht.