Konferenzprogramm

Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Hier kannst Du die Programmübersicht der TDWI München 2024 mit einem Klick als PDF herunterladen.

 

Track: Data Science & AI

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    11.06.
  • Donnerstag
    13.06.
10:40 - 11:25
Di 2.1
Neues Bundesliga-Fan-Erlebnis mit AI-Content-Transformation
Neues Bundesliga-Fan-Erlebnis mit AI-Content-Transformation

Entdecke, wie die Bundesliga die Sport-Interaktion durch KI-getriebene Transformation von Inhalten auf das nächste Level hebt! Erhalte Einblick in die strategische Anwendung von künstlicher Intelligenz durch die Bundesliga - von der Inhaltserstellung über die Inhaltsverteilung bis hin zur Neugestaltung der Fan-Interaktion. Verstehe die Rolle der KI bei der Schaffung dynamischer, personalisierter Fan-Erlebnisse und erfahre, wie sie die globale Reichweite durch mehrsprachige und formatspezifische Inhaltsanpassungen verbessert.

Zielpublikum: Projektleiter:innen, Entscheider:innen etc.
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Als Head of Product bei DFL Digital Sports leitet Björn Rosenthal die digitale Transformation der Bundesliga, indem er Datenanalysen und Kundenfeedback mit UX zusammenführt, um innovative Produkte zu entwickeln. Seine Leidenschaft ist die generative KI, da er deren außergewöhnliches Skalierungspotenzial und transformative Wirkung auf verschiedenen digitalen Plattformen und Nutzererfahrungen erkannt hat.

Als Lead Consultant bei Cologne Intelligence entschlüsselt Tobias Stumm die Geheimnisse, die in komplexen Daten verborgen sind. Ihm geht es darum, die Geschichten in den Zahlen zu finden, um Systeme und Prozesse durch den Einsatz modernster KI-Technologie zu verbessern. Mit mehr als vier Jahren Erfahrung ist er Experte für den Aufbau von End-to-End-KI-Lösungen und begleitet Kunden auf ihrer KI-Reise.

Björn Rosenthal, Tobias Stumm
Björn Rosenthal, Tobias Stumm
Vortrag: Di 2.1

Vortrag Teilen

10:40 - 11:25
Di 6.1
Innovation im Banking – Erfolgsfaktoren zur Nutzung von KI
Innovation im Banking – Erfolgsfaktoren zur Nutzung von KI

Die Implementierung von KI bei einem Banking-IT-Dienstleister ist ein strategischer Schritt. Im Fokus stehen Technologie (ML, Algorithmen), Compliance, Use-Case-Management, Recruiting und Education. Die Technologieoptimierung steigert Leistung und Effizienz. Compliance-Richtlinien werden transparent eingebunden. Ein strukturiertes Use-Case-Management sichert kundenorientierte Lösungen. Gezieltes Recruiting von KI-Experten sichert Fachkompetenz. Bildungsprogramme gewährleisten kontinuierliche Qualifikation der Mitarbeiter.

Zielpublikum: Projektleiter & Leitung von KI & Analytics
Voraussetzungen: Grundverständnis zu KI & Analytics
Schwierigkeitsgrad: Advanced

Malte Lange ist ein innovativer und ergebnisorientierter Experte für Datenanalyse mit nachgewiesener Erfolgsbilanz bei der strategischen Implementierung von Process Mining und der Entwicklung einer Marketingautomatisierungslösung. Technischer Architekt einer Datenanalyse- und KI-Plattform für über 350 Sparkassen, spezialisiert auf Business Development und Use-Case-Enablement. Karriereentwicklung vom Datenbankexperten zum Analytics-Enabler, gekennzeichnet durch Innovation, strategisches Denken und effektive Teamführung.

Malte Lange
Malte Lange
Vortrag: Di 6.1

Vortrag Teilen

11:35 - 12:20
Di 2.2
Transforming minds and culture during a tech transformation
Transforming minds and culture during a tech transformation

Our unit has the opportunity to move to the AWS Cloud with its platforms and data. The main challenges we faced were/are:

  • Getting buy-in from all colleagues
  • Dealing with complexity
  • Re-skilling
  • Giving people a sense of belonging and psychological safety in a complex, hybrid and changing environment.

Find out more about how we dealt with these challenges, using lots of practical hacks, and the newest findings of Neuroscience. You might be surprised which measures worked best and also by how we had huge positive impact with an average budget

Target Audience: All colleagues working in Data Analytics and AI, presentation being specially interesting to leadership roles, such as Tech Leads, Scrum Masters, Product Owners, Product Managers, Tribe Chiefs etc.
Prerequisites: Active listening skills :) Otherwise none.
Level: Basic

Extended Abstract:
The session will give deeper insights on how we deal with:

  • Hiring in a market of skill shortage
  • Make retention/reduce fluctuation
  • Make people feel that they belong
  • How we help people to develop/give them attractive perspectives
  • How we move from a good to a great place to work (speaking in a metaphor, our vision is to become like the Maledives, so that everyone wants to go there and misses they place if/when they leave and want to come back)
  • Leadership/Agile Working
  • If time allows, insights on concreate measures on mental health and psychological safety can be given.

For a first impression on our people and culture please watch this video, which we produced ourselves: youtu.be/FMA4dk7elD0

Additionally here you see use cases with data provided by Swisscom: www.swisscom.ch/de/business/enterprise/angebot/platforms-applications/data-driven-business/mobility-insights-data.html

Marianne Temerowski is the People Lead of Data Services, at Data Analytics & AI at Swisscom and leads 114 Engineers, Scrum Masters and Product Owners (internals and externals).
She has

  • worked for about 15 years in the information and communications technology industry for companies such as SAP, Deutsche Telekom and Swisscom.
  • successfully implemented transformations of organizations, technologies, and products on several occasions.
  • many years' experience in leading people and over EUR 60 million in profit and loss responsibility.
  • studied Psychology and combined it with economics and law. She likes to apply the newest findings from Neuroscience at work.
  • lived in 7 countries and is half Chilean, half German. LinkedIn: www.linkedin.com/in/marianne-temerowski/
Marianne Temerowski
Marianne Temerowski
Vortrag: Di 2.2

Vortrag Teilen

11:35 - 12:20
Di 6.2
Embeddings als Schlüssel zur KI-Use-Case-Multiplikation
Embeddings als Schlüssel zur KI-Use-Case-Multiplikation

Embeddings haben sich im KI-Kontext längst als eine bevorzugte Methode zur Datenrepräsentation etabliert. Durch den Einsatz unterschiedlicher Embedding-Methoden ist es bonprix gelungen, verschiedenartige KI-relevante Daten effizient nutzbar zu machen und so die Erschließung neuer KI-Use-Cases deutlich zu beschleunigen.

In diesem Vortrag wird der Aufbau eines Embedding-Portfolios aufgezeigt. Neben den verwendeten Methoden und den abgedeckten KI-Use-Cases werden auch die Implikationen für eine Buy-or-Make-Entscheidung beleuchtet.

Zielpublikum: Product Owner, Projektmanager:innen, KI-Manager:innen, Data Scientists, ML Engineers
Voraussetzungen: Grundsätzliches Verständnis von KI-Methodik und KI-Use-Cases
Schwierigkeitsgrad: Advanced

Sascha Netuschil ist Abteilungsleiter Data Science beim internationalen Modeunternehmen bonprix, wo er nach Einstieg als Web Analyst ab 2015 maßgeblich das Thema Data Science aufbaute und heute bereichsübergreifend verantwortet. Zu den von ihm umgesetzten KI- und Data-Science-Projekten zählen neben Recommender- und Personalisierungs-Systemen, Echtzeit-Intent-Erkennung und Fraud Detection auch Attributions- und Marketing-Mix-Modellierung sowie Preisoptimierungsalgorithmen.

Sascha Netuschil
Sascha Netuschil
Vortrag: Di 6.2

Vortrag Teilen

14:30 - 15:30
Di 2.3
KI-Regulierung – Wie können sich Unternehmen absichern?
KI-Regulierung – Wie können sich Unternehmen absichern?

Der Einsatz von Künstlicher Intelligenz wird zunehmend gesetzlich reguliert. Der EU AI Act ist verabschiedet, eine spezielle KI-Haftungsrichtlinie und die Neufassung der Produkthaftungsrichtlinie folgen. Ein europäisches KI-Amt befindet sich im Aufbau.

Dieser Vortrag gibt nach einem Überblick über den aktuellen Stand der KI-Regulierung konkrete Empfehlungen, wie sich Unternehmen vorbereiten können. Bereits durch ausgewählte Einzelmaßnahmen wie neue Vertragsklauseln mit Kunden und Entwicklungspartnern werden künftige Risiken deutlich reduziert.

Zielpublikum: Projektleiter, CDO, ML/AI Engineer, Data Scientist
Voraussetzungen: Grundverständnis von KI
Schwierigkeitsgrad: Basic

Extended Abstract:
Mit der KI-Verordnung hat die EU die Grundlage für die gesetzliche KI-Regulierung geschaffen. Haftungsfragen sollen eine spezielle KI-Haftungsrichtlinie und die Neufassung der Produkthaftungsrichtlinie regeln. Ein europäisches KI-Amt befindet sich im Aufbau.

Unternehmen sollten sich bereits heute auf die neuen gesetzlichen Anforderungen vorbereiten. Im Bestreben um eine ethisch verantwortungsvolle KI entwickelten Verbände, Initiativen und Einzelunternehmen Checklisten, Guidelines und Tools, die als Ausgangspunkt für eine KI-Governance genutzt werden können.

Eine meist unterschätzte Stellschraube für die Reduzierung von Haftungsrisiken ist das Vertragsrecht. Sinnvolle Regelungen in Kundenverträgen sowie in Verträgen mit externen Entwicklungspartnern und KI-Herstellern begrenzen ggf. die Haftung und regeln im Innenverhältnis Pflichten und Rechte, falls es zu einem juristischen Streitfall kommt.

Sonja Maria Lehmann beschäftigt sich seit 1996 mit Business Intelligence und Data Analytics. Nach einer Tätigkeit als Referentin für Wirtschafts- und Unternehmensethik sowie Führungspositionen in verschiedenen Kreditinstituten und Consultingunternehmen gründete sie 2003 die solecon GmbH. Sie berät Unternehmen und hält Seminare und Workshops zu Nachhaltigkeit, Sustainable Business Transformation, Unternehmensethik, Corporate Digital Responsibility und KI.

Sonja Maria Lehmann
Sonja Maria Lehmann
Vortrag: Di 2.3

Vortrag Teilen

14:30 - 15:30
Di 6.3
World Café Generative Künstliche Intelligenz (GenAI)
World Café Generative Künstliche Intelligenz (GenAI)

Auf kaum einem anderen Thema gibt es unterschiedlichere Sichtweisen als auf Generative Künstliche Intelligenz (GenAI): Für die einen ist es beeindruckende angewandte Mathematik und ein netter Baustein für moderne IT-Lösungen. Für die anderen steht GenAI kurz vor eigenem Bewusstsein und automatisiert die Tätigkeit der meisten Wissensarbeiter.

Anhand provozierender Thesen diskutieren wir die Bedeutung von GenAI im World Café Format und erschließen das Wissen der Teilnehmer.

Die gemeinsame Basis dafür liefert ein kurzer Impulsvortrag.

Zielpublikum: Data & Analytics und BI Professionals
Voraussetzungen: Bereitschaft zum Austausch mit anderen, Neugier
Schwierigkeitsgrad: Basic

Dr. Gero Presser ist Mitgründer und Geschäftsführer der Dataciders GmbH, einem IT-Dienstleistungsunternehmen mit Fokus auf Data & Analytics und über 500 Mitarbeitern in Deutschland. Alle Dataciders eint die Vision, dass niemand jemals wieder schlechte Entscheidungen treffen muss.
Dr. Presser hat Informatik studiert, zu Entscheidungstheorie promoviert und ist u. a. im Vorsitz des TDWI Roundtable Ruhrgebiet, Dozent an der Hochschule Hamm-Lippstadt und Organisator der Meetup-Gruppe 'Business Intelligence & Analytics Dortmund' mit über 1.400 Mitgliedern.
Er ist leidenschaftlicher Skifahrer und glücklicher Familienmensch.

Gero Presser
Gero Presser
Vortrag: Di 6.3

Vortrag Teilen

16:00 - 16:45
Di 2.4
Don't focus on the AI hype – focus on value with ChatGPT
Don't focus on the AI hype – focus on value with ChatGPT

Mit mehr als 1000 Nutzern auf der Cloud-Datenplattform muss DKV Mobility den nächsten Evolutionsschritt zur Data Driven Company gehen.

DKV Mobility nutzt Frosty von Snowflake, um Business Value für Non-Developer zu generieren, statt dem AI-Hype zu folgen.

Der Use Case erläutert den Why/How/What-Ansatz von DKV Mobility auf dem Weg zur Implementierung von Business-Modellen, die Generative AI enthalten. Abschließend wird auf die Do's & Don'ts eingegangen.

Zielpublikum: Entscheider, Interessierte an Generative AI
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Mit einer voll ausgereiften Cloud-Datenplattform mit mehr als 1.000 Nutzern muss DKV Mobility den nächsten Evolutionsschritt hin zu einem datengesteuerten Unternehmen gehen.

Während sich andere Unternehmen auf den ChatGPT-Hype konzentrieren, nutzt DKV Mobility Frosty von Snowflake, um einen echten Business Value für Non-Developer im Unternehmen zu generieren.

Mit der richtigen Kombination aus Cloud-Datenplattform und Data-Governance-Konzept eröffnet Snowflake ein völlig neues Feld für die Nutzung definierter Business-Daten zur Generierung von Business Value. Der Use Case erläutert den Why/How/What-Ansatz von DKV Mobility auf dem Weg zur Implementierung von Business-Modellen, die Generative AI enthalten. Abschließend wird auf die Do's & Don'ts eingegangen.

Dr. Sönke Iwersen verantwortet seit mehr 15 Jahren Data & Analytics-Organisationen in verschiedenen Industrien (u.a. Telefónica, Handelsblatt, XING, Fitness First, HRS). Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/soenke.iwersen

Sönke Iwersen
Sönke Iwersen
Vortrag: Di 2.4

Vortrag Teilen

16:00 - 16:45
Di 6.4
Logistik neu gelebt mit KI im Ladungsträgermanagement
Logistik neu gelebt mit KI im Ladungsträgermanagement

Für einen Kunden im Bereich des Ladungsträgermanagements entwickelte die ProCon-Experts einen Algorithmus, der mittels KI Vorschläge für mögliche Transportwege, zu wählende Partner und Umsatz- sowie Kostenkalkulationen innerhalb Europas erstellt. Mustererkennung und Bedarfsprognosen liefern Ansatzpunkte für Automatisierungen oder Optimierungen. Resultate sind nachhaltige und optimierte Routen, reduzierter Ressourcenaufwand und die Verbesserung des betriebswirtschaftlichen Ergebnisses.

Zielpublikum: Entscheider, Manager, Entwickler, IT-affine
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Der Kunde bietet umfangreiche Services in den Bereichen der Bereitstellung, Anlieferung, Abholung und Instandsetzung von Ladungsträgern (wie z. B. Europaletten, Gitterboxen, Euro-Plastik-Boxen) im europäischen Raum an. Des Weiteren ermöglicht das Pooling-Konzept des Kunden die mehrfache, branchenübergreifende und wesentlich nachhaltigere Nutzung von Ladungsträgern.

Bislang wurden die Disposition der Ladungsträger und die Organisation der Transporte mittels komplexer und zeitaufwendiger Prozesse manuell vorgenommen. Dies beinhaltete die Benutzung mehrerer, nicht miteinander verbundener Systeme, sowie eine Vielzahl von Abstimmungen mit den Partnern im Netzwerk. Die Qualität des Ergebnisses basierte einzig auf der langjährigen Erfahrung und dem Wissen des jeweiligen Mitarbeiters. Das schränkte die Wachstumsmöglichkeiten der Unternehmensgruppe signifikant ein. Die Gewinnmarge war, auch bei einem Wachstum, nahezu identisch. Skaleneffekte blieben weitestgehend aus.

Hauptgeschäft des Kunden ist die Vermietung von Ladungsträgern. Hierbei werden Bestellungen und Rückführungen von Kunden so miteinander verbunden, dass eine möglichst hohe Wiederverwendung erreicht wird. Die Kombination von Bestellungen und Rückführungen wird als Match bezeichnet und ist aufwendig manuell zu bilden gewesen. Zusätzlich sind noch Transportrouten, Abhol- und Anlieferungszeitpunkte zu planen sowie Verfügbarkeiten mit den Partnern abzustimmen.

Im Best-Match-Projekt wurden alle Planungsschritte inkl. Restriktionen durch eine selbst entwickelte Künstliche Intelligenz (KI) miteinander kombiniert. Ergebnis war die Ausgabe von Vorschlägen für zu bildende Matches, die Auswahl von Transportpartnern und die Berechnung von optimierten Routen, Umsätzen und Kosten basierend auf aktuellen und historischen Daten.

Im Tagesgeschäft bedeutet dieser Umstieg auf KI-unterstützte Prozesse folgende Performancesteigerung: Die KI berechnet aus den vorliegenden Aufträgen ca. 180.000 Match-Vorschläge innerhalb von 5 Minuten, wo die Mitarbeiter vorher nur eine niedrigere dreistellige Anzahl pro Tag erstellten. Die Ergebnisse inkl. Empfehlungen zur Sicherung von Lagerbeständen, Kundenzufriedenheit, Fahrstreckenminimierung, Profit und mehr werden für die Mitarbeiter visuell aufbereitet und können mittels Filtern und Sortierungen für den jeweiligen Zweck einfach eingeschränkt werden. Der ausgewählte Vorschlag wird folgend in das ERP-System übernommen und weiterverarbeitet. Zusätzlich wird das anonymisierte Auswahlverhalten mittels Machine Learning getrackt, um wiederkehrende Transporte zu erkennen, automatisiert im System umzusetzen und den Mitarbeitern Kapazitäten für komplexere und neue Anfragen zu geben.

Dr. Roxana-Adela Chira arbeitet als Managing Consultant bei der ProCon-Experts. Das Studium der Physik und Astrophysik wirkte katalysierend auf ihren Umgang und die Nutzung von Daten. In ihrem weiteren Berufsleben spezialisierte sie sich auf die Bereiche Data Management und Data Science, führte interessante Datenprodukte ein und übernahm vermehrt Projektleitungs- und Management-Aufgaben; bis hin zur Leitung der Daten-Abteilung.

Roxana-Adela Chira
Roxana-Adela Chira
Vortrag: Di 6.4

Vortrag Teilen

17:15 - 18:00
Di 2.5
Building an AI Center of Excellence at Austrian Power Grid
Building an AI Center of Excellence at Austrian Power Grid

In this presentation, Pascal will provide a comprehensive overview of the foundational strategies deployed in establishing the AI Center of Excellence at APG. He will give practical insights into the many challenges and the strategic solutions implemented to ensure the Center's success. Further, the session will delve into the intricate interdependencies among AI, analytics, coding, and data excellence - critical components that surface during the development of robust AI and data capabilities.

Target Audience: Strategists, project/program managers, corporate development, research and innovation, CIO/CEO/CTOs, lead data scientists, managers
Prerequisites: Basic knowledge of AI, analytics and data management are a plus, but not necessary
Level: Basic

Pascal Plank is the Head of the AI Center of Excellence at Austrian Power Grid, where he leads the Data Driven Utility Program. He drives company-wide data and AI projects to shape the digital grid of the future. Before APG, Pascal developed key AI strategies and revamped digital innovation management at ÖBB. In his spare time, he teaches machine learning at the University of Applied Sciences Technikum Vienna, imparting practical insights to aspiring data science students.

Pascal Plank
Pascal Plank
Vortrag: Di 2.5

Vortrag Teilen

17:15 - 18:00
Di 6.5
AI Platforms to the rescue!
AI Platforms to the rescue!

GenAI ist in aller Munde, und Use Cases schießen aus dem Boden. Die Herausforderung: Compliance, Betriebsreife oder Testen sind alles andere als egal und dabei häufig komplex. AI Platforms to the rescue!

Klassisches Platform Engineering hilft dabei: AI-Plattformen verbergen die technische Komplexität und ermöglichen so den Use-Case-Experten, sich auf die Umsetzung der fachlichen Innovationen zu konzentrieren, anstatt sich mit den zugrunde liegenden technischen Details auseinandersetzen zu müssen. Wir beleuchten, wie eine Plattform für Generative AI aussehen kann und welche Building Blocks sie benötigt.

Zielpublikum: Data Engineer, Decision Maker, AI Engineer
Voraussetzungen: None
Schwierigkeitsgrad: Basic

Extended Abstract:
Wir berichten aus der Praxis von Beispielen für Plattformen in Enterprise-Umfeldern, die wir entwickelt haben.

Dabei diskutieren wir, wie eine Plattformstrategie nicht nur die technische Umsetzung vereinfacht, sondern auch ein Ökosystem für Innovation schafft, das Zusammenarbeit fördert, Wiederverwendbarkeit erhöht und letztendlich die Zeit bis zur Markteinführung drastisch verkürzt.

Wir gehen neben technischen Bestandteilen insbesondere darauf ein, welche fachlichen Bausteine für die Umsetzung von Use Cases essenziell sind:

  • Ein Testframework, in dem Anwender einfach Testfälle schreiben können, um die fachliche Qualität der generierten Antworten zu überwachen und sicherzustellen
  • Bausteine für einfache Datenintegration und -verknüpfung

Sonja Wegner ist Lead Software Architect und Business Unit Director bei der QAware. Ihre aktuellen Schwerpunkte liegen im Design und der Implementierung komplexer Systeme und Software-Architekturen. Seit einiger Zeit beschäftigt sie sich besonders mit dem Einsatz Generativer AI im Enterprise-Kontext und der Integration von AI-Bausteinen in komplexe Systeme. Sie teilt ihre Erfahrungen hierzu gerne und regelmäßig bei verschiedenen Konferenzen.

Sonja Wegner
Sonja Wegner
Vortrag: Di 6.5

Vortrag Teilen

09:00 - 09:45
Do 2.1
Daten und KI für eine effiziente und nachhaltige DB
Daten und KI für eine effiziente und nachhaltige DB

Daten, Analytik & KI sind Schlüsselfaktoren für eine effiziente, innovative und nachhaltige Zukunft der Deutschen Bahn. Die DB InfraGO setzt an der Basis - der Schieneninfrastruktur - an, indem wir diese für Ausbau, Instandhaltung und Zugbetrieb unter anderem durch digitale Produkte wie 'InfraMaps', das Google Maps der DB, analysieren. In ihrem Vortrag werden Dr. Nina Stumme und Florian Dohmann konkrete Produktbeispiele vorstellen und über ihre Erfahrungen beim Aufbau neuer 'intelligenter Architekturen' in diesem einzigartigen Umfeld berichten.

Zielpublikum: Data Engineers, Data Scientists, AI-Engineers, AI-Enthusiasts, Project Leader
Voraussetzungen: Grundkenntnisse
Schwierigkeitsgrad: Basic

Extended Abstract:
Daten, Analytik & Künstliche Intelligenz sind Schlüsselfaktoren für eine effiziente, innovative und nachhaltige Zukunft der Deutschen Bahn. Die DB InfraGo setzt an der Basis - der Schieneninfrastruktur - an, indem wir diese für Ausbau, Instandhaltung und Zugbetrieb unter anderem durch 'InfraMaps' als Google Maps der DB analysieren.

Im Herzstück von InfraMaps liegt die Visualisierung der Schieneninfrastruktur durch hochauflösende Fotos, die durch Drohnenaufnahmen sowie Videodaten bis hin zu 3D-Punktwolke-Daten mittels spezieller Sensor-Züge generiert werden. Diese werden letztlich kombiniert mit Bestandsdaten, die weitere Informationen zu Objekten wie z. B. Schranken liefern und zusammen eine virtuell digitale Repräsentanz der Schieneninfrastruktur bilden.

Um dieses zu erreichen, wurde eine neue Unit innerhalb der DB InfraGO mit einem interdisziplinären Team aus verschiedenen Expert:innen der DB und vielen weiteren Partnern ins Leben gerufen, um einen Beitrag zu einer effizienten, digitalen und nachhaltigen Zukunft der Deutschen Bahn und damit zur grünen Mobilitätswende zu leisten.

In ihrem Vortrag werden Dr. Nina Stumme und Florian Dohmann einige aktuelle konkrete Produktbeispiele vorstellen und über ihre Erfahrungen beim Aufbau neuer 'intelligenter Architekturen' in diesem einzigartigen Umfeld berichten. Neugierig geworden? Schauen Sie vorbei und finden Sie es heraus!

Dr. Nina Stumme ist Leiterin des Bereichs Datenmanagement, Analytik und KI bei der DB InfraGO, dem Schieneninfrastruktur-Unternehmen der Deutschen Bahn. 
In den vergangenen Jahren hat Nina zahlreiche Aktivitäten zur Wertschöpfung aus Daten für die notwendige Verbesserung von Qualität und Stabilität in der Schieneninfrastruktur initiiert. Sie reichen vom Aufbau eines rasant wachsenden Daten- und KI-Ökosystems mit Schaffung einer unternehmensweiten Datengrundlage für nachhaltige Geschäftslösungen, die Implementierung innovativer Analytics- & KI-Produkte bis hin zur Etablierung einer übergreifenden Data Governance für die DB InfraGO. 
Nina ist promovierte Mathematikerin und hat in verschiedenen Bereichen der Deutschen Bahn gearbeitet, wobei sie stets die Lücke zwischen den Anforderungen des Business und technologischen Möglichkeiten geschlossen hat.

Florian Dohmann ist Co-Founder & Chief Creative von Birds on Mars, einer führenden KI-Beratung und -Agentur, die Unternehmen dabei hilft, die Zwischenräume aus menschlicher Kreativität, maschineller Intelligenz und organisatorischer Identität zu erforschen und zu gestalten. Im Fokus: Nachhaltigkeit und das 'neue Neue'. Florian ist ein Experte für Daten, künstliche Intelligenz und digitalen Wandel, Intelligence Architect und Kreativer. Er ist Informatiker, IBM-Zögling, Keynote-Speaker, Gastdozent an verschiedenen Universitäten, Teil des Künstlerkollektivs YQP und Miterfinder der künstlich intelligenten Muse. Mehr unter: www.floriandohmann.com.

Nina Stumme, Florian Dohmann
Nina Stumme, Florian Dohmann
Vortrag: Do 2.1

Vortrag Teilen

09:55 - 10:40
Do 2.2
GenAI macht die Betonherstellung grüner – ein Praxisbericht
GenAI macht die Betonherstellung grüner – ein Praxisbericht

Seit ChatGPT der Öffentlichkeit zur Verfügung steht, ist generative Künstliche Intelligenz (GenAI) in aller Munde. Anwendungsfälle für GenAI konzentrieren sich meist noch auf die Bereiche Wissensmanagement, Process-Automation, Content-Creation und die Unterstützung kreativer Aufgaben. Doch liefert GenAI auch einen Mehrwert bei prädiktiven Aufgaben? In diesem Vortrag stellen wir ein Praxisbeispiel aus der Bauindustrie vor, bei dem GenAI zur Findung alternativer, umweltfreundlicherer Mischungsrezepturen für Zement und Beton herangezogen wird.

Zielpublikum: Data Scientists, IT-Entwickler und Forscher
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced

Extended Abstract:
Die Bauindustrie und insbesondere die Beton- und Zementherstellung tragen massiv zum weltweiten CO2-Ausstoß bei. Gleichzeitig ist Beton als Baustoff in weiten Bereichen als alternativlos zu betrachten. CO2-optimierte Betonrezepturen bergen entsprechend enormes Potenzial für den Umweltschutz und stehen im Fokus der Forschung. Neben verbesserter Umweltfreundlichkeit müssen diese allerdings weiterhin Mindestanforderungen an mechanische Eigenschaften, wie beispielsweise der Druckfestigkeit, erfüllen. Schließlich müssen ebenso Faktoren wie Kosten und Verfügbarkeit berücksichtigt werden.

Die Suche nach neuen Varianten ist bisweilen sehr aufwendig: Typische Rezepturen werden durch Charakteristika wie Mischverhältnisse verschiedener Zementalternativen, Wassergehalt und Herstellungsprozess beschrieben. Während sich die CO2-Bilanz des Herstellungsprozesses auf Basis dieser Parameter heuristisch abschätzen lässt, ist es a priori nicht möglich, Eigenschaften wie Druckfestigkeit des resultierenden Materials auf Basis von Modellen vorherzusagen. Zeitaufwendige und kostenintensive Experimente sind notwendig, um diese zu ermitteln.

Auf der TDWI 2023 stellten wir bereits unsere Erfahrungen mit Sequential Learning zur Findung CO2-optimierter Betonrezepturen vor. Zusammen mit Kolleginnen und Kollegen der Bundesanstalt für Materialforschung und -prüfung (BAM) haben wir im Detail die Implikationen dieses Ansatzes für die Betonforschung analysiert. Durch Sequential Learning wird Schritt für Schritt ein Algorithmus mit neuem Wissen aus dem Labor angereichert und somit werden Vorhersagen iterativ verbessert. Eingebettet wurde dieses Prinzip in SLAMD, einer Webapp, die wir mit der BAM entwickelt haben. Diese stellt intuitive Funktionen für eine konkrete experimentelle Kampagne zur Verfügung und ermöglicht es so, die beschriebenen Ideen schneller umzusetzen.

Dieses Jahr berichten wir aus einem weiterführenden Projekt mit der TU Berlin und stellen unsere Erfahrungen mit dem Einsatz von Large Language Models (LLMs) zur Findung neuer Betonrezepturen vor. LLMs wie beispielsweise ChatGPT von OpenAI bieten gegenüber traditionelleren KI-Methoden den Vorteil, dass man mit ihnen in natürlicher Sprache über Prompts interaktiv kommunizieren kann. Die Zugänglichkeit für nicht IT-affine Anwender wird dadurch deutlich erhöht. Um das Potenzial von LLMs anhand robuster statistischer Analysen zu evaluieren, haben wir im Rahmen eines wissenschaftlichen Papers diverse Promptingstrategien für den Einsatz von LLMs im Bereich Sequential Learning verprobt und gebenchmarkt. Es zeigt sich: Mit den richtigen Strategien sind LLMs in der Lage, andere datengetriebene Ansätze zu schlagen. Das Potenzial des Ansatzes ist also deutlich erkennbar. Auf Basis der Ergebnisse haben wir SLAMD um einen LLM-basierten Bot erweitert, der Sequential Learning in natürlicher Sprache ermöglicht. Die vielversprechenden Ergebnisse zeigen, dass ein Ansatz über LLMs den Findungsprozess vereinfacht und gleichzeitig die Zugänglichkeit zu KI-Anwendungen erhöht.

Stefan Lüders ist studierter Physiker, der seit dem Studium seine Leidenschaft für Daten bei iteratec weiterverfolgt. Als erfahrener AI & Data Engineer befindet er sich an der Schnittstelle zwischen Data Science, Data Engineering, GenAI und klassischer Softwareentwicklung.

Stefan Lüders
Stefan Lüders
Vortrag: Do 2.2

Vortrag Teilen

11:10 - 12:10
Do 2.3
Agile AI Architectures: Azure MLOps for Dynamic Usecases
Agile AI Architectures: Azure MLOps for Dynamic Usecases

Explore the future of MLOps as we delve into building Azure ML pipelines using OOP. Discover how a generic and reusable MLOps pipeline streamlines new use case initiation. We utilize MLflow for managing the ML lifecycle and model deployments. We leverage OOP and dependency injection to build an MLOps framework, eliminating all the boilerplate and making it easy for our customers to start new use cases. Developers can reuse, inject, or utilize AutoML for training modules. This solution is an accelerator and saves significant development time.

Target Audience: Data Scientists, Engineers, DevOps and all Data Enthusiasts
Prerequisites: Basic knowledge of Data Science, Data Engineering and DevOps
Level: Advanced

Extended Abstract:
In our solution, we integrate Azure AutoML, enabling individuals without expertise in data science to effortlessly deploy state-of-the-art machine learning models onto their datasets. This facilitates the extraction of optimal models, which can subsequently be refined and customized to align with their specific requirements.

Saurabh Nawalgaria is an Experienced Cloud and Data Engineer at Synvert Data Insights specializing in Azure, Kubernetes, Spark, and SQL. Proficient in designing and implementing ETL pipelines. Expert in leading and delivering pivotal Cloud Data Platform Projects. Versatile skills extend to MLOps, AzureML, and MLFlow. Proven ability to contribute significantly to diverse cloud and data engineering initiatives, demonstrating a robust technical acumen.

Mustafa is a seasoned Data Engineer and Architect Consultant at synvert Data Insights. Specializing in Spark, Azure, Databricks, He brings extensive experience in Data and Cloud technologies to his role. With a focus on data engineering and platform projects, he leads the Azure competence cluster. His expertise extends to designing and implementing robust data pipelines, optimizing data workflows, and architecting scalable solutions in Azure environments.

Saurabh Nawalgaria, Mustafa Tok
Saurabh Nawalgaria, Mustafa Tok
Vortrag: Do 2.3

Vortrag Teilen

15:10 - 15:55
Do 2.4
Privacy-Aware Retrieval Augmented Generation
Privacy-Aware Retrieval Augmented Generation

In this talk, we delve into the emerging field of applying large language models in the industry with focus on different techniques of augmenting large language models while preserving confidentiality of data that is used for additional context.

In this talk we will explore the fundamentals of RAG, its implications for privacy-preserving data handling, and practical considerations for its implementation on a real usecase.

Target Audience: machine learning engineers, data scientists, data engineers, privacy officers, software engineers, product owners
Prerequisites: Basic knowledge about large language models
Level: Advanced

Extended Abstract:
The rapid advancement of language models has brought in unprecedented capabilities in text generation, comprehension, and interaction. However, as these models become more integrated into industry applications, the tension between leveraging vast amounts of data for improved performance and ensuring the privacy of that data has intensified. This presentation delves into the practical application of Retrieval Augmented Generation (RAG) as a novel solution to this challenge, focusing on its implementation within large language models to balance data utility with confidentiality.

Retrieval Augmented Generation (RAG) combines the generative powers of large language models with the precision of information retrieval systems. By fetching relevant information on demand and incorporating it into the generation process, RAG models can produce more accurate and contextually relevant outputs. This technique not only enhances the model's utility by broadening its knowledge base but also introduces a mechanism for controlling the exposure of sensitive data.

The core of our discussion will center on the technical underpinnings of RAG, detailing how it retrieves information and the algorithms that govern its integration with generative models. We'll examine the architecture required to facilitate this interaction, the processes for indexing and retrieving content, and the methodologies for ensuring that the retrieved data does not compromise privacy.

Furthermore, we'll present a case study demonstrating RAG's application on a real project. This example will illustrate how RAG can be tailored to specific privacy requirements and regulatory standards, showcasing its versatility and effectiveness. We will also discuss the challenges faced during these implementations.

Damir Kopljar is a Team Lead at Croz AI, a Ph.D. candidate in the field of explainable AI, and a passionate drone pilot.
He is always curious to learn more about complex problems and find the best solutions using data and machine learning. Currently, his efforts are concentrated on assisting clients in identifying opportunities to leverage AI and implement machine learning across various scenarios, as well as on establishing future-oriented ML factories grounded in MLOps best practices.
When he's not fixing broken drones, he enjoys mountain climbing.

Damir Kopljar
Damir Kopljar
Vortrag: Do 2.4

Vortrag Teilen

Zurück