LLM-Assisted ETL: Ein Fall für spezialisierte KI
Wie setzt man LLMs produktiv ein, wenn generische Prompts und All‑in‑One‑Ansätze scheitern? Im Rahmen eines Projekts bei Daimler Truck haben wir gelernt, dass punktuelle LLM‑Bausteine in einer klassischen ETL‑Strecke oft robuster, erklärbarer und näher an den Anforderungen sind. Der Vortrag zeigt, wie tabellarische Änderungsdaten in prägnante Management‑Zusammenfassungen transformiert werden – und welche Prinzipien sich für industrielle NLP‑Anwendungen bewährt haben.
Zielpublikum: KI/GenAI-Entwickler:innen, Anforderungsmanagement, Enterprise-Data-Engineers, Automotive Stakeholder
Voraussetzungen: Grundwissen large language models, Verständnis für industrielle, domänenspezifische Anforderungen (insb. automotive)
Level: Basic
Extended Abstract:
Der Industriekontext stellt spezielle Anforderungen an KI‑Systeme: hohe Verlässlichkeit, klare Nachvollziehbarkeit und domänenspezifische Präzision. Im Projekt mit Daimler Truck verarbeiten wir komplexe technische Änderungsmeldungen und erzeugen daraus kompakte Management‑Zusammenfassungen. Schnell wurde deutlich, dass generische LLM‑Summaries die fachliche Tiefe und die impliziten Domänenbezüge nicht zuverlässig treffen.
Statt die gesamte Verarbeitung einem Sprachmodell oder mehreren Agenten zu überlassen, haben wir daher eine klassische ETL‑Pipeline entwickelt, die LLMs gezielt dort einsetzt, wo natürliche Sprache echten Mehrwert schafft: Verdichtung technischer Langtexte, Vereinheitlichung von Bezeichnungen oder Zusammenführung ähnlicher Änderungsinhalte. Die fachlich kritischen Schritte - Matching, Labeling, Strukturierung und Kontextaufbereitung - bleiben deterministisch und schaffen Vertrauen in Inhalt und Vollständigkeit.
Der Vortrag zeigt die zugrunde liegenden Architekturprinzipien, typische Stolpersteine im Anforderungsmanagement bei der Verwendung generativer KI und warum es sich (manchmal!) lohnt, Domänenwissen in ETL‑Logik, statt in Prompts zu verankern. Zudem geben wir Einblicke in Methoden zur Qualitätsbewertung und diskutieren, wie sich der Ansatz perspektivisch skalieren lässt – über zusätzliche Bauteilvarianten und weitere Bereiche hinweg. Das Ergebnis: Ein praxistauglicher, stabiler und erweiterbarer Ansatz für industrielles NLP.
Principal Data Scientist
Maximilian Pensel ist Informatiker mit einem Herz für symbolische und stochastische KI-Systeme. Nach seiner Promotion in der theoretischen Informatik wechselt er 2020 zur Alexander Thamm GmbH (kurz: [at]), eine der führenden Daten- und KI Beratungen in der DACH-Region. Er zählt als Principal Data Scientist zu den Experten bei [at], mit Spezialisierung in den Bereichen Forecasting und GenAI, mit einem Fokus auf Erklärbarkeit und Verlässlichkeit.
Mechatronik-Ingenieur
Matthias Galow arbeitet seit 2008 als Mechatronik-Ingenieur für die heutige Daimler Truck AG, heute in der Konstruktionsabteilung an der Schnittstelle zur Produktion.
Mit einem ausgeprägten Hang zu Datenaufbereitung und Automatisierung treibt er die Optimierung von Konstruktions- und Dokumentationsprozessen voran – auch durch den Einsatz von KI und Machine Learning.
Vortrag Teilen
