Konferenzprogramm

Die im Konferenzprogramm der TDWI München 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

 

Thema: AI

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    11.06.
  • Mittwoch
    12.06.
  • Donnerstag
    13.06.
, (Dienstag, 11.Juni 2024)
10:40 - 11:25
Di 1.1
Augmented Analytics – the path to become insight-driven
Augmented Analytics – the path to become insight-driven

Embarking on analytics transformation reveals a pivotal challenge: not all can be data-driven. Thus, we shift to Augmented Analytics, seamlessly integrating insights into workflows, bypassing the need for universal data literacy. This approach, elevates decision-making quality, operational efficiency and adoption, highlighting the journey towards a culture of insight-driven innovation. We'll explore the essence of Augmented Analytics as the cornerstone for the next analytics maturity level, highlighting the cultural and technical enablers.

Target Audience: Business Leaders/Professionals, Change/Transformation Manager, Analytics Professionals
Prerequisites: Basic knowledge: analytics transformation, genAI, data-driven culture, roles in transformation
Level: Advanced

Extended Abstract:
In our journey to transform analytics, we have come to a critical realization: Not everyone can and will be data-driven, because the reality and impact of data literacy is limited. Our current strategies need to evolve. Enter augmented analytics, a promising approach that will redefine the way we deal with insights. By integrating analytics directly into organizational workflows, we not only bypass the need for universal data literacy, but also significantly improve insight-driven decision making. This talk will explain how one commercial insurer is using this innovative strategy to improve decision quality, streamline operations, and foster a culture equipped to handle analytical challenges. We will explore the technical and methodological foundations and transformative enablers (the necessary roles, data liberalization, transformational mindset, and the importance of generative AI) that make augmented analytics not just a tool, but a catalyst for becoming truly insight-driven.

Willi Weber, with a background in business informatics, transitioned from software development at HDI Global natural catastrophe department to pioneering in analytics. He led the development of probabilistic models and pricing software, became head of data analytics, and architected HDI Global analytics transformation into an insight-driven company. Currently, he spearheads projects augmenting business processes through analytics and generative AI and is co-author of the book: Augmented Analytics.

Willi Weber
F111
Willi Weber
F111

Vortrag Teilen

10:40 - 11:25
Di 2.1
Neues Bundesliga-Fan-Erlebnis mit AI-Content-Transformation
Neues Bundesliga-Fan-Erlebnis mit AI-Content-Transformation

Entdecke, wie die Bundesliga die Sport-Interaktion durch KI-getriebene Transformation von Inhalten auf das nächste Level hebt! Erhalte Einblick in die strategische Anwendung von künstlicher Intelligenz durch die Bundesliga - von der Inhaltserstellung über die Inhaltsverteilung bis hin zur Neugestaltung der Fan-Interaktion. Verstehe die Rolle der KI bei der Schaffung dynamischer, personalisierter Fan-Erlebnisse und erfahre, wie sie die globale Reichweite durch mehrsprachige und formatspezifische Inhaltsanpassungen verbessert.

Zielpublikum: Projektleiter:innen, Entscheider:innen etc.
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Nach meinem Studium der Wirtschaftsinformatik in Münster und Sydney arbeitete ich zunächst 5 Jahre als Berater bei PwC, bevor ich dann 3 Jahre die Digital Analytics Practice für die Digitaltochter der Deutschen Fußball Bundesliga verantwortete. Nach einem Executive MBA an der Universität Münster und Tongji Universität in Shanghai führe ich seit März 2019 als Direktor ein 40-köpfiges interdisziplinäres Team aus Product Ownern, CRM-Managern, Entwicklern, Architekten und Infrastruktur-Experten. Mich begeistern neue Technologien im Bereich Digital und Web3, moderne Leadership Methoden und ich arbeite mit großer Motivation und Leidenschaft mit meinem Team an kreativen Lösungen, welche die Bedürfnisse unserer Fans erfüllt.

Als Lead Consultant bei Cologne Intelligence entschlüsselt Tobias Stumm die Geheimnisse, die in komplexen Daten verborgen sind. Ihm geht es darum, die Geschichten in den Zahlen zu finden, um Systeme und Prozesse durch den Einsatz modernster KI-Technologie zu verbessern. Mit mehr als vier Jahren Erfahrung ist er Experte für den Aufbau von End-to-End-KI-Lösungen und begleitet Kunden auf ihrer KI-Reise.

Alexander Altenhofen, Tobias Stumm
K4
Alexander Altenhofen, Tobias Stumm
K4
Vortrag: Di 2.1
Themen: AI

Vortrag Teilen

10:40 - 11:25
Di 4.1
Regulierung von KI durch den Gesetzgeber
Regulierung von KI durch den Gesetzgeber

Es muss gewährleistet sein, dass die auf dem Unionsmarkt in Verkehr gebrachten und verwendeten KI-Systeme sicher sind und die bestehenden Grundrechte und die Werte der Union wahren. Zur Förderung von Investitionen in KI und innovativen KI muss Rechtssicherheit gewährleistet sein. Governance und die wirksame Durchsetzung des geltenden Rechts sowie die Sicherheitsanforderungen an KI müssen gestärkt werden. Die Entwicklung eines Binnenmarkts für rechtskonforme, sichere und vertrauenswürdige KI-Anwendungen wird gesetzgeberisch reguliert.

Zielpublikum: Anwender von KI bzw. daran Interessierte
Voraussetzungen: Grundsätzliche Sensibilisierung für Compliance
Schwierigkeitsgrad: Basic

Seit 2015 ist Nils Bruckhuisen Rechtsanwalt in Köln. Zuvor arbeitete er freiberuflich in der Wirtschaftsprüfung. Nach Studium der Rechtswissenschaften an der Humboldt-Universität zu Berlin leistete er den juristischen Vorbereitungsdienst am Landgericht Koblenz ab. Von dort brach er zu einem (zu) kurzen Gastspiel in der deutschen Auslandshandelskammer in Nairobi/Kenia auf. Gemeinsam mit Lars von Lipinski von der FINCON verfasste er das TDWI E-Book 'Die neue EU-Datenschutzgrundverordnung - Auswirkungen auf Geschäftsprozesse und Analytische Informationssysteme'. Des Weiteren zeichnet er für das Kapitel zu Recht und Datenschutz in dem Buch 'Business Intelligence und Analytics in der Cloud', herausgegeben von Dr. Ralf Finger, verantwortlich. Seine Praxis ist wirtschaftsrechtlich ausgelegt, wobei das Datenschutzrecht insbesondere mit der im Mai 2018 in Kraft getretenen Datenschutzgrundverordnung (DSGVO) zunehmend an Bedeutung gewonnen hat.

Zur DSGVO beriet und berät er Unternehmen und Agenturen verschiedener Branchen (Bau, Handel, Werbung, IT-Security, Tourismus) sowie Vereine/gemeinnützige Organisationen. Für diese erstellte und kontrollierte er u.a. Verfahrensverzeichnisse und Verträge über Auftragsdatenverarbeitungen (AVV). Über das Tagesgeschäft hinaus widmet er sich dem Rechtsstaatsdialog, insbesondere mit Juristen in Kenia und auf dem Balkan.

Nils Bruckhuisen
E124
Nils Bruckhuisen
E124
Vortrag: Di 4.1
Themen: AI

Vortrag Teilen

10:40 - 11:25
Di 6.1
Innovation im Banking – Erfolgsfaktoren zur Nutzung von KI
Innovation im Banking – Erfolgsfaktoren zur Nutzung von KI

Die Implementierung von KI bei einem Banking-IT-Dienstleister ist ein strategischer Schritt. Im Fokus stehen Technologie (ML, Algorithmen), Compliance, Use-Case-Management, Recruiting und Education. Die Technologieoptimierung steigert Leistung und Effizienz. Compliance-Richtlinien werden transparent eingebunden. Ein strukturiertes Use-Case-Management sichert kundenorientierte Lösungen. Gezieltes Recruiting von KI-Experten sichert Fachkompetenz. Bildungsprogramme gewährleisten kontinuierliche Qualifikation der Mitarbeiter.

Zielpublikum: Projektleiter & Leitung von KI & Analytics
Voraussetzungen: Grundverständnis zu KI & Analytics
Schwierigkeitsgrad: Advanced

Malte Lange ist ein innovativer und ergebnisorientierter Experte für Datenanalyse mit nachgewiesener Erfolgsbilanz bei der strategischen Implementierung von Process Mining und der Entwicklung einer Marketingautomatisierungslösung. Technischer Architekt einer Datenanalyse- und KI-Plattform für über 350 Sparkassen, spezialisiert auf Business Development und Use-Case-Enablement. Karriereentwicklung vom Datenbankexperten zum Analytics-Enabler, gekennzeichnet durch Innovation, strategisches Denken und effektive Teamführung.

Malte Lange
E101/102
Malte Lange
E101/102

Vortrag Teilen

10:40 - 12:20
Di 7.1
Limitiert Data Governance in der Ära des Europäischen AI Act
Data Governance in der Ära des Europäischen AI Act

In einer datengetriebenen Welt stellt Künstliche Intelligenz (KI) die Data Governance vor neue Chancen und Herausforderungen. Die jüngste Einführung des Artificial Intelligence (AI) Acts durch die Europäische Union ist ein bedeutender Meilenstein in der Gestaltung einer zukunftsfähigen Data Governance. In unserem Workshop möchten wir diskutieren, welchen Einfluss die neuen Regularien auf bisherige Data-Governance-Initiativen nehmen werden und welche Weichen wir für eine KI gerüstete Data Governance stellen müssen.

Max. Teilnehmendenzahl: 50

Zielpublikum: C-Level Entscheider/Sponsoren, Datenkonsumenten (Data Scientists, Data Analysts, Data Engineers), Data Governance Office/Manager, AI Experts
Voraussetzungen: Interesse am Thema AI, Data Governance & Ethic AI
Schwierigkeitsgrad: Basic

Extended Abstract:
In der heutigen datengetriebenen Welt stellt künstliche Intelligenz (KI) die Data Governance vor nie da gewesene Chancen und Herausforderungen. Die jüngste Einführung des Artificial Intelligence Acts (AI Act) durch die Europäische Union ist ein bedeutender Meilenstein in der Gestaltung einer zukunftsfähigen Data Governance. Mit diesen Ereignissen zeichnet sich auch ein neuer Begriff - AI Governance - als Trend in der Data Community ab.

In unserem Workshop möchten wir diskutieren, welchen Einfluss die neuen Regularien auf bisherige Data-Governance-Initiativen nehmen werden und welche Weichen wir für eine KI gerüstete Data Governance stellen müssen.

Dazu möchten wir zunächst eine Übersicht zum EU AI Act geben, der letztes Jahr durch die Europäische Kommission verabschiedet wurde. Dabei sind zentrale Grundlagen und Regularien zur Nutzung und Transparenz von KI geschaffen worden, die auf einen ethischen Umgang mit KI abzielen. Hier möchten wir vor allem die Risikoklassifizierung von KI-Anwendungen beleuchtet und gleichzeitig Anwendungsfälle in den Bereichen Datenschutz und Sicherheit hervorheben.

Der Fokus unseres Workshops wird ein Dialog zur zentralen These sein: 'AI Governance ist Data Governance'.

Gemeinsam mit den Teilnehmenden werden wir auf das komplexe Zusammenspiel zwischen KI und Data Governance eingehen und uns dabei mit den Auswirkungen auf Organisation, Technologie und auf verschiedene Geschäftsfelder befassen. Im Austausch zu bisherigen Erfahrungen, Use Cases und möglichen Herausforderungen aus der Praxis möchten wir konkrete Strategien für eine KI gerüstete Datenstrategie & Data Governance ableiten.

Die aus dem Workshop gewonnenen Erkenntnisse sollen Bewusstsein für einen ethischen Umgang mit KI schaffen und für Transparenz hinsichtlich notwendiger Maßnahmen zur Einhaltung gesetzlicher Vorschriften sowie zur Risikominderung sorgen.

Finden Sie mit uns heraus, welche neuen Herausforderungen Ihre Data Governance erwarten, welche Blind Spots noch vorhanden sind und welche Enabler in einer KI-getriebenen Data Governance von zentraler Bedeutung sind.

Egal, ob Sie ein Datenmanagement-Experte, ein KI-Stratege oder ein Compliance-Beauftragter sind, seien Sie bei unserem Workshop dabei und diskutieren Sie mit über die Zukunft einer KI-befähigten Data Governance.

Katharina Conradi ist Product-Managerin bei der Synabi Business Solutions GmbH und bringt 8+ Jahre Erfahrung im Bereich Datenmanagement mit. Als Beraterin hat sie Kunden in diversen Datenprojekten (z.B. Datenstrategie, Data Warehouse, BI&Analytics etc.) begleitet. Heute ist es ihre Priorität, Markt- und Kundenbedürfnisse zu verstehen und neue Trends im Datenmanagement und Data Governance zu identifizieren, um kundenzentrierte innovative Lösungen zu entwickeln.

Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in den unterschiedlichen Branchen (Telekommunikation, Banken und Handel). In seiner Funktion als COO der Synabi Business Solutions GmbH verantwortet er die Konzeption und Umsetzung von Metadaten- und Data-Governance-Projekten.

Katharina Conradi, Wolf Erlewein
E105
Katharina Conradi, Wolf Erlewein
E105
Track: Hands-On
Vortrag: Di 7.1
Themen: AI

Vortrag Teilen

11:35 - 12:20
Di 6.2
Embeddings als Schlüssel zur KI-Use-Case-Multiplikation
Embeddings als Schlüssel zur KI-Use-Case-Multiplikation

Embeddings haben sich im KI-Kontext längst als eine bevorzugte Methode zur Datenrepräsentation etabliert. Durch den Einsatz unterschiedlicher Embedding-Methoden ist es bonprix gelungen, verschiedenartige KI-relevante Daten effizient nutzbar zu machen und so die Erschließung neuer KI-Use-Cases deutlich zu beschleunigen.

In diesem Vortrag wird der Aufbau eines Embedding-Portfolios aufgezeigt. Neben den verwendeten Methoden und den abgedeckten KI-Use-Cases werden auch die Implikationen für eine Buy-or-Make-Entscheidung beleuchtet.

Zielpublikum: Product Owner, Projektmanager:innen, KI-Manager:innen, Data Scientists, ML Engineers
Voraussetzungen: Grundsätzliches Verständnis von KI-Methodik und KI-Use-Cases
Schwierigkeitsgrad: Advanced

Sascha Netuschil ist Abteilungsleiter Data Science beim internationalen Modeunternehmen bonprix, wo er nach Einstieg als Web Analyst ab 2015 maßgeblich das Thema Data Science aufbaute und heute bereichsübergreifend verantwortet. Zu den von ihm umgesetzten KI- und Data-Science-Projekten zählen neben Recommender- und Personalisierungs-Systemen, Echtzeit-Intent-Erkennung und Fraud Detection auch Attributions- und Marketing-Mix-Modellierung sowie Preisoptimierungsalgorithmen.

Sascha Netuschil
E101/102
Sascha Netuschil
E101/102
Vortrag: Di 6.2

Vortrag Teilen

14:30 - 15:30
Di 2.3
ENTFÄLLT: KI-Regulierung – Wie können sich Unternehmen absichern?
ENTFÄLLT: KI-Regulierung – Wie können sich Unternehmen absichern?

Der Einsatz von Künstlicher Intelligenz wird zunehmend gesetzlich reguliert. Der EU AI Act ist verabschiedet, eine spezielle KI-Haftungsrichtlinie und die Neufassung der Produkthaftungsrichtlinie folgen. Ein europäisches KI-Amt befindet sich im Aufbau.

Dieser Vortrag gibt nach einem Überblick über den aktuellen Stand der KI-Regulierung konkrete Empfehlungen, wie sich Unternehmen vorbereiten können. Bereits durch ausgewählte Einzelmaßnahmen wie neue Vertragsklauseln mit Kunden und Entwicklungspartnern werden künftige Risiken deutlich reduziert.

Zielpublikum: Projektleiter, CDO, ML/AI Engineer, Data Scientist
Voraussetzungen: Grundverständnis von KI
Schwierigkeitsgrad: Basic

Extended Abstract:
Mit der KI-Verordnung hat die EU die Grundlage für die gesetzliche KI-Regulierung geschaffen. Haftungsfragen sollen eine spezielle KI-Haftungsrichtlinie und die Neufassung der Produkthaftungsrichtlinie regeln. Ein europäisches KI-Amt befindet sich im Aufbau.

Unternehmen sollten sich bereits heute auf die neuen gesetzlichen Anforderungen vorbereiten. Im Bestreben um eine ethisch verantwortungsvolle KI entwickelten Verbände, Initiativen und Einzelunternehmen Checklisten, Guidelines und Tools, die als Ausgangspunkt für eine KI-Governance genutzt werden können.

Eine meist unterschätzte Stellschraube für die Reduzierung von Haftungsrisiken ist das Vertragsrecht. Sinnvolle Regelungen in Kundenverträgen sowie in Verträgen mit externen Entwicklungspartnern und KI-Herstellern begrenzen ggf. die Haftung und regeln im Innenverhältnis Pflichten und Rechte, falls es zu einem juristischen Streitfall kommt.

Sonja Maria Lehmann beschäftigt sich seit 1996 mit Business Intelligence und Data Analytics. Nach einer Tätigkeit als Referentin für Wirtschafts- und Unternehmensethik sowie Führungspositionen in verschiedenen Kreditinstituten und Consultingunternehmen gründete sie 2003 die solecon GmbH. Sie berät Unternehmen und hält Seminare und Workshops zu Nachhaltigkeit, Sustainable Business Transformation, Unternehmensethik, Corporate Digital Responsibility und KI.

Sonja Maria Lehmann
K4
Sonja Maria Lehmann
K4
Vortrag: Di 2.3
Themen: AI

Vortrag Teilen

14:30 - 15:30
Di 4.3
Einsatz von Machine Learning zur Effizienzsteigerung und Validierung in der Pharmaindustrie
Einsatz von Machine Learning zur Effizienzsteigerung und Validierung in der Pharmaindustrie

In diesem gemeinsamen Präsentationsblock stehen zwei komplementäre Ansätze im Mittelpunkt, die den Einsatz von Machine Learning (ML) in der Pharmaindustrie zur Optimierung von Prozessen und Einhaltung regulatorischer Anforderungen thematisieren.

Alisa Walda und Dr. Julian Mußhoff eröffnen die Präsentation mit einem Einblick in die innovativen digitalen Strategien der Bayer AG. Sie zeigen auf, wie durch die Integration und Analyse von hochqualitativen Daten aus verschiedenen Produktionssystemen in der Cloud, mithilfe von ML-Methoden, die Produktionsausbeuten gesteigert werden können, ohne dabei die Qualität zu kompromittieren. Die Präsentation beleuchtet die Herausforderungen bei der GxP-konformen Validierung von ML-Modellen und die Implementierung von robusten Datenpipelines und Teststrategien.

Im Anschluss daran baut Dr. Philipp Kazzer von Syncwork AG auf den zuvor präsentierten Konzepten auf und geht spezifisch auf die Bedeutung der Trainingsdaten ein. Seine Studie zur Entitätenerkennung in der Pharmakovigilanz nutzt ML und NLP, um die Korrelation zwischen der Anzahl und Qualität der Trainingsdaten und der Modellgenauigkeit zu untersuchen. Durch die detaillierte Charakterisierung des verwendeten Datensatzes und den Einsatz fraktioneller k-fold Kreuzvalidierung am Beispiel eines T5-Sprachmodells werden wertvolle Erkenntnisse für die Optimierung von ML-Modellen in der Pharmakovigilanz gewonnen.

Diese Präsentationen betonen die Bedeutung einer soliden Datenbasis und die Notwendigkeit einer engen Zusammenarbeit zwischen IT-, Produktions- und medizinischen Experten, um die Potenziale von ML voll auszuschöpfen und nachhaltige Verbesserungen in der pharmazeutischen Industrie zu erzielen.

Zielpublikum: Pharma decision makers, Data Engineer, Data Scientist
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
In der Pharmaindustrie werden alle Schritte der Produktion im Detail dokumentiert. Dies führt zu einer großen Menge an hochqualitativen Daten in Systemen wie einem Manufacturing Execution System, Enterprise Resource Planning und Prozessleitsystem.

Hieraus ergibt sich allerdings auch die Herausforderung, diese verschiedenen Daten in der Cloud zusammenzubringen und auszuwerten. Insbesondere geht es darum, moderne Datenpipelines und Machine-Learning-Methoden robust abzusichern und in bestehende regulierte Prozesse zu integrieren. Der Vortrag wird auf Teststrategien, Versionskontrolle und Änderungsmanagement von Datenpipelines und Machine Learning eingehen.

Dafür kombinieren wir proprietäre Systeme und Open-Source-Software. Trotz der Ansprüche an die Qualität müssen Nutzer in die Lage versetzt werden, die Produktion signifikant zu verbessern. Es gilt daher, sich von Anfang an mit den Produktionskollegen auf das Ziel zu fokussieren und entsprechende wertsteigernde (Machine Learning) Use-Cases zu identifizieren.

Dr. Julian Mußhoff ist ein Data Scientist in der pharmazeutischen Produktion am Standort Elberfeld. Als studierter Physiker stellt er sich täglich den Herausforderungen eines Produktionsstandorts wie Prozessoptimierung, Root-cause Analysen und der Entwicklung digitaler Tools.

Alisa Walda ist IT-Beraterin bei der Syncwork AG mit Schwerpunkt Data Engineering und Reporting.

  • 01/24 - heute: Consultant bei der Syncwork AG im Bereich System Development
  • 07/22 - 01/24: Junior Consultant bei der Syncwork AG im Bereich Business Intelligence
  • 07/18 - 07/22: Werkstudentin bei der Syncwork AG im Bereich System Development
  • 10/17 - 03/22: Bachelorstudium Informatik an der TU Berlin
  • 12/22 - heute: Management Consultant bei der Syncwork AG im Bereich Business Intelligence
  • 12/18 - 11/22: Senior Consultant bei der Syncwork AG im Bereich System Development
  • 10/15 - 11/18: Consultant bei der Syncwork AG im Bereich System Development
  • 10/10 - 12/14: Wissenschaftlicher Mitarbeiter im Excellenz Cluster Languages of Emotion der Freien Universität Berlin/Charité Tätigkeitsschwerpunkt: Experimentelles-Design, Datenanalyse, Publikation
  • 10/05 - 10/14: Studium der Bioinformatik/Abschluss: Promotion
Julian Musshoff, Alisa Walda, Philipp Kazzer
E124
Julian Musshoff, Alisa Walda, Philipp Kazzer
E124
Vortrag: Di 4.3
Themen: AI

Vortrag Teilen

14:30 - 15:30
Di 6.3
World Café Generative Künstliche Intelligenz (GenAI)
World Café Generative Künstliche Intelligenz (GenAI)

Auf kaum einem anderen Thema gibt es unterschiedlichere Sichtweisen als auf Generative Künstliche Intelligenz (GenAI): Für die einen ist es beeindruckende angewandte Mathematik und ein netter Baustein für moderne IT-Lösungen. Für die anderen steht GenAI kurz vor eigenem Bewusstsein und automatisiert die Tätigkeit der meisten Wissensarbeiter.

Anhand provozierender Thesen diskutieren wir die Bedeutung von GenAI im World Café Format und erschließen das Wissen der Teilnehmer.

Die gemeinsame Basis dafür liefert ein kurzer Impulsvortrag.

Zielpublikum: Data & Analytics und BI Professionals
Voraussetzungen: Bereitschaft zum Austausch mit anderen, Neugier
Schwierigkeitsgrad: Basic

Dr. Gero Presser ist Mitgründer und Geschäftsführer der Dataciders GmbH, einem IT-Dienstleistungsunternehmen mit Fokus auf Data & Analytics und über 500 Mitarbeitern in Deutschland. Alle Dataciders eint die Vision, dass niemand jemals wieder schlechte Entscheidungen treffen muss.
Dr. Presser hat Informatik studiert, zu Entscheidungstheorie promoviert und ist u. a. im Vorsitz des TDWI Roundtable Ruhrgebiet, Dozent an der Hochschule Hamm-Lippstadt und Organisator der Meetup-Gruppe 'Business Intelligence & Analytics Dortmund' mit über 1.400 Mitgliedern.
Er ist leidenschaftlicher Skifahrer und glücklicher Familienmensch.

Gero Presser
E101/102
Gero Presser
E101/102
Vortrag: Di 6.3
Themen: AI

Vortrag Teilen

16:00 - 16:45
Di 2.4
Don't focus on the AI hype – focus on value with ChatGPT
Don't focus on the AI hype – focus on value with ChatGPT

Mit mehr als 1000 Nutzern auf der Cloud-Datenplattform muss DKV Mobility den nächsten Evolutionsschritt zur Data Driven Company gehen.

DKV Mobility nutzt Frosty von Snowflake, um Business Value für Non-Developer zu generieren, statt dem AI-Hype zu folgen.

Der Use Case erläutert den Why/How/What-Ansatz von DKV Mobility auf dem Weg zur Implementierung von Business-Modellen, die Generative AI enthalten. Abschließend wird auf die Do's & Don'ts eingegangen.

Zielpublikum: Entscheider, Interessierte an Generative AI
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Mit einer voll ausgereiften Cloud-Datenplattform mit mehr als 1.000 Nutzern muss DKV Mobility den nächsten Evolutionsschritt hin zu einem datengesteuerten Unternehmen gehen.

Während sich andere Unternehmen auf den ChatGPT-Hype konzentrieren, nutzt DKV Mobility Frosty von Snowflake, um einen echten Business Value für Non-Developer im Unternehmen zu generieren.

Mit der richtigen Kombination aus Cloud-Datenplattform und Data-Governance-Konzept eröffnet Snowflake ein völlig neues Feld für die Nutzung definierter Business-Daten zur Generierung von Business Value. Der Use Case erläutert den Why/How/What-Ansatz von DKV Mobility auf dem Weg zur Implementierung von Business-Modellen, die Generative AI enthalten. Abschließend wird auf die Do's & Don'ts eingegangen.

Dr. Sönke Iwersen verantwortet seit mehr 15 Jahren Data & Analytics-Organisationen in verschiedenen Industrien (u.a. Telefónica, Handelsblatt, XING, Fitness First, HRS). Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/soenke-iwersen/

Sönke Iwersen
K4
Sönke Iwersen
K4

Vortrag Teilen

16:00 - 16:45
Di 6.4
Logistik neu gelebt mit KI im Ladungsträgermanagement
Logistik neu gelebt mit KI im Ladungsträgermanagement

Für einen Kunden im Bereich des Ladungsträgermanagements entwickelte die ProCon-Experts einen Algorithmus, der mittels KI Vorschläge für mögliche Transportwege, zu wählende Partner und Umsatz- sowie Kostenkalkulationen innerhalb Europas erstellt. Mustererkennung und Bedarfsprognosen liefern Ansatzpunkte für Automatisierungen oder Optimierungen. Resultate sind nachhaltige und optimierte Routen, reduzierter Ressourcenaufwand und die Verbesserung des betriebswirtschaftlichen Ergebnisses.

Zielpublikum: Entscheider, Manager, Entwickler, IT-affine
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Der Kunde bietet umfangreiche Services in den Bereichen der Bereitstellung, Anlieferung, Abholung und Instandsetzung von Ladungsträgern (wie z. B. Europaletten, Gitterboxen, Euro-Plastik-Boxen) im europäischen Raum an. Des Weiteren ermöglicht das Pooling-Konzept des Kunden die mehrfache, branchenübergreifende und wesentlich nachhaltigere Nutzung von Ladungsträgern.

Bislang wurden die Disposition der Ladungsträger und die Organisation der Transporte mittels komplexer und zeitaufwendiger Prozesse manuell vorgenommen. Dies beinhaltete die Benutzung mehrerer, nicht miteinander verbundener Systeme, sowie eine Vielzahl von Abstimmungen mit den Partnern im Netzwerk. Die Qualität des Ergebnisses basierte einzig auf der langjährigen Erfahrung und dem Wissen des jeweiligen Mitarbeiters. Das schränkte die Wachstumsmöglichkeiten der Unternehmensgruppe signifikant ein. Die Gewinnmarge war, auch bei einem Wachstum, nahezu identisch. Skaleneffekte blieben weitestgehend aus.

Hauptgeschäft des Kunden ist die Vermietung von Ladungsträgern. Hierbei werden Bestellungen und Rückführungen von Kunden so miteinander verbunden, dass eine möglichst hohe Wiederverwendung erreicht wird. Die Kombination von Bestellungen und Rückführungen wird als Match bezeichnet und ist aufwendig manuell zu bilden gewesen. Zusätzlich sind noch Transportrouten, Abhol- und Anlieferungszeitpunkte zu planen sowie Verfügbarkeiten mit den Partnern abzustimmen.

Im Best-Match-Projekt wurden alle Planungsschritte inkl. Restriktionen durch eine selbst entwickelte Künstliche Intelligenz (KI) miteinander kombiniert. Ergebnis war die Ausgabe von Vorschlägen für zu bildende Matches, die Auswahl von Transportpartnern und die Berechnung von optimierten Routen, Umsätzen und Kosten basierend auf aktuellen und historischen Daten.

Im Tagesgeschäft bedeutet dieser Umstieg auf KI-unterstützte Prozesse folgende Performancesteigerung: Die KI berechnet aus den vorliegenden Aufträgen ca. 180.000 Match-Vorschläge innerhalb von 5 Minuten, wo die Mitarbeiter vorher nur eine niedrigere dreistellige Anzahl pro Tag erstellten. Die Ergebnisse inkl. Empfehlungen zur Sicherung von Lagerbeständen, Kundenzufriedenheit, Fahrstreckenminimierung, Profit und mehr werden für die Mitarbeiter visuell aufbereitet und können mittels Filtern und Sortierungen für den jeweiligen Zweck einfach eingeschränkt werden. Der ausgewählte Vorschlag wird folgend in das ERP-System übernommen und weiterverarbeitet. Zusätzlich wird das anonymisierte Auswahlverhalten mittels Machine Learning getrackt, um wiederkehrende Transporte zu erkennen, automatisiert im System umzusetzen und den Mitarbeitern Kapazitäten für komplexere und neue Anfragen zu geben.

Dr. Roxana-Adela Chira arbeitet als Managing Consultant bei der ProCon-Experts. Das Studium der Physik und Astrophysik wirkte katalysierend auf ihren Umgang und die Nutzung von Daten. In ihrem weiteren Berufsleben spezialisierte sie sich auf die Bereiche Data Management und Data Science, führte interessante Datenprodukte ein und übernahm vermehrt Projektleitungs- und Management-Aufgaben; bis hin zur Leitung der Daten-Abteilung.

Roxana-Adela Chira
E101/102
Roxana-Adela Chira
E101/102
Vortrag: Di 6.4
Themen: AI

Vortrag Teilen

16:00 - 18:00
Di 7.4
Limitiert Agile BI Clinic: Besucher fragen – Coaches antworten
Agile BI Clinic: Besucher fragen – Coaches antworten

Sind in deinem BI-Projekt agile Ansätze in der Praxis weniger erfolgreich als erwartet? Dann ist die Agile BI Clinic genau das Richtige für dich. Diese Session unterscheidet sich von traditionellen Vorträgen und Workshops. Sie bietet dir als Konferenzteilnehmer:in die einzigartige Chance, innerhalb von 25 Minuten deine spezifischen Fragen und Herausforderungen direkt mit einem erfahrenen Agile BI Coach zu diskutieren. Erhalte maßgeschneiderte Lösungen für deine Projekte und meistere deine BI-Herausforderungen!

Max. Teilnehmendenzahl: 30

Zielpublikum: Projektleiter, Product Owner, Scrum Master, BICC-Leiter, BI-Entwickler
Voraussetzungen: Idealerweise Voranmeldung via https://www.picktime.com/7af70961-09ac-458a-b5c9-82fa2ffd78f1 . Du kannst aber auch spontan vorbeikommen und schauen, welcher Coach gerade noch verfügbar ist! Der größte Nutzen für dich entsteht, wenn du ein konkretes Problem oder eine spezifische Fragestellung rund um die agile Arbeit im BI bzw. Datenumfeld hast.
Schwierigkeitsgrad: Basic

Extended Abstract:
Du stehst vor deinem ersten Business Intelligence (BI)- oder Data Warehousing (DWH)-Projekt, welches du agil abwickeln möchtest? Oder aber du steckst bereits mitten drin und irgendwie will das mit der Agilität im BI- und Datenkontext nicht so richtig klappen? Dann ist die Agile BI Clinic genau richtig für dich.

In der Agile BI Clinic geht es während 25 Minuten nur um dich und deine persönlichen Herausforderungen rund um Agilität in BI-Projekten bzw. dem agilen Arbeiten mit Daten im Allgemeinen. Egal ob du eher einen IT-Background hast oder deine Wurzeln im Controlling sind - in der Agile BI Clinic findet sich ein Coach, der oder die zu dir passt. Deswegen ist es auch wichtig, dass du dir im Vorfeld der Durchführung einen der begehrten Coaching-Termine reservierst! 
https://www.picktime.com/7af70961-09ac-458a-b5c9-82fa2ffd78f1

In der Agile BI Clinic bist du genau richtig, wenn du z.B. zu folgenden Themen eine Frage oder besondere Herausforderung hast (Liste nicht abschließend!):

  1. 'Agile funktioniert vielleicht für generelle Softwareentwicklung, aber nicht für BI-Teams' - Bedenken bezüglich der Anwendbarkeit agiler Methoden auf BI-Teams.
  2. 'Agile funktioniert möglicherweise bei BI-Teams in kleineren Unternehmen, aber nicht in einem Unternehmensumfeld' - Herausforderungen bei der Skalierung agiler Methoden in größeren Organisationen.
  3. 'Wir haben Agile BI in unserem Team versucht, aber es war nicht mit unserer Unternehmenskultur kompatibel' - Schwierigkeiten bei der Integration agiler Methoden in bestehende Unternehmenskulturen.
  4. 'Wir können nicht zwei Jahre lang in zweiwöchigen Iterationen arbeiten und dabei das große Ganze nicht aus den Augen verlieren' - Herausforderungen bei der langfristigen Planung und Aufrechterhaltung der strategischen Ausrichtung in agilen BI-Projekten.
  5. 'Ich würde gerne agiler arbeiten, aber mein Team hat keinen Bock.' – Wie kann agile BI das Team stärken?
  6. 'Ich sehe keinen Sinn darin, meine Arbeitsweise zu verändern.' – Wie kann ich persönlich in einem agilen Umfeld wachsen?
  7. 'Ich habe das Gefühl, die agile Transformation macht mir nur mehr Arbeit.' – Wie verlieren wir die Angst vor der Agilen Transformation?
  8. Agil und strategisch passen für mich nicht zusammen.' – Wie wir, anstatt nur Feuer zu löschen, Fortschritt durch unsere Arbeit erzielen.

Im Eingangsbereich zur Agile BI Clinic stehen dir verschiedene Informationstafeln rund um die Agile BI City (www.agilebi.city) zur Verfügung, auf welchen du dich über verschiedene Aspekte rund um die agile Abwicklung von BI-Vorhaben informieren kannst. Ergänzend dazu liegt Fachliteratur verschiedener Autoren aus, u.a. die Bücher der Agile BI Coaches. Dieser Bereich steht dir während der gesamten Öffnungszeit der Agile BI Clinic zur freien Verfügung.

Andrea Weichand ist Autorin des Buchs 'Agile Datenkompetenz: Reporting-Prozesse mit und ohne Excel gestalten'. Als ehemalige Controllerin und aktive Business-Intelligence-Expertin unterstützt sie seit 2007 Unternehmen und Einzelpersonen dabei, Datenprodukte und Datenstrategien umzusetzen. Aus diesen Erfahrungen hat sie die NewDataWork-Prinzipien abgeleitet und aufgeschrieben, die neben technischen auch auf kreative und agile Veränderungen abzielen.

Gianna Neeser arbeitet als Senior Consultant Data & Analytics bei der IT-Logix AG. Im Studium hat sie ihr Interesse an Daten entdeckt und beschäftigt sich heute mit der Entwicklung von Data Warehouses. Sie unterstützt Organisationen bei der Erhebung und Analyse von BI-spezifischen Anforderungen, der Durchführung von Projekten als Agile BI Coach in Entwicklerteams sowie dem Enablement der Fachanwender:innen. Gianna investiert sich zudem als «TDWI Young Gun» aktiv in die BI-Community.

Raphael Branger ist Autor des Buchs 'How to succeed with Agile Business Intelligence' sowie Co-Autor des Buchs 'Self-Service BI & Analytics'. Er arbeitet als Principal Consultant Data & Analytics bei der IT-Logix AG. Er hilft Organisationen, ihre Anforderungen rund um Daten und 'Analytics' zu erheben und umzusetzen. Er ist zugleich Stratege, Architekt, Requirements Engineer, Agile Coach aber auch Entwickler. Dadurch bringt er eine ganzheitliche Sicht in seine Projekte ein.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/raphael-branger/

Andrea Weichand, Gianna Neeser, Raphael Branger
E105
Andrea Weichand, Gianna Neeser, Raphael Branger
E105
Track: Hands-On
Vortrag: Di 7.4
Themen: AI

Vortrag Teilen

17:15 - 18:00
Di 2.5
Building an AI Center of Excellence at Austrian Power Grid
Building an AI Center of Excellence at Austrian Power Grid

In this presentation, Pascal will provide a comprehensive overview of the foundational strategies deployed in establishing the AI Center of Excellence at APG. He will give practical insights into the many challenges and the strategic solutions implemented to ensure the Center's success. Further, the session will delve into the intricate interdependencies among AI, analytics, coding, and data excellence - critical components that surface during the development of robust AI and data capabilities.

Target Audience: Strategists, project/program managers, corporate development, research and innovation, CIO/CEO/CTOs, lead data scientists, managers
Prerequisites: Basic knowledge of AI, analytics and data management are a plus, but not necessary
Level: Basic

Pascal Plank is the Head of the AI Center of Excellence at Austrian Power Grid, where he leads the Data Driven Utility Program. He drives company-wide data and AI projects to shape the digital grid of the future. Before APG, Pascal developed key AI strategies and revamped digital innovation management at ÖBB. In his spare time, he teaches machine learning at the University of Applied Sciences Technikum Vienna, imparting practical insights to aspiring data science students.

Pascal Plank
K4
Pascal Plank
K4
Vortrag: Di 2.5

Vortrag Teilen

17:15 - 18:00
Di 6.5
ENTFÄLLT: AI Platforms to the rescue!
ENTFÄLLT: AI Platforms to the rescue!

GenAI ist in aller Munde, und Use Cases schießen aus dem Boden. Die Herausforderung: Compliance, Betriebsreife oder Testen sind alles andere als egal und dabei häufig komplex. AI Platforms to the rescue!

Klassisches Platform Engineering hilft dabei: AI-Plattformen verbergen die technische Komplexität und ermöglichen so den Use-Case-Experten, sich auf die Umsetzung der fachlichen Innovationen zu konzentrieren, anstatt sich mit den zugrunde liegenden technischen Details auseinandersetzen zu müssen. Wir beleuchten, wie eine Plattform für Generative AI aussehen kann und welche Building Blocks sie benötigt.

Zielpublikum: Data Engineer, Decision Maker, AI Engineer
Voraussetzungen: None
Schwierigkeitsgrad: Basic

Extended Abstract:
Wir berichten aus der Praxis von Beispielen für Plattformen in Enterprise-Umfeldern, die wir entwickelt haben.

Dabei diskutieren wir, wie eine Plattformstrategie nicht nur die technische Umsetzung vereinfacht, sondern auch ein Ökosystem für Innovation schafft, das Zusammenarbeit fördert, Wiederverwendbarkeit erhöht und letztendlich die Zeit bis zur Markteinführung drastisch verkürzt.

Wir gehen neben technischen Bestandteilen insbesondere darauf ein, welche fachlichen Bausteine für die Umsetzung von Use Cases essenziell sind:

  • Ein Testframework, in dem Anwender einfach Testfälle schreiben können, um die fachliche Qualität der generierten Antworten zu überwachen und sicherzustellen
  • Bausteine für einfache Datenintegration und -verknüpfung

Mario-Leander Reimer is a passionate software developer and architect, proud father, and#CloudNativeNerd. Leander is the CTO at QAware. He’s continuously looking for innovations in software engineering and ways to combine and apply state-of-the-art technology in real-world projects. As a speaker at national and international conferences he shares his tech experiences and he teaches cloud computing and software quality assurance as a part-time lecturer.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/mario-leander-reimer/

Mario-Leander Reimer
E101/102
Mario-Leander Reimer
E101/102

Vortrag Teilen

, (Mittwoch, 12.Juni 2024)
09:00 - 10:00
Mi 1.1
Creating Data Transparency with the Support of LLMs and AI
Creating Data Transparency with the Support of LLMs and AI

Data Transparency is a basic need of every data worker. It is crucial to find the right data in a limited amount of time to keep the time-to-market of data and analytical products short. However, documenting and classifying data manually can be cumbersome due to the vast amount of data. In this session, we present the approach MediaMarktSaturn has taken to use LLMs and other AI models in combination with a data catalog to establish a high level of data transparency in a semi-automated way.

Target Audience: Chief Data Officers, Data Governance Managers, Data Strategists, Data Engineers, Data Scientists, Subject Matter Experts
Prerequisites: Basic knowledge of Data Catalogs and LLMs
Level: Basic

Extended Abstract:
Data Transparency is a basic need of every data worker. It is crucial to find the right data in a limited amount of time to keep the time-to-market of data and analytical products short. But with the ever-growing amount of data, it gets more and more difficult to keep up a suitable level of data transparency. In this session, we present the approach MediaMarktSaturn has taken to use LLMs and Open Source Data Catalogs to establish a high level of data transparency in a semi-automated way. With this approach, it is possible to keep the manual work at a suitable level and manage data transparency in an efficient way. Moreover, we will outline how this approach is integrated into the overall Data Governance and Data Architecture.

Dieter Berwald is Competency Lead and Product Owner at MediaMarktSaturn Technology, where he focuses on advanced analytics and data catalog applications. He currently leads projects aimed at entity recognition in large cloud data lakes, managing data access, and leveraging metadata for enhanced data utilization.

Dr. Christian Fürber ist promovierter Datenqualitätsexperte und Geschäftsführer der Information Quality Institute GmbH (iqinstitute.de), einem spezialisierten Beratungsunternehmen für Data Excellence und Data Management Lösungen. Vor der Gründung von IQI im Jahr 2012 war er in verschiedenen Positionen im Datenmanagement tätig. Unter anderem etablierter er für die Bundeswehr eine der ersten Data Governance Organisationen und führte dort ein standardisiertes Datenqualitätsmanagement ein. Christian und sein Team haben unzählige Datenprojekte und -strategien für bekannte Unternehmen verschiedener Branchen erfolgreich umgesetzt und ihnen dabei geholfen, erheblichen Mehrwert aus ihren Daten zu ziehen. Neben seiner Tätigkeit bei IQI ist Christian auch Autor und Redner auf Konferenzen (u.a. am MIT) und organisiert den TDWI Themenzirkel "Data Strategy & Data Governance".

Nitin embarked on his IT career in 2014 as a consultant, quickly gaining a reputation for his expertise and adaptability. Throughout his career, he has worked with a diverse range of clients across industries including telecommunications, petroleum, and disaster recovery. Nitin holds a Master's degree from the prestigious Technical University of Munich (TUM), which further solidified his foundation in data architecture and engineering. 
Following his studies, Nitin excelled as a Lead Data Architect/Data Engineer at several renowned companies. His innovative cloud solution architecture, particularly for real-time racetrack analytics, has been instrumental in securing multi-million dollar deals. Currently, Nitin serves as the Data Governance Lead at MediaMarktSaturn, where he continues to drive data excellence and governance initiatives.
 

Dieter Berwald, Christian Fürber, Nitin Vashisth
E119
Dieter Berwald, Christian Fürber, Nitin Vashisth
E119

Vortrag Teilen

09:00 - 10:00
Mi 4.1
Rocking the World of Airline Operations using Data, AI & OR
Rocking the World of Airline Operations using Data, AI & OR

Learn how Lufthansa Group is leveraging AI in the sky - and how you could apply the same concepts to your business. Lufthansa Group and Google Cloud developed a cloud native application that pulls data from operational systems to the cloud for analysis by artificial intelligence and operations research for optimizing flight operations. It balances crew availability, passenger demand, aircraft maintenance status etc. Recommendations are given to Operations Control for final checks and implementation.

Target Audience: People with interest in how to apply data driven optimization of their businesses. Data Engineers, Project Leads, and Decision Makers
Prerequisites: Interest in optimizing operational processes using data. A basic understanding of managing data coming from a diverse set of operational applications
Level: Advanced

Extended Abstract:
Imagine you are an airline OpsController responsible for running the operations of an airline and you just learned that an aircraft that was supposed to leave for Frankfurt in 30 minutes has to stay on the ground longer due to a minor repair. What do you do now? Passengers have booked connecting flights from Frankfurt, otherwise hotel accommodations might become necessary. Wait for the repair and possibly delay connecting flights as well? Is such a delay okay for the crews or will some exceed their permitted working hours? Is a replacement aircraft available? If so, is there a crew for it? And what about...  

Such a small issue can trigger a cascade of thighs to consider and this can quickly exceed human capabilities in their complexity. There are more potential matches of chess possible than protons in the universe. And airline operations is an even harder problem. Highly experienced people can solve situations to a certain extent based on their wealth of experience. But wouldn't it be better if optimal decisions across multiple business processes (which still can affect punctuality and passengers) were proposed to the person in the OpsControl Center with the support of an AI?

Lufthansa Group has addressed this problem and, together with Google Cloud, created a data platform for its operational data from core business processes. This data foundation is used as input for AI models to calculate future alternative scenarios from the airline's perspective. These are calculated using optimizers that Google contributes to the project. At runtime, in addition to the operational data, a set of airline-specific business rules together with a cost function, which is also the responsibility of the airline, are given to the so-called 'Solver'.

When a request is made, several scenarios are calculated in parallel. These differ in their respective configurations and their results are summarized and the best scenarios are displayed to the person in OpsControl as a proposal for evaluation via a specially created user interface. The person in OpsControl can then transfer the necessary changes back to the operational systems for implementation in the physical world. It is very important to note that today and for the foreseeable future a human being has the final say regarding the use of AI-generated proposals.

The application presented here optimizes across different business units simultaneously and avoids the common occurrence of local optimizations that contradict each other and may have to be resolved manually. The solution is in use at Swiss Intl. Airlines, a Lufthansa Group airline. After 18 months, the use of this technology resulted in CO2 emission savings of 7,400 tons per year through reduced fuel consumption, which is equivalent to approximately 18 Boeing 777 flights between Zurich and New York City. These savings will increase significantly when the application is rolled out to the other airlines in the Lufthansa Group.

In this presentation, Christian Most and Andreas Ribbrock will explain the use case. They will also show how the Lufthansa Group uses the cloud as a real-time data integration platform to prepare data from operational systems, each of which does exactly what it is supposed to do but is not designed to process data from other systems. The challenges posed by this approach will also be described. As well as the opportunities offered by 'serverless' technologies, since the project team does not have to worry about infrastructure.

Christian Most is a technology leader at Deutsche Lufthansa, focusing on innovation and the application of cutting-edge technologies in the airline industry. With a deep understanding of cloud computing, artificial intelligence, and data analytics, he drives Lufthansa's digital transformation initiatives.

Christian Most, Andreas Ribbrock
E101/102
Christian Most, Andreas Ribbrock
E101/102
Vortrag: Mi 4.1

Vortrag Teilen

, (Donnerstag, 13.Juni 2024)
09:00 - 09:45
Do 2.1
Daten und KI für eine effiziente und nachhaltige DB
Daten und KI für eine effiziente und nachhaltige DB

Daten, Analytik & KI sind Schlüsselfaktoren für eine effiziente, innovative und nachhaltige Zukunft der Deutschen Bahn. Die DB InfraGO setzt an der Basis - der Schieneninfrastruktur - an, indem wir diese für Ausbau, Instandhaltung und Zugbetrieb unter anderem durch digitale Produkte wie 'InfraMaps', das Google Maps der DB, analysieren. In ihrem Vortrag werden Dr. Nina Stumme und Florian Dohmann konkrete Produktbeispiele vorstellen und über ihre Erfahrungen beim Aufbau neuer 'intelligenter Architekturen' in diesem einzigartigen Umfeld berichten.

Zielpublikum: Data Engineers, Data Scientists, AI-Engineers, AI-Enthusiasts, Project Leader
Voraussetzungen: Grundkenntnisse
Schwierigkeitsgrad: Basic

Extended Abstract:
Daten, Analytik & Künstliche Intelligenz sind Schlüsselfaktoren für eine effiziente, innovative und nachhaltige Zukunft der Deutschen Bahn. Die DB InfraGo setzt an der Basis - der Schieneninfrastruktur - an, indem wir diese für Ausbau, Instandhaltung und Zugbetrieb unter anderem durch 'InfraMaps' als Google Maps der DB analysieren.

Im Herzstück von InfraMaps liegt die Visualisierung der Schieneninfrastruktur durch hochauflösende Fotos, die durch Drohnenaufnahmen sowie Videodaten bis hin zu 3D-Punktwolke-Daten mittels spezieller Sensor-Züge generiert werden. Diese werden letztlich kombiniert mit Bestandsdaten, die weitere Informationen zu Objekten wie z. B. Schranken liefern und zusammen eine virtuell digitale Repräsentanz der Schieneninfrastruktur bilden.

Um dieses zu erreichen, wurde eine neue Unit innerhalb der DB InfraGO mit einem interdisziplinären Team aus verschiedenen Expert:innen der DB und vielen weiteren Partnern ins Leben gerufen, um einen Beitrag zu einer effizienten, digitalen und nachhaltigen Zukunft der Deutschen Bahn und damit zur grünen Mobilitätswende zu leisten.

In ihrem Vortrag werden Dr. Nina Stumme und Florian Dohmann einige aktuelle konkrete Produktbeispiele vorstellen und über ihre Erfahrungen beim Aufbau neuer 'intelligenter Architekturen' in diesem einzigartigen Umfeld berichten. Neugierig geworden? Schauen Sie vorbei und finden Sie es heraus!

Dr. Nina Stumme ist Leiterin des Bereichs Datenmanagement, Analytik und KI bei der DB InfraGO, dem Schieneninfrastruktur-Unternehmen der Deutschen Bahn. 
In den vergangenen Jahren hat Nina zahlreiche Aktivitäten zur Wertschöpfung aus Daten für die notwendige Verbesserung von Qualität und Stabilität in der Schieneninfrastruktur initiiert. Sie reichen vom Aufbau eines rasant wachsenden Daten- und KI-Ökosystems mit Schaffung einer unternehmensweiten Datengrundlage für nachhaltige Geschäftslösungen, die Implementierung innovativer Analytics- & KI-Produkte bis hin zur Etablierung einer übergreifenden Data Governance für die DB InfraGO. 
Nina ist promovierte Mathematikerin und hat in verschiedenen Bereichen der Deutschen Bahn gearbeitet, wobei sie stets die Lücke zwischen den Anforderungen des Business und technologischen Möglichkeiten geschlossen hat.

Florian Dohmann ist Co-Founder & Chief Creative von Birds on Mars, einer führenden KI-Beratung und -Agentur, die Unternehmen dabei hilft, die Zwischenräume aus menschlicher Kreativität, maschineller Intelligenz und organisatorischer Identität zu erforschen und zu gestalten. Im Fokus: Nachhaltigkeit und das 'neue Neue'. Florian ist ein Experte für Daten, künstliche Intelligenz und digitalen Wandel, Intelligence Architect und Kreativer. Er ist Informatiker, IBM-Zögling, Keynote-Speaker, Gastdozent an verschiedenen Universitäten, Teil des Künstlerkollektivs YQP und Miterfinder der künstlich intelligenten Muse. Mehr unter: www.floriandohmann.com.

Nina Stumme, Florian Dohmann
E101/102
Nina Stumme, Florian Dohmann
E101/102
Vortrag: Do 2.1

Vortrag Teilen

09:55 - 10:40
Do 2.2
GenAI macht die Betonherstellung grüner – ein Praxisbericht
GenAI macht die Betonherstellung grüner – ein Praxisbericht

Seit ChatGPT der Öffentlichkeit zur Verfügung steht, ist generative Künstliche Intelligenz (GenAI) in aller Munde. Anwendungsfälle für GenAI konzentrieren sich meist noch auf die Bereiche Wissensmanagement, Process-Automation, Content-Creation und die Unterstützung kreativer Aufgaben. Doch liefert GenAI auch einen Mehrwert bei prädiktiven Aufgaben? In diesem Vortrag stellen wir ein Praxisbeispiel aus der Bauindustrie vor, bei dem GenAI zur Findung alternativer, umweltfreundlicherer Mischungsrezepturen für Zement und Beton herangezogen wird.

Zielpublikum: Data Scientists, IT-Entwickler und Forscher
Voraussetzungen: keine
Schwierigkeitsgrad: Advanced

Extended Abstract:
Die Bauindustrie und insbesondere die Beton- und Zementherstellung tragen massiv zum weltweiten CO2-Ausstoß bei. Gleichzeitig ist Beton als Baustoff in weiten Bereichen als alternativlos zu betrachten. CO2-optimierte Betonrezepturen bergen entsprechend enormes Potenzial für den Umweltschutz und stehen im Fokus der Forschung. Neben verbesserter Umweltfreundlichkeit müssen diese allerdings weiterhin Mindestanforderungen an mechanische Eigenschaften, wie beispielsweise der Druckfestigkeit, erfüllen. Schließlich müssen ebenso Faktoren wie Kosten und Verfügbarkeit berücksichtigt werden.

Die Suche nach neuen Varianten ist bisweilen sehr aufwendig: Typische Rezepturen werden durch Charakteristika wie Mischverhältnisse verschiedener Zementalternativen, Wassergehalt und Herstellungsprozess beschrieben. Während sich die CO2-Bilanz des Herstellungsprozesses auf Basis dieser Parameter heuristisch abschätzen lässt, ist es a priori nicht möglich, Eigenschaften wie Druckfestigkeit des resultierenden Materials auf Basis von Modellen vorherzusagen. Zeitaufwendige und kostenintensive Experimente sind notwendig, um diese zu ermitteln.

Auf der TDWI 2023 stellten wir bereits unsere Erfahrungen mit Sequential Learning zur Findung CO2-optimierter Betonrezepturen vor. Zusammen mit Kolleginnen und Kollegen der Bundesanstalt für Materialforschung und -prüfung (BAM) haben wir im Detail die Implikationen dieses Ansatzes für die Betonforschung analysiert. Durch Sequential Learning wird Schritt für Schritt ein Algorithmus mit neuem Wissen aus dem Labor angereichert und somit werden Vorhersagen iterativ verbessert. Eingebettet wurde dieses Prinzip in SLAMD, einer Webapp, die wir mit der BAM entwickelt haben. Diese stellt intuitive Funktionen für eine konkrete experimentelle Kampagne zur Verfügung und ermöglicht es so, die beschriebenen Ideen schneller umzusetzen.

Dieses Jahr berichten wir aus einem weiterführenden Projekt mit der TU Berlin und stellen unsere Erfahrungen mit dem Einsatz von Large Language Models (LLMs) zur Findung neuer Betonrezepturen vor. LLMs wie beispielsweise ChatGPT von OpenAI bieten gegenüber traditionelleren KI-Methoden den Vorteil, dass man mit ihnen in natürlicher Sprache über Prompts interaktiv kommunizieren kann. Die Zugänglichkeit für nicht IT-affine Anwender wird dadurch deutlich erhöht. Um das Potenzial von LLMs anhand robuster statistischer Analysen zu evaluieren, haben wir im Rahmen eines wissenschaftlichen Papers diverse Promptingstrategien für den Einsatz von LLMs im Bereich Sequential Learning verprobt und gebenchmarkt. Es zeigt sich: Mit den richtigen Strategien sind LLMs in der Lage, andere datengetriebene Ansätze zu schlagen. Das Potenzial des Ansatzes ist also deutlich erkennbar. Auf Basis der Ergebnisse haben wir SLAMD um einen LLM-basierten Bot erweitert, der Sequential Learning in natürlicher Sprache ermöglicht. Die vielversprechenden Ergebnisse zeigen, dass ein Ansatz über LLMs den Findungsprozess vereinfacht und gleichzeitig die Zugänglichkeit zu KI-Anwendungen erhöht.

Stefan Lüders ist studierter Physiker, der seit dem Studium seine Leidenschaft für Daten bei iteratec weiterverfolgt. Als erfahrener AI & Data Engineer befindet er sich an der Schnittstelle zwischen Data Science, Data Engineering, GenAI und klassischer Softwareentwicklung.

Stefan Lüders
E101/102
Stefan Lüders
E101/102
Vortrag: Do 2.2
Themen: AI

Vortrag Teilen

11:10 - 12:10
Do 2.3
Agile AI Architectures: Azure MLOps for Dynamic Usecases
Agile AI Architectures: Azure MLOps for Dynamic Usecases

Explore the future of MLOps as we delve into building Azure ML pipelines using OOP. Discover how a generic and reusable MLOps pipeline streamlines new use case initiation. We utilize MLflow for managing the ML lifecycle and model deployments. We leverage OOP and dependency injection to build an MLOps framework, eliminating all the boilerplate and making it easy for our customers to start new use cases. Developers can reuse, inject, or utilize AutoML for training modules. This solution is an accelerator and saves significant development time.

Target Audience: Data Scientists, Engineers, DevOps and all Data Enthusiasts
Prerequisites: Basic knowledge of Data Science, Data Engineering and DevOps
Level: Advanced

Extended Abstract:
In our solution, we integrate Azure AutoML, enabling individuals without expertise in data science to effortlessly deploy state-of-the-art machine learning models onto their datasets. This facilitates the extraction of optimal models, which can subsequently be refined and customized to align with their specific requirements.

Saurabh Nawalgaria is an Experienced Cloud and Data Engineer at Synvert Data Insights specializing in Azure, Kubernetes, Spark, and SQL. Proficient in designing and implementing ETL pipelines. Expert in leading and delivering pivotal Cloud Data Platform Projects. Versatile skills extend to MLOps, AzureML, and MLFlow. Proven ability to contribute significantly to diverse cloud and data engineering initiatives, demonstrating a robust technical acumen.

Mustafa is a seasoned Data Engineer and Architect Consultant at synvert Data Insights. Specializing in Spark, Azure, Databricks, He brings extensive experience in Data and Cloud technologies to his role. With a focus on data engineering and platform projects, he leads the Azure competence cluster. His expertise extends to designing and implementing robust data pipelines, optimizing data workflows, and architecting scalable solutions in Azure environments.

Saurabh Nawalgaria, Mustafa Tok
E101/102
Saurabh Nawalgaria, Mustafa Tok
E101/102
Vortrag: Do 2.3

Vortrag Teilen

15:10 - 15:55
Do 1.4
Mit AI-Excellence den europäischen AI-Act konform umsetzen
Mit AI-Excellence den europäischen AI-Act konform umsetzen

Die Auswirkungen der Künstlichen Intelligenz durchdringen sämtliche Bereiche unserer Gesellschaft, von der Prozessautomatisierung bis zur personalisierten Datenanalyse. Die EU reagiert darauf mit dem AI-Act, einem umfassenden rechtlichen Rahmen, der einheitliche Qualitätsstandards für KI-Systeme etabliert. Die Umsetzung stellt für viele Unternehmen eine bedeutende Herausforderung dar. Das 'AI-Excellence-Framework' präsentiert Handlungsfelder für eine effektive KI-Governance im Sinne des AI-Acts.

Zielpublikum: Data Governance Manager, Compliance Officer, CDO, Data Scientists
Voraussetzungen: Grundlegende Datenkenntnisse
Schwierigkeitsgrad: Basic

Jeannette Gorzala ist eine führende Persönlichkeit, Rechtsberaterin und Investorin auf dem Gebiet der künstlichen Intelligenz. Sie hat auf der ganzen Welt über KI gesprochen, berät über die globale KI-Politik und erstellt Leitfäden für Unternehmen, um sie über den Aufbau vertrauenswürdiger KI-Projekte zu informieren.

Jeannette Gorzala
F111
Jeannette Gorzala
F111

Vortrag Teilen

15:10 - 15:55
Do 3.4
Nutzen einer Data Fabric im Krankenhaus-Controlling
Nutzen einer Data Fabric im Krankenhaus-Controlling

Begonnen hat alles mit einem Cube. Inzwischen hat sich die analytische Landschaft von Agaplesion drastisch erweitert, die Begleitung des 'Patienten-Journey' ohne Daten unvorstellbar. Datengetriebene Entscheidungen beeinflussen alle Aspekte des KKH-Alltags. Ohne leistungsfähige Architektur dahinter undenkbar: Mit seiner Data Fabric nutzt Agaplesion verteilte Datenquellen, Wissen über Daten inkl. umfassender Datenschutzregeln und erlaubt so, mit intelligenten ML-Prozesse die KKH-Prozesse optimal, nachvollziehbar und sicher zu unterstützen.

Zielpublikum: Analytics/Solution Architects, Decision Makers, Controller, Project Leader. More technical than Business
Voraussetzungen: Basic Knowledge of Data Management Strategies and Architectures (Data Warehouse, Data Fabric)
Schwierigkeitsgrad: Advanced

Extended Abstract:
Der Fokus der analytischen Landschaft von Agaplesion hat sich dramatisch gewandelt: Während früher ausschließlich Planung und Reporting im Vordergrund standen und durch kombinierte Einzellösungen repräsentiert wurden, wird heute der Bedarf und Nutzen von Analysen sehr viel höher eingeschätzt. Der umfassende Datenschatz im Unternehmen kann vielfach zur Optimierung oder Steuerung der Prozesse genutzt werden, zum Vorteil für Patienten, medizinisches Personal, aber auch in kommerzieller Hinsicht. In Zeiten von Pandemien, Fachkräftemangel und im Hinblick auf die kommende Alterspyramide kann sich unsere Gesellschaft kein leeres Bett oder unnötige Doppeluntersuchungen leisten!

Der Bedarf an Umgang mit den vorhandenen oder neuen Daten kann nicht nur durch Experten gedeckt werden - Fachanwender, Analysten und Data Scientists sind gefragt! Damit der Umstieg, die Übernahme analytischer Tätigkeit effizient gelingt, sind neue Methoden und damit Technologien gefragt: Self-Service BI, Data Science benötigt gut dokumentierte Daten, damit Bedeutung und Hintergründe nicht nur den Datenexperten transparent sind. Gleichzeitig muss mit definierten, automatisierbaren Zugriffsregeln der Datenschutz sichergestellt werden. Und nicht zuletzt geht mit der zunehmenden Nutzung von Data Science und AI die Verantwortung nach Nachvollziehbarkeit und Überwachung der AI einher.

Agaplesion hat sich daher in einer technischen Neubewertung entschlossen, eine analytische Plattform einzuführen, die sowohl die Aspekte Data Governance, Datenzugriff und Potenzial für umfassende Data Science/AI-Prozesse abdeckt, als auch die bisherigen Einzellösungen integriert.

In diesem Vortrag werden der fachliche Hintergrund und die resultierende Daten-Strategie besprochen, die bisherige Umsetzung mit Erfolgen und Hindernissen gezeigt und die weiteren Ziele von Agaplesion mit dieser Plattform.

Jan Geesen, geboren 1986, beschäftigt sich seit 2012 mit dem Gesundheitswesen und Analytik. Erst als Controller mit Schwerpunkt BI in der Zentrale der AGAPLESION gAG, wo er zuständig war für alle Leistungsbereiche (Somatik, Psychiatrie, Wohnen & Pflegen, Hospiz, Reha, Med. Versorgungszentren). 2018 wechselte er für 2 Jahre in Leitungsfunktion ins Controlling an einen Konzernstandort mit 5 Gesellschaften und kehrte anschließend als Leitung Business Analytics zurück in die Zentrale. Dort treibt er seitdem die Datennutzung, -konsistenz und eine zentrale Datenstrategie voran.

Marc Bastien, Jahrgang 1967, arbeitet seit 1993 kontinuierlich in Analytics-Projekten. Nach einigen Jahren beim Endkunden, wechselte Marc Bastien schon bald zum Hersteller, um dort in zahlreichen Projekten in unterschiedlichen Branchen und Rollen mitzuarbeiten. Nach ca. 20 Jahren und zuletzt im Presales entschied er sich, wieder Lösungen von Anfang bis Ende zu begleiten. In seiner Eigenschaft als Analytics Architekt umfassen die Tätigkeiten von der Architekturberatung, über Umsetzung von analytischen Projekten bis zur Betriebsunterstützung großer Data Management Plattformen.

Jan Geesen, Marc Bastien
E124
Jan Geesen, Marc Bastien
E124

Vortrag Teilen

Zurück