Hinweis: Die aktuelle TDWI-Konferenz findest Du hier!

CONFERENCE PROGRAM OF 2023

The times given in the conference program of TDWI München digital correspond to Central European Time (CET).

By clicking on "EVENT MERKEN" within the lecture descriptions you can arrange your own schedule. You can view your schedule at any time using the icon in the upper right corner.

Track: #Advanced Analytics & AI

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    20.06.
  • Mittwoch
    21.06.
10:40 - 11:25
Di 3.1
Entfesseln Sie den Wert von SAP-Daten in Databricks
Entfesseln Sie den Wert von SAP-Daten in Databricks

In der Vergangenheit wurden Daten häufig in einem monolithischen Data Warehouse gespeichert. Heute, mit dem Aufkommen von Big Data und dem Ruf nach Advanced Analytics, müssen bestehende Datensilos aufgebrochen werden. Eine besondere Herausforderung obliegt dabei der Öffnung des SAP-Universums und dem Zugriff auf die Datenschätze der unterschiedlichen SAP-Quellsysteme. 
Der Dozent präsentiert, wie SAP und Databricks Lakehouse auf direktem Wege kommunizieren können, ohne dass es Third-Party-Werkzeuge bedarf.

Zielpublikum: Fachleute, die SAP-Daten in eine Datenplattform (hier Databricks Lakehouse) integrieren möchten
Voraussetzungen: Grundlegendes Verständnis des SAP-Integrationsframeworks ODP und der Cloud-Infrastruktur (z. B. Azure Datalake Storage) sowie Databricks Lakehouse
Schwierigkeitsgrad: Fortgeschritten
 

Dr. Julius von Ketelhodt gestaltet und entwickelt seit vielen Jahren Data & Analytics-Projekte für namhafte Kunden aus verschiedenen Branchen. Sein Fokus liegt auf der Integration relevanter Daten aus verschiedenen SAP-Quellsystemen in führende Cloud-Datenplattformen. Als Product Lead leitet er ein Team, um die SAP-Integration weiterzuentwickeln und stetig zu vereinfachen. Sein Hintergrund liegt in der Physik mit Promotion im Bereich Seismologie.

Julius von Ketelhodt
K4
Julius von Ketelhodt
K4
Vortrag: Di 3.1
flag VORTRAG MERKEN

Vortrag Teilen

10:40 - 11:25
Di 6.1
Skalierbare Optimierung von Großanlagen mit ML und DevOps
Skalierbare Optimierung von Großanlagen mit ML und DevOps

Nach einem erfolgreichen PoC werden viele ML-Vorhaben aus Gründen des zeitlichen Aufwandes nicht produktiv umgesetzt. Im Bereich der Prozesssteuerung von Großanlagen können jedoch Optimierungen durch Machine Learning immense Kosteneinsparungen und Produkteffizienz bedeuten. Wir beschreiben den Prozess der Einführung von MLOps in der Azure Cloud zur Steuerungsoptimierung Hunderter Luftzerlegungsanlagen. Wir gehen auf Herausforderungen und Lösungsansätze ein, um MLOps in der Cloud parametrisierbar, skalierbar und überschaubar einzuführen.

Zielpublikum: Data Scientists, DevOps Engineers, Software Engineers, Cloud-Architekt:innen, Entscheider:innen, Project Information Manager
Voraussetzungen: Grundwissen Software Engineering, Machine Learning und DevOps
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Die Optimierung von Großanlagen wie Luftzerlegungsanlagen ist von zentraler Bedeutung, um langfristig und lieferkettenübergreifend Kosten zu reduzieren und die Produkteffizienz zu erhöhen. Die Implementierung von anlagenspezifischen Advanced Process Controls ist jedoch teuer, aufwendig und sehr zeitintensiv. Mittels Machine-Learning-Verfahren, insbesondere dem Reinforcement Learning, kann dieser Zeitaufwand auf gerade einmal einen Monat reduziert werden. Das resultierende Machine-Learning-Modell gleicht einem digitalen Zwilling der Anlage, welcher für die Simulation und Optimierung diverser Einstellungen für die Anlage nützlich ist. Ziel nach einem erfolgreichen PoC ist die vollautomatisierte und skalierbare Operationalisierung der gesamten Infrastruktur und Daten-Pipeline. Die Umsetzung dieses Projektes erfolgte aus Gründen von verfügbarer Hardware, Firewall-Richtlinien, Verfügbarkeit und Wartung der Systeme in der Cloud und nicht on-premise.

Dieser Vortrag betrachtet die Migration des Machine-Learning-Projektes von on-premise in die Microsoft Cloud. Wir zeigen, welche Herausforderungen bei der Umsetzung eines skalierbaren MLOps-Prozesses auftreten können und wie diese in diesem Projekt gelöst wurden.
 

Malwin Weiler ist als Trainee bei Linde Engineering eingestiegen und nun als Advanced Automation Engineer zuständig für Cloud-optimierte Lösungen. Er ist für die Automatisierung und Skalierung des neuen ML-basierenden Model Predictive Control für Luftzerlegungsanlagen zuständig.

Melanie B. Sigl ist Managing Consultant und leitet den Bereich Machine Learning bei PRODATO Integration Technology GmbH. Zusätzlich ist sie Lehrbeauftragte für 'Knowledge Discovery in Databases' am Lehrstuhl für Datenmanagement an der FAU Erlangen-Nürnberg.

Malwin Weiler, Melanie B. Sigl
E124
Malwin Weiler, Melanie B. Sigl
E124
Vortrag: Di 6.1
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
Di 3.2
Responsible AI: Von abstrakter Idee zu konkreter Umsetzung
Responsible AI: Von abstrakter Idee zu konkreter Umsetzung

Mit Blick auf die zunehmende Durchdringung von AI in den Geschäftsmodellen, regulatorischen Anforderungen wie dem EU-AI-Act und fehlendem Vertrauen der Kunden in AI stellt sich die Frage, wie Unternehmen dem gerecht werden. Welche Herausforderungen stellen sich bei der Umsetzung? Was heißt das für Modelle, Datenerhebung und Datenvorbereitung? Wir geben einen Einblick in das Thema Responsible AI, erläutern Herausforderungen und geben konkrete Ansätze für die Umsetzung anhand praktischer (Daten-)Beispiele.

Zielpublikum: Data Science und AI Praktizierende und Verantwortliche, Complianceverantwortliche, C-Level, Management, Datenmanagement, Data Governance Verantwortliche, Innovationsfördernde
Voraussetzungen: Basisverständnis von Künstlicher Intelligenz bzw. Machine Learning
Schwierigkeitsgrad: Einsteiger
 

Der studierte Wirtschafts- und Organisationswissenschaftler (M.Sc.) Ronny Kant fördert seit über 7 Jahren die digitale Transformation - sowohl organisatorisch als auch technisch bei unterschiedlich großen Kunden. In seiner Rolle als Manager und Projektleiter beschäftigt er sich mit regulatorischen Anforderungen, Data Science, Data Governance sowie Organisationsentwicklung und verantwortet aktuell ein Team von über 20 Experten:innen in den Bereichen Data Science, BI und Data Management.

Marc-Nicolas Glöckner ist seit neun Jahren für die PPI AG als Berater im Bereich Banking tätig. Als Senior Manager berät er seine Kunden vornehmlich in den Bereichen statistische Modellierung und KI. Fachliche Schwerpunkte sind dabei vor allem Kreditrisiko und Fraud Detection. Vor kurzem hat er eine Artikelserie zum Thema Explainable AI veröffentlicht.

Ronny Kant, Marc-Nicolas Glöckner
K4
Ronny Kant, Marc-Nicolas Glöckner
K4
Vortrag: Di 3.2
flag VORTRAG MERKEN

Vortrag Teilen

11:35 - 12:20
Di 6.2
Machine Learning gestützte Nebenkostenprognose bei der Deutsche Post DHL
Machine Learning gestützte Nebenkostenprognose bei der Deutsche Post DHL

Der Aufbau einer fachlich individuellen und durchgängig integrierten Systemlandschaft ermöglicht den fachbereichsübergreifenden Nutzern die volle Ausschöpfung des mehrstufigen Prognosepotenzials - alles in einer zukunftssicheren Umgebung.

Zielpublikum: Dateningenieur:innen, Datenwissenschaftler:innen, Projektleiter:innen, Entscheidungsträger:innen
Voraussetzungen: Grundkenntnisse in Maschinellem Lernen, Erfahrung in der Nebenkostenabwicklung
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die vollintegrierte State of the Art-Prognosesystemlandschaft setzt sich aus drei Komponenten zusammen. IBM Planning Analytics auf der Basis von TM1 bildet dabei den Kern des Microservices orientierten Eco-Systems. Die Machine-Learning-Umgebung wird durch den Einsatz zeitgemäßer Containerisierung ermöglicht, sodass dem Team zu jedem Zeitpunkt im Projekt der Zugang zu allen benötigten Data-Science-Werkzeugen, Python-Bibliotheken, Jupyter-Notebooks und Daten bereitsteht. Abschließend fungiert der IBM Planning Analytics-Workspace als webbasierter Zugang zur maßgeschneiderten Lösungen.
 

Als Head of Consulting der Business Intelligence und Data Analytics Beratung GMC² leitet Achim Bieroth erfolgreich das Projektgeschäft.

Seit über 25 Jahren ist er für seine Kunden von Mittelstand bis Konzern beratend tätig. Gemeinsam mit seinem erfahrenen, interdisziplinären Team entwickelt er optimale BI-Strategien und findet passgenaue, innovative Lösungen.

Besonders schätzt er eine vertrauensvolle Zusammenarbeit auf Augenhöhe - stets mit dem Ziel, seine Kunden noch erfolgreicher zu machen.
 

Wilhelm Becker ist als Senior Advisor im Nebenkosten-Team einer Immobilientochter der Deutschen Post AG tätig. Mit hoher Professionalität und Expertise ist er verantwortlich für die Vorhersage und Projektion der Nebenkosten aller Liegenschaften in Deutschland sowie für die Kostenanalyse von Neuobjekten. Leidenschaftlich widmet er sich der kontinuierlichen Verbesserung und Dynamisierung bestehender Prozesse durch gezielte Weiterentwicklung der aktuellen Datenlandschaft. 

Alexander Gusser ist als Lead Expert Innovation & Technology für Business Intelligence und Data Analytics Projekte bei GMC² verantwortlich. Seine Faszination für innovative Technologien treibt ihn dazu an, diese gekonnt miteinander zu kombinieren und auf kreative, experimentelle Art neue Lösungsansätze für fachliche und technologische Herausforderungen zu entwickeln. Besonders reizt ihn das Spannungsfeld zwischen der Entwicklung eines ganzheitlichen Lösungskonzepts und der hands-on Umsetzung, sowie dem tatsächlichen Go-live. 

Achim Bieroth, Wilhelm Becker, Alexander Gusser
E124
Achim Bieroth, Wilhelm Becker, Alexander Gusser
E124
Vortrag: Di 6.2
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
Di 3.3
Gesetzliche KI-Regulierung ante portas
Gesetzliche KI-Regulierung ante portas

Die EU-Kommission schafft mit der KI-Verordnung und der KI-Haftungsrichtlinie einen Regelungsrahmen für den KI-Einsatz. Je nach Risikokategorie sind verschiedene Pflichten zu erfüllen; bestimmte Nutzungen werden verboten. Bei der Haftung wird teils eine Kausalität zwischen KI-Einsatz und Schaden unterstellt. Die Regulierung gilt auch für KI-Systeme, die bei Inkrafttreten bereits produktiv sind. Lernen Sie die zentralen Regelungen kennen. Welche konkreten Anforderungen an die IT ergeben sich? Welche Vorbereitungen können bereits erfolgen?

Zielpublikum: Projektleiter:innen, CDO, ML/AI Engineer, Data Scientist
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die EU-Kommission reagiert auf die wachsende Bedeutung von KI mit einem eigenen Regelungsrahmen. Im April 2021 legte sie den Entwurf der sogenannten 'KI-Verordnung' vor. KI-Systeme werden in vier Risikokategorien mit verschiedenen Pflichten unterteilt; bestimmte Nutzungen werden verboten. Ergänzend stellte die EU-Kommission im September 2022 den Entwurf der 'KI-Haftungsrichtlinie' vor. Diese beinhaltet u. a. eine Kausalitätsvermutung zwischen KI-Nutzung und Schaden und weitreichende Offenlegungspflichten.
Beide Entwürfe befinden sich aktuell in Beratung. Nach Verabschiedung erfolgt die Umsetzung in nationales Recht in maximal 24 Monaten. Unternehmen, die KI nutzen, bleibt wenig Zeit zum Handeln. Insbesondere, da die Regelungen auch für bereits produktive KI-Anwendungen gelten sollen.
Lernen Sie die zentralen Inhalte der KI-Regulierung kennen. Welche konkreten Anforderungen resultieren für den KI-Einsatz? Welche Vorbereitungen sind notwendig?
 

Sonja Maria Lehmann beschäftigt sich seit 1996 mit Business Intelligence und Data Analytics. Nach einer Tätigkeit als Referentin für Wirtschafts- und Unternehmensethik sowie Führungspositionen in verschiedenen Kreditinstituten und Consultingunternehmen gründete sie 2003 die solecon GmbH. Sie berät Unternehmen und hält Seminare und Workshops zu Nachhaltigkeit, Sustainable Business Transformation, Unternehmensethik, Corporate Digital Responsibility und KI.

Sonja Maria Lehmann
K4
Sonja Maria Lehmann
K4
Vortrag: Di 3.3
flag VORTRAG MERKEN

Vortrag Teilen

13:50 - 14:50
Di 6.3
Let's get digital: MLOps zur Digitalisierung von Offlinern
Let's get digital: MLOps zur Digitalisierung von Offlinern

In dem Vortrag geben wir am Beispiel eines Print-Mailings einen vollumfänglichen Einblick in unseren MLOps- und Kampagnenprozess: Von der Erstellung eines Scoring-Modells zur Auswahl der Zielgruppe, über das Deployment und die automatisierte Verwendung dieses Modells auf einer Kubernetes-Plattform, bis zur Ausspielung des Print-Mailings an die Teilnehmer und die Erfolgskontrolle zeigen wir, wie wir Marketingbudgets zielgerichtet verwenden, um Teilnehmergruppen entsprechend der Zielvorgabe zu selektieren und somit Streuverluste zu minimieren.

Zielpublikum: Data Engineer, Data Scientist
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Die DeutschlandCard hat sich im Laufe der letzten 15 Jahre von einem Bonusprogramm mit dem eindeutigen Fokus auf das Punktesammeln am stationären POS unserer Partnerunternehmen zu einer Multichannel-Marketing-Plattform weiterentwickelt. Heute sind viele Vorteile der DeutschlandCard denjenigen Teilnehmern vorbehalten, die unsere digitalen Kanäle (App, Web, Newsletter) nutzen. Exklusive Online-Coupons, unser Prämienshop, vielfältige Angebote von weit über 1.000 Online-Partnern und viele weitere Benefits für die Teilnehmer sind ausschließlich digital nutzbar. Für unsere Partnerunternehmen eröffnen sich außerdem durch die Digitalisierung neue Möglichkeiten, ihre Kunden kosteneffizient, zielgerichtet und mit kurzer Vorlaufzeit zu erreichen. Aus diesen Vorteilen für unsere Teilnehmer und Partnerunternehmen resultiert das Ziel, möglichst viele 'Offline-Teilnehmer' in die digitalen Kanäle, insbesondere in die DeutschlandCard-App, zu bringen. 
In unserem Vortrag wollen wir am Beispiel eines Print-Mailings mit dem Ziel Digital-Shift einen vollumfänglichen Einblick in unseren MLOps- und Kampagnenprozess geben: Von der Erstellung eines Scoring-Modells zur Auswahl der Zielgruppe, über das Deployment und die automatisierte Verwendung dieses Modells auf einer State of the Art Plattform, bis zur Ausspielung eines Print-Mailings an die Teilnehmer und die Erfolgskontrolle zeigen wir, wie wir Marketingbudgets zielgerichtet verwenden, um Teilnehmergruppen entsprechend der Zielvorgabe zu selektieren und somit Streuverluste zu minimieren. 
Ein besonderes Augenmerk gilt in der Präsentation dabei einerseits der Erstellung und kontinuierlichen Optimierung des Scoring-Modells zur Identifikation der Teilnehmer mit der höchsten Wahrscheinlichkeit in die App zu konvertieren. Andererseits zeigen wir, wie wir dieses Modell deployen und auf einer hochmodernen Kubernetes-Architektur automatisiert anwenden. 
 

Marc Flockerzi verantwortet in der Abteilung Customer Insights mit seinem Team alle programmübergreifenden Fragestellungen bezüglich Customer Journey, E-Commerce, Methodik und Infrastruktur.

Eva Schmidt leitet die Abteilung Customer Insights bei der Mulitchannel-Marketing-Plattform DeutschlandCard. Dort verantwortet sie alle Themen rund um Data & Analytics. Dies umfasst neben programmübergreifenden Themen sämtliche analytischen Fragestellungen der Partnerunternehmen und deren Weiterentwicklung im Bereich datengetriebenes CRM.

Marc Flockerzi, Eva Schmidt
E124
Marc Flockerzi, Eva Schmidt
E124
Vortrag: Di 6.3
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 17:00
Di 3.4
Embedded Analytics, Intelligent Apps & AI Automation
Embedded Analytics, Intelligent Apps & AI Automation

This session looks at closing the loop between analytics and operations. It looks at embedding BI and machine learning models into operational business processes to guide and drive decisions and actions in everyday business operations. It looks at how to create intelligent applications, and at using AI driven automation for right-time business process optimisation and decision management.

Target Audience: Solution Architects, Business Analysts, CDOs, CDAOs, Process Specialists, Data Scientists, COOs
Prerequisites: Good understanding of BI and machine learning
Level: Advanced

Extended Abstract:
Although analytics in many organisations is well established, it is still the case that perhaps no more than 25% of employees make use of reports and dashboards from BI tools with even fewer using machine learning models or AI. There is still a long way to go if companies are to realise the promise of using ML and AI to automatically prevent problems, seize opportunities and continually optimise business processes in everyday business operations.
This session looks at how to make data-driven business work by closing the loop between analytics and operations. It looks at embedding BI and machine learning models into operational business processes to guide and drive decisions and actions in everyday business operations. It looks at how to create intelligent applications, and at using AI driven automation for right-time business process optimisation and decision management. The objective is to move towards automated, self-learning, AI-driven business operations.
•    An introduction to data-driven business optimisation
•    Technologies and tools for the data-driven intelligent enterprise
•    Architectures and methodologies for creating the smart enterprise
•    Embedding analytics and AI into operational applications and processes
•    Active dynamic planning and management for continuous optimisation
 

Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.

Mike Ferguson
K4
Mike Ferguson
K4
Vortrag: Di 3.4
flag VORTRAG MERKEN

Vortrag Teilen

15:20 - 16:05
Di 6.4
Architektur für ML-Workflows in der Google Cloud
Architektur für ML-Workflows in der Google Cloud

Der Vortrag beschäftigt sich mit Good Practices für die Entwicklung von Machine Learning-Pipelines und einer praxiserprobten Architektur in der Google Cloud. Es zeigt, wie man Data-Engineering-Herausforderungen, die Erstellung von Machine Learning-Modellen und MLOps-Betriebskonzepte miteinander verbinden kann, um effiziente und skalierbare Workflows zu erstellen. Durch die Auswahl der passenden Services schafft man eine zukunftsorientierte Architekturlösung.

Zielpublikum: Data Engineer, Data Scientist, Projektleiter:innen, Cloud Engineer, Cloud Architecture
Voraussetzungen: Erfahrung in Datenmanagement und Cloud Engineering
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der Vortrag befasst sich mit den Good Practices bei der Entwicklung von Machine Learning-Pipelines in der Google Cloud. Hierbei wird eine praxiserprobte Architektur vorgestellt, die verschiedene Services aus der Google Cloud-Landschaft nutzt. Die Schwerpunkte sind Data Engineering-Herausforderungen, die Entwicklung von Machine Learning-Modellen und die effiziente Umsetzung von MLOps-Betriebskonzepten. Prozesse, wie das Management unterschiedlicher Quelldatenformate und mögliche Datenstrukturänderungen, werden in der Architektur aufgegriffen. Der Schwerpunkt liegt auf wichtigen Pipeline-Schritten, wie Feature Engineering, Modellentwicklung und Modellbewertung, sowie dem effektiven Betrieb innerhalb der Google Cloud. Durch die Auswahl passender Services schafft man eine zukunftssichere Architekturlösung.
 

An Dang hat nach seinem Masterstudium in Wirtschaftsinformatik an der Hochschule der Medien in Stuttgart 2020 das Data-Science-Traineeprogramm bei der INFOMOTION angefangen. Nach erfolgreichem Abschluss konzentriert er sich auf die Umsetzung von Advanced Analytics Use Cases für Kunden und begleitet diese bis hin zur Industrialisierung. Außerdem bildet er neue Trainees und interne Mitarbeiter aus.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/an.dang

An Dang, Tobias Lindert
E124
An Dang, Tobias Lindert
E124
Vortrag: Di 6.4
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:00
Di 6.5
Kann KI aus der Krise führen?
Kann KI aus der Krise führen?

Natürlich ist Künstliche Intelligenz nicht das Allheilmittel, um aus den aktuellen Problemen zu führen. Aber je besser die Produktion, desto besser die Wirtschaftlichkeit und die Standortsicherheit. 

In diesem Vortrag werden Praxisbeispiele im Kontext Industrie 4.0 aufgezeigt, wie Energie mittels KI gespart wird, wie Ausschuss reduziert wird und wie Maschineneffizienz gesteigert wird.

Zielpublikum: Verantwortliche in der Produktion, bspw. Qualitätsmanager:innen, Energiemanager:innen, Instandhaltungsleiter:innen
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
 

Britta Hilt beschäftigt sich seit gut 10 Jahren mit der Anwenderseite von Künstlicher Intelligenz, hauptsächlich im produzierenden Gewerbe. Sie ist Mitbegründerin und Geschäftsführerin der KI-Firma IS Predict, die sich durch ihre Automatisierung von Data Science und erklärende KI für Industrie 4.0 einen Namen gemacht hat.

Britta Hilt
E124
Britta Hilt
E124
Vortrag: Di 6.5
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:30
Di 3.6
Future of AI is Now: Potenziale in Computer Vision und NLP
Future of AI is Now: Potenziale in Computer Vision und NLP

Was kann Künstliche Intelligenz heute leisten? In diesem Vortrag zeigen wir anhand einer Vielzahl von Live-Beispielen, ob der Begriff ein überhyptes Buzzword oder die Schlüsseltechnologie der digitalen Zukunft ist. Das TNG Innovation Hacking Team arbeitet seit Jahren an zahlreichen KI-Projekten im Bereich Computer Vision und Natural Language Processing. Kommen Sie auf eine Reise durch die Welt der Künstlichen Intelligenz und deren Architektur, vorgestellt am Beispiel verschiedener Innovations-Projekte.

Zielpublikum: Entscheider:innen, Manager:innen, Entwickler:innen, IT-affine Menschen
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
 

Martin Förtsch ist ein IT-Berater der TNG Technology Consulting GmbH mit Sitz in Unterföhring bei München und studierte Informatik. Seine Arbeitsschwerpunkte sind Agile Development (hauptsächlich) in Java, Suchmaschinentechnologien, Information Retrieval und Datenbanken. Als Intel Software Innovator und Intel Black Belt Software Developer ist er darüber hinaus intensiv in der Entwicklung von Open-Source-Software im Bereich der 3-D-Kameratechnologien und dem Internet of Things involviert. Darüber hinaus hält er zahlreiche Vorträge auf nationalen und internationalen Konferenzen zu den Themen Künstliche Intelligenz, Internet der Dinge, Augmented Reality und Test-Driven Development. Er wurde u. a. mit dem Oracle JavaOne Rockstar ausgezeichnet.

Thomas Endres arbeitet in der Rolle eines Partners als IT-Consultant für TNG Technology Consulting in München. Mit dem TNG-Innovation-Hacking-Team entwickelt er verschiedene Prototypen - darunter ein Telepräsenz-Robotik-System, verschiedene KI-Prototypen und AR/VR-Showcases. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award.

Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Echtzeit-Deepfakes, einer Shitposting-KI oder autonom fliegenden Minidrohnen.
Jonas studierte Informatik: Games Engineering an der TU München und beschäftigte sich dabei neben den üblichen Spieleprojekten auch intensiv mit High Performance Computing und Künstlicher Intelligenz.

Martin Förtsch, Thomas Endres, Jonas Mayer
K4
Martin Förtsch, Thomas Endres, Jonas Mayer
K4
Vortrag: Di 3.6
flag VORTRAG MERKEN

Vortrag Teilen

17:30 - 18:30
Di 6.6
Why AI? Explainable AI (XAI)
Why AI? Explainable AI (XAI)

Eine Möglichkeit, die Nachvollziehbarkeit der Entscheidungen von KI-Modellen zu erhöhen, ist Explainable AI (XAI). In unserem Vortrag geben wir eine Einführung in dieses sehr relevante und spannende Feld. Anhand eines Use-Cases zeigen wir die Wichtigkeit von XAI auf und gehen tiefer auf einige Methoden ein, die helfen können, die gestellten Anforderungen zu erfüllen. Zusätzlichen diskutieren wir den konkreten Nutzen, den XAI bringen kann, anhand einer Reihe von Beispielen aus der Praxis und geben einen Einblick, welche Bereiche besonders profitieren können.

Zielpublikum: Entscheider:innen, Data Scientists
Voraussetzungen: Grundsätzliche Kenntnis über Machine Learning-Anwendungen
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Moderne KI-Algorithmen werden zunehmend komplexer und die getroffenen Vorhersagen können immer schwer nachvollzogen werden. Dies erschwert den Einsatz von KI im Allgemeinen und besonders in hochregulierten Bereichen, in denen Nachvollziehbarkeit eine große Rolle spielt (z. B. Finance und Insurance). Aktuelle Gesetzesvorhaben wie der European AI-Act verstärken dieses Problem zusätzlich, da Nachvollziehbarkeit mehr und mehr zu einer verpflichtenden Eigenschaft von KI-Modellen in vielen Bereichen wird. Eine Möglichkeit, die Nachvollziehbarkeit der Entscheidungen von KI-Modellen zu erhöhen, ist Explainable AI (XAI). In unserem Vortrag geben wir eine Einführung in dieses sehr relevante und spannende Feld. Anhand eines Use-Cases zeigen wir die Wichtigkeit von XAI auf und gehen tiefer auf einige Methoden ein, die helfen können, die gestellten Anforderungen zu erfüllen. Zusätzlichen diskutieren wir den konkreten Nutzen, den XAI bringen kann, anhand einer Reihe von Beispielen aus der Praxis und geben einen Einblick, welche Bereiche besonders profitieren können.
 

Andreas Gillhuber ist seit 2017 bei der Alexander Thamm GmbH tätig und verantwortet als Managing Director und Co-CEO das operative Geschäft in den über 300 Kundenprojekten (Delivery). Er verfügt über langjährige Expertise aus komplexen IT- und Transformationsprogrammen, Restrukturierungen, Digitalisierungs- sowie Data Strategy / Engineering-Projekten. Andreas Gillhuber hat über 25 Jahre Industrie- und Konzernerfahrung und war zuvor in Geschäftsleitungs- und IT-Management-Positionen bei BMW, RWE, Nokia Siemens Networks und Siemens. Nach seinem Studium der Elektrotechnik und Informationstechnik, das er als Dipl.-Ing. an der TU München abschloss, startete er in Vertrieb und Marketing bei der IBM in USA und Deutschland.
Er ist außerdem Buchautor und Vorstandsmitglied der German Data Science Society (GDS) e.V.
 

Johannes Nagele hat einen wissenschaftlichen Hintergrund in Biophysik und Hirnforschung und verfügt über mehr als 10 Jahre Erfahrung in Statistik, Datenwissenschaft, maschinellem Lernen und künstlicher Intelligenz. Er kombiniert seine langjährigen praktischen Erfahrungen mit konzeptionellen Ansätzen zur Analyse komplexer Systeme. 
Bei [at] leitet er den Exzellenzcluster zu erklärbarer KI.
 

Luca Bruder hat einen wissenschaftlichen Hintergrund in kognitiven Neurowissenschaften und kombiniert diesen mit Fachwissen in den Bereichen Reinforcement Learning und Bayes'sche Modellierung. 
Bei [at] leitet er ein großes Forschungsprojekt über erklärbare KI im Bereich autonomes Fahren und Computer Vision.
 

Andreas Gillhuber, Johannes Nagele, Luca Bruder
E124
Andreas Gillhuber, Johannes Nagele, Luca Bruder
E124
Vortrag: Di 6.6
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:00
Mi 3.1
Anonymization 2.0: AI-Driven solution for text anonymization
Anonymization 2.0: AI-Driven solution for text anonymization

This talk will explore the concept of automated text anonymization powered by machine learning, a solution that can quickly and accurately protect sensitive data. The talk will cover all the necessary concepts and considerations to implement such a solution in the industry. Some of the key concepts that will be discussed include the data labeling process, training NLP models, a human-in-the-loop process to ensure privacy and monitor the performance of the ML model, and implementation of MLOPS principles.

Target Audience: ML Engineers, Data Scientists, Decision-Makers in the area of data privacy
Prerequisites: Familiarity with basic machine learning methods
Level: Advanced

Extended Abstract:
Data privacy and anonymization are important topics and will probably stay in the future. Balancing data privacy and data utilization is a crucial challenge for many organizations. On one hand, companies must protect sensitive information and comply with regulations. On the other hand, they can unlock new business insights from the text data they collect. This talk will explore the concept of automated text anonymization powered by machine learning, a solution that effectively balances both considerations by quickly and accurately protecting sensitive data while preserving its utility. The talk will cover all the necessary concepts and considerations to implement such a solution in the industry. Some of the key concepts that will be discussed include the data labeling process, training NLP models, a human-in-the-loop process to ensure privacy and monitor the performance of the ML model, and MLOPS concepts to ensure the model improves over time
 

Damir Kopljar is a Team Lead at Croz AI, a Ph.D. candidate in the field of explainable AI, and a passionate drone pilot.
He is always curious to learn more about complex problems and find the best solutions using data and machine learning. Currently, his efforts are concentrated on assisting clients in identifying opportunities to leverage AI and implement machine learning across various scenarios, as well as on establishing future-oriented ML factories grounded in MLOps best practices.
When he's not fixing broken drones, he enjoys mountain climbing.

Damir Kopljar
E124
Damir Kopljar
E124
Vortrag: Mi 3.1
flag VORTRAG MERKEN

Vortrag Teilen

10:30 - 12:10
Mi 3.2
Text Analytics mit Python und PowerBI
Text Analytics mit Python und PowerBI

Die systematische Nutzung von Freitexten bietet ein großes Potenzial für die Gewinnung neuer Erkenntnisse oder die Automatisierung von Prozessen, das Unternehmen verstärkt nutzen wollen. Der Workshop soll Datenanalysten den Einstieg in das Thema Text Analytics erleichtern. Anhang konkreter Anwendungsbeispiele werden die nötigen Schritte und aktuelle Analyse- und maschinelle Lernverfahren erläutert. Für die Datenvorbereitung und das Mining wird dabei Python genutzt, die Auswertung und Visualisierung der Ergebnisse erfolgt mit PowerBI.

Benötigt wird ein Laptop. 
Zum Mitmachen sollten Python (Anaconda + zusätzlich spaCy) sowie PowerBI auf dem Laptop installiert sein

Zielpublikum: Data Engineers, Data Analysts, Projektleiter:innen
Voraussetzungen: Grundlegendes Verständnis von Data Mining bzw. Machine Learning sowie elementare Programmierkenntnisse (nicht notwendigerweise in Python) werden vorausgesetzt. 
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Die analytische Erschließung von Texten ist für viele Unternehmen der erste Schritt in die Welt unstrukturierter Daten. Die Anwendungsgebiete sind vielfältig und reichen von der Auswertung von Kunden-Kommunikation für Marketing-Zwecke bis zum automatisierten Routing von Dokumenten oder der Priorisierung von Service-Requests.

Im Workshop wird anhand von Fallballspielen durchgespielt, wie ausgehend von einer Fragestellung ein Modell erstellt, evaluiert und visualisiert werden kann. Dabei wird gezeigt,
- wie Datenvorbereitung mit modernen NLP-Bibliotheken wie spaCy funktioniert
- wie sich schnell und elegant statistische Analysen auf den aufbereiteten Daten in Python und PowerBI umsetzen lassen
- wie aus Texten Feature-Vektoren erzeugt werden
- wie mit maschinellen Lernverfahren Texte klassifiziert und gruppiert werden können
- wie die Stärken und Schwächen der Modelle mit PowerBI transparent gemacht werden können
- wie Anwender selbst mit den Ergebnissen in PowerBI arbeiten können.
 

Prof. Dr. Jens Albrecht beschäftigt sich an der TH Nürnberg mit den Themengebieten Data Analytics und Natural Language Processing. Er ist Co-Autor des Buchs 'Blueprints for Text Analytics Using Python', das bei O'Reilly erschienen ist. Neben seiner Hochschultätigkeit ist er in der Industrie als Trainier, Data Scientist und Data Architect engagiert.

Prof. Dr. Roland Zimmermann ist ein Architekt für die Entwicklung anspruchsvoller IT-Systeme im Bereich Datenanalyse. Seine Lösungen umfassen die Definition von Indikatoren auf Basis von Erfolgsfaktoren, das Management von Daten (Analyse von Quellen, Integrationskonzepte, Automatisierungslösungen), die Konzeption integrierter Analytiklösungen (Multidimensionale Analysen, Process Mining und KI-gestütztes Maschinelles Lernen) sowie die Präsentation von Ergebnissen (Informationsdesign, Interaktionskonzepte, UI/UX).

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei:  https://www.sigs.de/autor/roland.zimmermann

Jens Albrecht, Roland Zimmermann
E124
Jens Albrecht, Roland Zimmermann
E124
Vortrag: Mi 3.2
flag VORTRAG MERKEN

Vortrag Teilen

14:35 - 15:20
Mi 3.4
Sequential Learning – Iterativ zu umweltfreundlicherem Beton
Sequential Learning – Iterativ zu umweltfreundlicherem Beton

Die Zement- und Betonproduktion ist für knapp 10 % der globalen CO2 -Emissionen verantwortlich und stellt damit einen gewaltigen Hebel bei der Erreichung wichtiger Klimaziele dar. Die Suche nach klimafreundlicheren Alternativen erfolgt heute aber größtenteils aufwendig manuell auf Basis von Erfahrungswerten. Wir zeigen das enorme Potenzial KI-gestützter Priorisierung auf, insbesondere des sequenziellen Lernens, und stellen eine Applikation vor, die eine Feedback-Schleife zwischen Vorhersage und Validierung neuer Rezepturen realisiert.

Zielpublikum: Data Scientist, Product Owner, Fachabteilung
Voraussetzungen: Grundlagen im Bereich Machine Learning
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
Die Bauindustrie und insbesondere die Beton- und Zementherstellung tragen massiv zum weltweiten CO2-Ausstoß bei. Daher ist es zwingend notwendig, möglichst schnell alternative Baustoffe zu entwickeln. Gleichzeitig ist Beton als Baustoff in weiten Bereichen als alternativlos zu betrachten. CO2-optimierte Betonrezepturen stehen daher im Fokus der Forschung. Neben verbesserter Umweltfreundlichkeit müssen diese allerdings Mindestanforderungen an mechanischen Eigenschaften wie Druckfestigkeit erfüllen. Schließlich müssen Faktoren wie Kosten und Verfügbarkeit berücksichtigt werden. 

Die Suche nach neuen Varianten ist dabei sehr aufwendig: Typische Rezepturen werden durch 40 oder mehr Parameter charakterisiert. Neben chemischer Komposition sind hier auch Informationen zum Herstellungsprozess, sowie Mischverhältnisse mit Gesteinen, Wasser usw. relevant. Während sich die CO2-Bilanz des Herstellungsprozesses auf Basis dieser Parameter heuristisch abschätzen lässt, ist es a priori nicht möglich, Eigenschaften wie Druckfestigkeit des resultierenden Materials auf Basis von Modellen vorherzusagen. Zeitaufwendige und kostenintensive Experimente sind notwendig, um diese zu ermitteln. 

Statt basierend auf Erfahrungswerten mögliche Kandidaten zu verproben, stellt sich die Frage, ob hier ein KI-basierter Ansatz helfen kann. Allerdings gibt es aufgrund des aufwendigen Herstellungsprozesses wenige gelabelte Daten. Die Kombination aus komplexem Parameterraum bei gleichzeitig wenigen bekannten Labels führt dazu, dass Standard-Regressionsalgorithmen nicht oder nur sehr eingeschränkt helfen. 

Typischerweise können Machine Learning-Algorithmen verlässliche Vorhersagen machen, wenn ein repräsentatives Sample von Features und zugehörigen Labels für das Training verfügbar ist. Es stellt sich daher die Frage, ob und wie ein solches Sample möglichst effizient generiert werden kann, insbesondere bei hoher Dimensionalität der Daten und wenn Labels teuer sind. Je nach Problemstellung kann es dabei helfen, sich auf spezifische Bereiche der Verteilung zu fokussieren. Möchte man zum Beispiel nur Werte oberhalb einer definierten Grenze vorhersagen, reicht es aus, den Teil der Verteilung zu lernen, der zu eben solchen Werten führt. 

Ein vielversprechender Ansatz ist Sequential Learning, eine Form der Bayes'schen Optimierung. Über sukzessives und gezieltes Anreichern der Trainingsdaten um weitere Labels ist es möglich, effizient die Vorhersagen der Algorithmen in noch nicht explorierten Parameterbereichen zu verbessern. Statt zufällig Daten auszuwählen und möglicherweise aufwendig zu labeln, wird versucht mithilfe passender Metriken gezielt Datenpunkte zu priorisieren. Im Kontext der Materialwissenschaften wird somit ein Feedback Loop zwischen KI-Vorhersage und tatsächlichem Experiment realisiert. Schritt für Schritt wird der Algorithmus mit neuem Wissen aus dem Labor angereichert und somit werden Vorhersagen iterativ verbessert.

Mit Kollegen der Bundesanstalt für Materialforschung und -prüfung (BAM) haben wir im Detail die Implikationen dieses Ansatzes für die Betonforschung analysiert. Pro Iteration werden die Rezepturen gemäß dem Kriterium 'Nützlichkeit' priorisiert. Dieses umfasst sowohl Vorhersagen für Parameter wie Druckfestigkeit, als auch a priori Information zu sozioökonomischen Faktoren wie CO2-Ausstoß. Unsere Ergebnisse implizieren, dass sich mit Sequential Learning sehr viel schneller Rezepturen mit den gewünschten Eigenschaften identifizieren lassen, als es beim zufälligen Samplen der Fall ist. Diese Ergebnisse und die Universalität des Ansatzes legen nahe, dass Sequential Learning auch in anderen Forschungs- und Industriebereichen erfolgreich angewandt werden kann. 

Schließlich gebe ich einen kurzen Einblick in SLAMD, eine Webapp, die wir mit der BAM entwickelt haben. Diese stellt intuitive Funktionen für eine konkrete experimentelle Kampagne zur Verfügung und ermöglicht es so, die beschriebenen Ideen schneller umzusetzen. Aufgrund der einfachen Bedienbarkeit ist es somit möglich, moderne Materialforschung und Sequential Learning auch jenseits der Forschungsinstitute einem breiteren Publikum zugänglich zu machen.
 

Dr. Tehseen Rug hat nach seiner Promotion mit anschließendem Post Doc in der theoretischen Physik die Software-Welt für sich entdeckt. Als Senior AI & Data Engineer bei iteratec unterstützt er Kunden bei diversen Softwareprojekten in den Bereichen Data Analytics, AI und Software- und Cloud-Architektur. Privat interessiert er sich für alle Themen rund um Technologie und Forschung.

Tehseen Rug
E124
Tehseen Rug
E124
Vortrag: Mi 3.4
flag VORTRAG MERKEN

Vortrag Teilen

15:30 - 16:15
Mi 3.5
Analyseplattform für eine Zentralbank – 1 Jahr nach Go Live
Analyseplattform für eine Zentralbank – 1 Jahr nach Go Live

Datenanalyse ist essenzieller Teil vieler Zentralbankaufgaben, sei es in der Analyse von Kreditportfolien im Rahmen der Bankenaufsicht oder in der Betrachtung wirtschaftlicher Zusammenhänge zur Steuerung der Geldpolitik.
In den vergangenen Jahren sind die Anforderungen in diesem Bereich stark gestiegen. Aus diesem Grund wurde die Plattform IDA auf Basis modernen Hadoop-Architektur und großzügiger Hardware-Ausstattung geschaffen. Wir präsentieren unsere Erfahrungen aus dem Aufbau der Plattform und ersten umgesetzten Anwendungsfällen.

Zielpublikum: Architekt:innen, Entscheider:innen, Technology Strategists, Personen, die Analysen in großem Maßstab bereitstellen möchten
Voraussetzungen: keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Agenda:

  • Datenanalyse in einer Zentralbank

Intro IDA:

  • Vision
  • Ziele
  • Zielgruppen
  • Technische Grundlage
  • Lab/Factory-Gedanke als Grundlage
  • Begleitung der Technik durch neuartige Methoden und Arbeitsweisen

Verlauf AIDA:

  • Setup: Zentralbereichs-übergreifend, starke Einbindung von Key-Usern
  • Wichtige Entscheidungen im Verlauf: Analyseplattform

Benjamin Diemann ist Product-Manager für die Plattform IDA und fokussiert sich stark auf die Betreuung der internen Kunden und die strategische Weiterentwicklung. Er hat vor seiner Tätigkeit für die Bundesbank über 10 Jahre als Berater Data Science und Machine Learning basierte Projekte umgesetzt.

Benjamin Diemann
E124
Benjamin Diemann
E124
Vortrag: Mi 3.5
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 17:30
Mi 3.6
Closing the loop: Product innovation fueled by IoT and AI
Closing the loop: Product innovation fueled by IoT and AI

The theory of a data flywheel in consumer IoT devices is simple. However, implementation is challenging and realising sustainable value from it is even harder. This talk will outline our journey with IoT appliances at Miele, and how we are combining the power of IoT and AI to drive continuous improvement and shape the next generation of appliances.

Target Audience: Product Owners, Decision Makers, AI & Data Leaders/Strategists, Data Scientists
Prerequisites: None - I will break it down to understandable pieces
Level: Basic

Florian Nielsen is Director of AI & Data in the Smart Home/Electronics division at Miele & Cie. KG, the premium home appliance manufacturer. The main challenge is to help leading a manufacturing company through digital transformation by building AI & Data capabilities to infuse decision making with data and manoeuvre the company towards a mastery of data-driven product development.

Florian Nielsen
E124
Florian Nielsen
E124
Vortrag: Mi 3.6
flag VORTRAG MERKEN

Vortrag Teilen

17:40 - 18:25
Mi 3.7
Winning the game with advanced statistics
Winning the game with advanced statistics

Im Gegensatz zu anderen Sportarten werden im Basketball bereits seit Jahren einfache statistische Analysen genutzt. Die Weiterentwicklung dieser Analysen soll helfen, Spiel-, Spieler- und Team-Koordination entscheidend zu verbessern. Nur wenn das Team als Ganzes funktioniert und ein Plan zur Vorbereitung auf den nächsten Gegner ausgearbeitet ist, kann eine Performance erreicht werden, die auf nationaler und internationaler Ebene ausreichend für die Ansprüche eines europäischen Spitzenteams ist.

Zielpublikum: Geschäftsführer:innen, BI-Analyst:innen, IT-Verantwortliche, Sport-Interessierte
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger

Extended Abstract:
In diesem Vortrag zeigen wir, welche neuen Daten und Advanced Analytics der FC Bayern Basketball zusätzlich einsetzt, 

  • um sich gezielt auf den nächsten Gegner vorzubereiten bei kürzester Vorbereitungszeit (zum Teil weniger als 48 Stunden) 
  • um pro Saison das vermeintlich optimale Team bei einem limitierten Budget (meist nur ein Bruchteil der Konkurrenz auf internationaler Ebene) zusammenzustellen.

Jens Leutenecker (36) arbeitet seit der Saison 2020/21 beim FC Bayern Basketball als Analytics Coordinator. 
Er begann seine Karriere als Video Analyst bei den MHP Riesen Ludwigsburg während des Studiums der Sportpublizistik (Universität Tübingen) und arbeitete später als Assistenztrainer bei den WALTER Tigers Tübingen in der Bundesliga. 
Während seines Head Coach Engagements in Fellbach (1. Regionalliga) und der Tätigkeit als Live-Analyst für Brose Bamberg, gründete er sein Analytics Start up Basketball Momentum, das sich auf die präzise Bemessung von Basketball-Daten für Wettanbieter spezialisiert hat.

Wolfgang Perzl hat Informatik mit Nebenfach Wirtschaftswissenschaften an der Technischen Universität München studiert. Der Dipl.-Informatiker startete seine berufliche Laufbahn beim Datenbankhersteller Informix Software und kam über mehrere technische und internationale Managementpositionen unter anderem bei der späteren Ascential Software zur IBM Deutschland. 
Nach weiteren Stationen gründete Wolfgang Perzl 2013 schließlich die infologistix GmbH als unabhängige IT-Consulting-Firma mit den Schwerpunkten Data Warehousing und BI. Als Geschäftsführer führt er gemeinsam mit René Schiebeck das operative Geschäft der infologistix und verantwortet die Bereiche Personal, Marketing und Business Development/Big Data.

Jens Leutenecker, Wolfgang Perzl
E124
Jens Leutenecker, Wolfgang Perzl
E124
Vortrag: Mi 3.7
flag VORTRAG MERKEN

Vortrag Teilen

Zurück