Die im Konferenzprogramm der TDWI München 2022 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Hier können Sie die Programmübersicht der TDWI München 2022 mit einem Klick als PDF herunterladen.
Thema: AI & Machine Learning
- Montag
20.06. - Dienstag
21.06. - Mittwoch
22.06.
KI hat einen disruptiven Einfluss auf die Wertkette der Versicherung. Data-driven Insurance steht für eine KI-Einführung zu Mehrwert mit Strategie. Neue Portfolios, Prinzipien, Standards, Jobs und Prozesse sind die Folge. Diese werden vorgestellt.
Zielpublikum: Führungskräfte, Trainer, Erklärer und Förderer
Voraussetzungen: KI-Agilität, Einführungs- und Projektmanagement
Schwierigkeitsgrad: Experte
Extended Abstract:
Damit die Einführung der Data-driven Insurance sich beschleunigt, sind die relevanten Themen zu gruppieren, zu priorisieren und die Verantwortungen hierüber zu klären. Dafür bedarf es einer schlagkräftigen Führungskoalition, welche eine Vision über die Einführung der Data-driven Insurance und der Künstlichen Intelligenz entwickelt und im Gesamtunternehmen propagiert. Promotoren werden eingesetzt, um die Vision umzusetzen und nach geeigneten KI-Business-Cases zu suchen. Die Business-Cases werden so bewertet, priorisiert und geplant, dass sich Ergebnisse schnell einstellen. Die mit diesen Erfolgen erzielte Glaubwürdigkeit belebt die Transformation neu. Dadurch können neue Mitarbeiter gewonnen werden, um die Verbesserungen zu konsolidieren und die neuen Ansätze zu institutionalisieren. Der Vortrag geht auf Best Practices und Fallstricke ein.
Leonhardt Wohlschlager ist seit 2006 bei CGI und dort heute als Insurance Practice Lead für IT-Strategie und Digitale Transformation verantwortlich. Erstmals 1998 führte er bei einer großen VVaG moderne IT als Projektleiter ein. Nach seiner Zeit bei IBM bis 2000 promovierte er berufsbegleitend zum Dr. der BWL im Jahr 2006. Daten hält er für eines der wichtigsten Assets in der Versicherung.
Das Thema KI ist in aller Munde. Fragt man in Unternehmen aber, wie bestehende Datenschutzanforderungen, Richtlinien der EU und die Mitbestimmung des Betriebsrates sichergestellt werden, so gibt es hier selten Antworten. Gerade die Einbeziehung dieser Stakeholder ist aber keine 'lästige' Pflicht, sondern ein kritischer Erfolgsfaktor.
Im Vortrag wird das Vorgehen der Zurich Deutschland vorgestellt und aufgezeigt, wie wir gemeinsam an einer für Mitarbeiter und Kunden fairen KI arbeiten.
Zielpublikum: Data & Analytics Entscheider
Voraussetzungen: Keine
Schwierigkeitsgrad: Einsteiger
Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.
Vortrag Teilen
Vortrag Teilen
Viele Unternehmen haben in den letzten Jahren erfolgreich prototypische Big-Data- und Machine-Learning-Use-Cases auf On-Premises-Umgebungen umgesetzt. Eine wesentliche und oft unterschätzte Herausforderung ist dabei die Operationalisierung und die Integration von Big-Data-/ML-Anwendungen in die Anwendungslandschaft eines Unternehmens. Der Vortrag stellt Methoden und Konzepte vor, die für den Aufbau und die Operationalisierung einer standardisierten, zentralen Big-Data-/ML-Serviceplattform bei einem Versicherungsunternehmen eingesetzt wurden.
Zielpublikum: Data Engineer, Project Leader
Voraussetzungen: Basic knowledge, Erfahrungen mit Big-Data-Architekturen
Schwierigkeitsgrad: Fortgeschritten
- Bachelor of Science (Wirtschaftsinformatik): Hochschule Furtwangen University, 10/2004 - 02/2008
- Master of Science (Wirtschaftsinformatik): Hochschule Karlsruhe - University of Applied Sciences, 03/2008 - 06/2009
- Consultant: integration-factory GmbH & Co. KG, 06/2009 - 09/2017 (Schwerpunkte: Datenintegration und Data Warehousing)
- Managing Consultant Big Data: integration-factory GmbH & Co. KG, 10/2017 - heute (Schwerpunkte: Datenintegration, Cloud, Big Data)
- 09.2005 - 02.2009 Hochschule Furtwangen University, Internationale Betriebswirtschaft (BA)
- 10.2014 - 09.2016 Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen, Internationales Projektmanagement (MBA)
- 04.2009 - 10.2010 SRH Holding, Controlling/ Management Reporting/ BI
- 11.2010 - heute SV SparkassenVersicherung, BI/ DWH/ Data Engineering/ Data Analytics
[Vanilla] steht für einfach, grundlegend, konventionell - und langweilig? Auf keinen Fall! Aber eine Datenplattform - ideal auf die individuellen Anforderungen angepasst und trotzdem einfach - ist der Wunsch vieler BI-Leiter. Aber geht das, 'einfach'? Jein. Damit Du wirklich etwas von Deiner Plattform hast, sind ein paar grundlegende Dinge wichtig. Welche das sind und welche Stolpersteine Du auf dem Weg zur VDP (Vanilla Data Platform) besser vermeiden solltest, zeigen Dir Meik und Thomas (b.telligent) gemeinsam mit Margarethe von Seven.One Media.
Zielpublikum: BI-Teamleiter, BI-Architekten
Voraussetzungen: Grundlegendes Verständnis von BI und der Nutzung von Daten in Unternehmen
Schwierigkeitsgrad: Fortgeschritten
Als Principal Consultant legt Meik den Fokus auf Business Intelligence, Data Warehousing und Integration sowie Datenmodellierung, v.a. für die produzierende Industrie und die Finanzbranche. Er verfügt über mehr als 13 Jahre Erfahrung in der Analyse, Planung, Konzeption und Umsetzung branchenübergreifender Projektvorhaben einschließlich der Prozess- und Anforderungsanalyse und ganz besonders der Architektur von Daten.
Thomas berät Kunden aus verschiedenen Branchen, wie Immobilen und Finanzdienstleistungen, zu den Themen Business Intelligence, Data Warehouse und Reporting. Seine Projekterfahrung umfasst den kompletten Wertschöpfungsprozess von der Analyse, Planung, Konzeption bis hin zur Umsetzung von Projektvorhaben mit Fokus auf Data-Warehouse-Installationen.
Als Head of BI Engineering verantwortet Margarethe die Entwicklung und Architektur aller Business Intelligence-Produkte für den Entertainmentbereich der ProSiebenSat.1. Sie hat über 12 Jahre Erfahrung im Bereich Data Warehousing und dort insbesondere beim Projektmanagement. Aktuell beschäftigt sie sich in der Rolle des Product Owners mit der Cloudmigration einer unternehmensweiten BI Plattform.
Vortrag Teilen
What does it take to operationalize machine learning and AI in an enterprise setting? This seems easy but it is difficult. Vendors say that you only need smart people, some tools, and some data. The reality is that to go from the environment needed to build ML applications to a stable production environment in an enterprise is a long journey. This session describes the nature of ML and AI applications, explains important operations concepts, and offers advice for anyone trying to build and deploy such systems.
Target Audience: analytics manager, data scientist, data engineer, architect, IT operations
Prerequisites: Basic knowledge of data and analytics work
Level: Basic
Extended Abstract:
What does it take to operationalize machine learning and AI in an enterprise setting?
Machine learning in an enterprise setting is difficult, but it seems easy. You are told that all you need is some smart people, some tools, and some data. To travel from the environment needed to build ML applications to an environment for running them 24 hours a day in an enterprise is a long journey.
Most of what we know about production ML and AI come from the world of web and digital startups and consumer services, where ML is a core part of the services they provide. These companies have fewer constraints than most enterprises do.
This session describes the nature of ML and AI applications and the overall environment they operate in, explains some important concepts about production operations, and offers some observations and advice for anyone trying to build and deploy such systems.
Mark Madsen is a Fellow in the Technology & Innovation Office at Teradata where he works on the use of data and analytics to augment human decision-making and evolve organizational systems. Mark worked for the past 25 years in the field of analytics and decision support, starting with AI at the University of Pittsburgh and robotics at Carnegie Mellon University. He is also on the faculty of TDWI.
Vortrag Teilen
Machine Learning-Projekte scheitern aus vielfältigsten Gründen: unzureichende Daten, fehlende Zusammenhänge oder überbordende Systemintegrationen.
Doch die Data Science-Zunft schlägt zurück: Unter dem Slogan MLOps, Machine Learning Operations, versammelt sie Lösungsansätze, um Machine Learning zu produktionalisieren. Dieser Workshop erklärt den Bedarf an MLOps aus der unsicheren Natur von Machine Learning-Projekten, skizziert Blaupausen für End-To-End ML Pipelines und illustriert Best Practices anhand einer Open-Source-Implementierung.
Zielpublikum: ML-Engineers, Head of Analytics, Data Scientists
Voraussetzungen: Erfahrungen in Machine Learning, Python und DevOps
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Warum MLOps? Mit dieser Auftaktfrage widmet sich der Workshop der inhärenten Herausforderungen von Machine Learning-Projekten. Diese umfassen insbesondere den Spagat zwischen Experiment und Software-Engineering, der dynamischen Natur des Prädiktionskontexts (Data - und Concept Drift) oder Vertrauensanforderungen der beteiligten Stakeholder. Die Referenten lassen in diese Diskussion sowohl konzeptionelle Überlegungen als auch praktische Projekterfahrungen einfließen.
Als Antwort auf diese Herausforderungen wird ein Katalog von Anforderungen abgeleitet, die ML-Systeme erfüllen sollten, um eine erfolgreiche Produktionalisierung zu gewährleisten. Dieser Anforderungskatalog umfasst unter anderem Model Registries, Feature Stores, Monitoring, Encapsulation von Systemkomponenten oder Separierung und Provisionierung von Train- und Test-Umgebungen.
Der entwickelte Anforderungskatalog dient im nächsten Seminarteil als Grundlage für die Beschreibung und den Vergleich von gängigen Software-Lösungen und -Architekturen. Die Präsentation umfasst hierbei zumindest ML-SageMaker, Azure-ML und Open-Source-Plattformen wie Kubeflow und Mlflow.
In dem folgenden interaktiven Teil des Seminars entwickeln die Teilnehmer gemeinsam eine Open-Source-MVP-Lösung auf Basis eines zur Verfügung gestellten Code-Repositories. Die vorgestellte Lösung dient primär der Vertiefung der Seminarinhalte und kann zudem als Ausgangspunkt für eigene MLOps-Initiativen dienen.
Im letzten Seminarteil wird aus Anforderungskatalog, Architekturskizzen und Code-Experimenten eine Umsetzungsunterstützung für MLOps destilliert, die mögliche Produktionalisierungs-Vorhaben anleiten kann.
Christoph Hoffmann ist Data Scientist (M.Sc. Statistics) mit starkem methodischen Fokus und langjähriger Erfahrung in der erfolgreichen Umsetzung von Kundenprojekten. Mit innovativen datenanalytischen Methoden betreut er Unternehmen aus verschiedenen Branchen. Dies beinhaltet die Vermittlung fortgeschrittener Methoden aus dem Bereich der neuronalen Netze und des Maschinellen Lernens.
Elias Jebabli ist seit Abschluss seines Masterstudiums der Mathematik an der TU München als Consultant in den Bereichen Big-Data-Engineering und Machine Learning aktiv. In verschiedensten Kundenprojekten sammelte er umfassende Erfahrungen in den Bereichen Datenvisualisierung, -transformation und -aufbereitung sowie bei der Modellierung und Umsetzung von Machine Learning-Projekten.
Vortrag Teilen
Im Vortrag werden verschiedene Einsatzszenarien für das Maschinenlernen im Marketing und Vertrieb einer Regionalbank vorgestellt. Beispiele sind die Vertriebsunterstützung von Kundenberatern, die personalisierte Kundenansprache im Onlinebereich sowie die Preisoptimierung. Neben der Umsetzung wird das Ertragspotenzial skizziert. Im zweiten Schritt werden verschiedene Herausforderungen diskutiert: aufsichtsrechtliche, datenschutzrechtliche, informationssicherheitsbezogene und organisationsbezogene Herausforderungen.
Zielpublikum: Sowohl Nutzer als auch Entwickler von ML, insbesondere Data Scientisten, Manager von ML/Advanced Analytics und Manager im datengetriebenen Marketing/Vertrieb
Voraussetzungen: Keine (Ich werde auf die eingesetzten Technologien eingehen, jedoch steht der betriebswirtschaftliche / transformatorische Aspekt im Vordergrund)
Schwierigkeitsgrad: Einsteiger
Dr. Jochen Wulf ist in der Gestalterbank für die Kundenanalytik und insbesondere die Umsetzung von Maschinenlernen-Anwendungen im Marketing & Vertrieb verantwortlich. Daneben ist er Privatdozent im Bereich Wirtschaftsinformatik & Data Science an der Universität St. Gallen.
Die Digitalisierung der Schadenprozesse schreitet in der Versicherungsbranche immer weiter voran, vor allem die Automatisierung durch Workflow-Management-Systeme ist mittlerweile ein etabliertes Standardwerkzeug in den Unternehmen.
In diesem Vortrag werden wir am Beispiel eines Schadenregulierungsprozesses unterschiedliche Optimierungsmöglichkeiten der Automatisierungen, deren Vorteile und Voraussetzungen diskutieren und konkrete Praxisbeispiele präsentieren.
Zielpublikum: Data Scientist, decision makers, Project Leader, Process Owners
Voraussetzungen: Basic knowledge, claims experience recommended
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Die Digitalisierung der Schadenprozesse schreitet in der Versicherungsbranche immer weiter voran. Die Automatisierung solcher Verarbeitungsschritte durch Workflow-Management-Systeme ist mittlerweile ein etabliertes Standardwerkzeug in den Unternehmen. Diese technischen Fortschritte ermöglichen es, die Prozesse datengetrieben exponentiell weiter zu optimieren.
Hier ermöglichen der intelligente Einsatz von Daten und der Einsatz Künstlicher Intelligenz verschiedene Varianten der Unterstützung der Prozessbearbeitung: Augmented Intelligence, Assisted Intelligence, Autonome Systeme oder (regelbasierte) Automatisierung. Die Methoden zahlen entsprechend ihrer Fokusse auf die Zielgrößen Standardisierung und Komplexitätsreduktion ein. Dabei ist die richtige Auswahl der zu nutzenden Methode abhängig von der Fragestellung selbst und den vorhandenen technischen Infrastrukturen und Datenverfügbarkeiten.
In diesem Vortrag werden wir am Beispiel eines Schadenregulierungsprozesses die unterschiedlichen Anwendungsmöglichkeiten der obigen Methoden (Datenabgleich mit Materialpreisdatenbanken, Ermittlung von Referenzpreisen, KI-Vorhersage von OK-Belegen bzw. Freigaben, ...), deren Vorteile und Voraussetzungen diskutieren und konkrete Praxisbeispiele präsentieren.
Jeremy Schieblon hat das Studium der Wirtschaftsinformatik an der Fachhochschule Münster mit dem Bachelor of Science abgeschlossen.
Er schrieb seine Thesis bei der Eucon Digital GmbH und wurde anschließend als Data Scientist eingestellt, wo er zunächst die Bereiche Real Estate und Insurance Car betreute.
Seit Juni 2021 kümmert er sich als Product Owner um die Steuerung und Organisation des Data Science Teams sowie der zugehörigen Projekte.
Vortrag Teilen
Vortrag Teilen
Künstliche Intelligenz ist schon längst dem Pionierzeitalter entwachsen. Doch um mit dem Einsatz von KI einen echten Mehrwert für das Unternehmen zu schaffen, kommt es auf die qualitativ hochwertige Bereitstellung von Daten an. Hier kommt ML Engineering ins Spiel - ein Konzept zur Bewältigung der hohen Komplexität von Daten bei der Entwicklung von KI-Systemen. Im Vortrag wird eine ML Engineering Roadmap vorgestellt, mit der dieses häufig unterschätzte und doch so kritische Konzept erfolgreich eingesetzt werden kann.
Zielpublikum: Data Engineer, Data Scientist, Unternehmer mit praktischem KI-Interesse
Voraussetzungen: Interesse an KI- und ML-Themen, Grundlagen- bis fortgeschrittene Kenntnisse in den Bereichen Data Science und/oder Data Engineering
Schwierigkeitsgrad: Fortgeschritten
Lars Nielsch ist als Principle Solution Architect Analytics & Cloud bei Adastra tätig. Nach seinem Studium der Angewandten Informatik an der TU Dresden ist er seit 1998 in der BIA-Beratung tätig. Seine besonderen Interessen liegen in den Themen Enterprise BI, Large Databases, Data Engineering (ETL-Design), Data Science (MLOps) und Big-Data-Architekturen (Data Vault, Data Lake, Streaming).
As the data mesh paradigm takes the industry by storm, the conversation deep dives into the architecture, neglecting the socio-organizational element. Data driven organizations must invest not only in infrastructure but also data organization and culture.
Target Audience: Executive, senior business managers
Prerequisites: None
Level: Basic
Jennifer Belissent joined Snowflake as Principal Data Strategist in early 2021, having most recently spent 12 years at Forrester Research as an internationally recognized expert in establishing data and analytics organizations and exploiting data's potential value. Jennifer is widely published and a frequent speaker. Previously, Jennifer held management positions in the Silicon Valley, designed urban policy programs in Eastern Europe and Russia, and taught math as a Peace Corps volunteer in Central Africa. Jennifer earned a Ph.D. and an M.A. in political science from Stanford University and a B.A. in econometrics from the University of Virginia. She currently lives in the French Alps, and is an avid alpinist and intrepid world traveler.
Machine Learning-Projekte scheitern aus vielfältigsten Gründen: unzureichende Daten, fehlende Zusammenhänge oder überbordende Systemintegrationen.
Doch die Data Science-Zunft schlägt zurück: Unter dem Slogan MLOps, Machine Learning Operations, versammelt sie Lösungsansätze, um Machine Learning zu produktionalisieren. Dieser Workshop erklärt den Bedarf an MLOps aus der unsicheren Natur von Machine Learning-Projekten, skizziert Blaupausen für End-To-End ML Pipelines und illustriert Best Practices anhand einer Open-Source-Implementierung.
Zielpublikum: ML-Engineers, Head of Analytics, Data Scientists
Voraussetzungen: Erfahrungen in Machine Learning, Python und DevOps
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Warum MLOps? Mit dieser Auftaktfrage widmet sich der Workshop der inhärenten Herausforderungen von Machine Learning-Projekten. Diese umfassen insbesondere den Spagat zwischen Experiment und Software-Engineering, der dynamischen Natur des Prädiktionskontexts (Data - und Concept Drift) oder Vertrauensanforderungen der beteiligten Stakeholder. Die Referenten lassen in diese Diskussion sowohl konzeptionelle Überlegungen als auch praktische Projekterfahrungen einfließen.
Als Antwort auf diese Herausforderungen wird ein Katalog von Anforderungen abgeleitet, die ML-Systeme erfüllen sollten, um eine erfolgreiche Produktionalisierung zu gewährleisten. Dieser Anforderungskatalog umfasst unter anderem Model Registries, Feature Stores, Monitoring, Encapsulation von Systemkomponenten oder Separierung und Provisionierung von Train- und Test-Umgebungen.
Der entwickelte Anforderungskatalog dient im nächsten Seminarteil als Grundlage für die Beschreibung und den Vergleich von gängigen Software-Lösungen und -Architekturen. Die Präsentation umfasst hierbei zumindest ML-SageMaker, Azure-ML und Open-Source-Plattformen wie Kubeflow und Mlflow.
In dem folgenden interaktiven Teil des Seminars entwickeln die Teilnehmer gemeinsam eine Open-Source-MVP-Lösung auf Basis eines zur Verfügung gestellten Code-Repositories. Die vorgestellte Lösung dient primär der Vertiefung der Seminarinhalte und kann zudem als Ausgangspunkt für eigene MLOps-Initiativen dienen.
Im letzten Seminarteil wird aus Anforderungskatalog, Architekturskizzen und Code-Experimenten eine Umsetzungsunterstützung für MLOps destilliert, die mögliche Produktionalisierungs-Vorhaben anleiten kann.
Christoph Hoffmann ist Data Scientist (M.Sc. Statistics) mit starkem methodischen Fokus und langjähriger Erfahrung in der erfolgreichen Umsetzung von Kundenprojekten. Mit innovativen datenanalytischen Methoden betreut er Unternehmen aus verschiedenen Branchen. Dies beinhaltet die Vermittlung fortgeschrittener Methoden aus dem Bereich der neuronalen Netze und des Maschinellen Lernens.
Elias Jebabli ist seit Abschluss seines Masterstudiums der Mathematik an der TU München als Consultant in den Bereichen Big-Data-Engineering und Machine Learning aktiv. In verschiedensten Kundenprojekten sammelte er umfassende Erfahrungen in den Bereichen Datenvisualisierung, -transformation und -aufbereitung sowie bei der Modellierung und Umsetzung von Machine Learning-Projekten.
Vortrag Teilen
Viele Unternehmen investierten in der Vergangenheit in klassische DWH-Architekturen. Seit einigen Jahren geraten diese durch stark geänderte Anforderung wie Analyseunterstützung durch künstliche Intelligenz oder echtzeitnahe Reports immer stärker unter Druck.
In diesem Vortrag zeigen wir anhand eines Praxisbeispiels zwei Lösungswege (Managed Cloud Services und OSS-Plattformen) und wie durch eine Kombination von beiden den immer weiter steigenden Anforderungen optimal begegnet werden kann.
Zielpublikum: Geschäftsführer, BI-Analysten, IT-Verantwortliche
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Zahlreiche Unternehmen haben seit über 30 Jahren in eigene Data Warehouse und ETL-Infrastrukturen investiert und geraten in den letzten Jahren immer stärker unter Druck, diese Lösungen an die sich schnell ändernden Anforderungen des Marktes und der Anwender anzupassen. Steigende Kosten für Hardware, Infrastruktur, Administration und Entwicklung sind die Folge. Dennoch kann häufig keine zufriedenstellende Lösung erreicht werden.
Analyse durch Künstliche Intelligenz, automatisierte Self-Services und echtzeitnahe Reports sind immer gängiger werdende Anforderungen, die damit nicht erfüllt werden können. Zudem sprengen die Anforderungen selbstlernender KI-Systeme oft die Grenzen vorhandener Infrastruktur im eigenen Rechenzentrum.
Wir zeigen in diesem Vortrag anhand eines Praxisbeispiels zwei Lösungswege für die oben genannten Herausforderungen: Die Nutzung der Managed Cloud Services von Microsoft Azure und einer Kubernetes-basierten Anwendungs- und Datenplattform. Beide Konzepte haben individuelle Stärken und Schwächen, auf die wir näher eingehen werden. Dabei betrachten wir auch die Möglichkeiten einer schrittweisen Migration und gehen kurz auf Aspekte der Data Governance und der IT-Sicherheit ein. Abschließend zeigen wir, wie eine Kombination der beiden Ansätze zu einer individuell optimierten Lösung für unterschiedlichste Anforderungen führen kann.
Die vorgestellte Lösung bietet:
- Flexibilität
- Kosteneffizienz
- Zukunftssicherheit
- Optimale Nutzererfahrung für Kunden und Mitarbeiter
Wolfgang Kettler ist Bereichsleiter für Microsoft BI & Cloud Services bei der infologistix GmbH. Er hat über 12 Jahre Erfahrung im Bereich der Architektur komplexer Daten-Plattformen und BI-Anwendungen. Als Senior Consultant berät er Kunden in den oben genannten Themenfeldern. Seine Spezialität ist die Migration bestehender on-premise Lösungen in moderne, skalierbare Cloud-Lösungen auf Microsoft Azure.
Dr.-Ing. Harald Philipp Gerhards ist Bereichsleiter für Cloud Native Computing bei der infologistix GmbH. Er hat mehrere Jahre Erfahrung als Senior Consultant sowohl für das klassische DWH als auch für verteilte cloud-basierte Systeme. Als Systemarchitekt berät er Kunden mit Fokus auf Container-Plattformen und Erweiterungen für Echtzeit-Analysen bestehender DWH- und BI-Architekturen.
Vortrag Teilen
The real magic of AI lays in well managed data to build and train the underlying models. Accordingly, streamlined data management process are essential for success in AI. In this session we are going to discuss data management for AI and ask questions like 'What is data management for AI?', 'Are there difference to well-known approaches from BI & Analytics' and 'Do we need special AI data engineers?'.
TDWI Community Talk is an open format to discuss current topics in the area of data analytics within the TDWI community.
Target Audience: All data entheusiasts
Prerequisites: No prerequisites
Level: Basic
Extended Abstract:
The area of artificial intelligence is currently trending and transforms BIA landscapes in many organizations. There are many new initiatives and promises, however, to build all these fancy applications a well-thought data management is necessary. Nevertheless, the discussion of AI often focuses various models and cool programming languages and the underlying data engineering is often neglected. This is why this session focuses data management for AI and discusses approaches and best practices with the TDWI community.
The goal of this session is:
- Give the audience an overview what 'Data Management for AI' means and what basic terms are.
- Discuss current best practices and challenges with experts and the audience.
- Reflect different views on differences between processes in AI and BI, the role of a data engineer, software tools and many more.
The 'TDWI Data Schnack' is an interactive format that wants to engange the discussion in the TDWI community. It provides a plattform that highlights different aspects of a current topic and inspires discussions between experts and other community members. Therefore, the course of a Data Schnack session contains a short introduction talk that introduces a basic understanding of the topic. Followed by a panel discussion with experts from different fields. Lastly, an open discussion integrates the audience to share knowledge between all participants.
Julian Ereth is a researcher and practicioner in the area of Business Intelligence and Analytics. As a solution architect at Pragmatic Apps he plans and builds analytical landscapes and custom software solutions. He is also enganged with the TDWI and hosts the TDWI StackTalk.
Timo Klerx ist Gründer und Data Scientist von und bei paiqo und hilft Kunden bei der Konzeption und Umsetzung von Projekten im Bereich Artificial Intelligence / Data Science / Machine Learning.
Die ersten Berührungen mit AI hatte Timo in einem Forschungsprojekt zur automatischen Manipulationserkennung von Geldautomaten.
Bevor er sein eigenes Startup gründete, sammelte er Erfahrungen in einem anderen Data Science Startup und fokussierte sich dort auf den Bereich Machine Analytics inkl. Use Cases wie Predictive Maintenance und Predictive Quality.
Weiterhin engagiert sich Timo bei diversen Data Science Meetups in Paderborn, Münster und gesamt NRW.
Malte Lange ist Produktverantwortlicher für Data Analytics bei der Finanz Informatik, dem zentralen Digitalisierungspartner in der Sparkassen-Finanzgruppe.
Die Schaffung von datengetriebenen Banking Lösungen ist seit 2019 sein Themenschwerpunkt. Unter anderem verantwortet er die omni-channelfähige Kundenansprache „Next Best Action“ für die digitale Finanzplattform OSPlus und sorgt für die Weiterentwicklung der zentralen Data Analytics Plattform für analytische Anwendungsfälle im OSPlus. Gemeinsam mit Partnern in der Sparkassen-Finanzgruppe entwickelt er neue datengetriebene Lösungsansätze für Sparkassen, um das Potential vorhandener Daten zu realisieren.
Vortrag Teilen
Forecasting events using time series analysis is used in a variety of fields, from stock prices and sales forecasts to weather forecasts and patient disease progression. However, time series analysis is fundamentally different from other machine learning (ML) methods. In this hands-on workshop, we will use freely available data to look at the entire life cycle of such an ML project, from data, to model training, to use of the trained model, to MLOps and model drift.
Maximum Number of Participants: 16
A laptop with the latest version of Google Chrome is required for participation.
Target Audience: Data Engineer, Data Scientist, Citizen Data Scientist, Business Analysts, Data Analysts, business users, curious people
Prerequisites: Basic knowledge of time series problems (demand forecast etc.) as well as machine learning (training and scoring),
Level: Basic
Dr. Homa Ansari is a data scientist at DataRobot. She spent eight years on algorithm design for time series analysis from satellite data at the German Aerospace Center (DLR). Her expertise and publications are in the field of statistical signal processing and machine learning. She won two scientific awards, published 20+ technical articles and held 15+ talks at various space agencies and international conferences.
Vortrag Teilen
Machine learning and AI have changed the world of data processing and automation at a breathtaking pace, at the cost of turning algorithms into hard-to-control and monitor black boxes.
We present methods and concepts of explainable AI that aim to open the black box and tame these algorithms.
Target Audience: Decision-Makers/Stake Holders in AI & model development, Data Scientists
Prerequisites: general awareness of modeling pipeline and challenges, no coding/math skill required
Level: Basic
Maximilian Nowottnick is a Data Scientist at the full-service data science provider Supper & Supper GmbH from Germany. He has a B.Sc. and a M.Sc. in Physics and extensive knowledge in developing AI solutions in the areas of GeoAI and Mechanical Engineering. He was one of the driving engineers to develop the first SaaS solution of Supper & Supper, called Pointly for 3D point cloud classification.
Natural Language Processing (NLP) allows us to deeply understand and derive insights from language, ultimately leading to more automated processes, lower costs, and data-driven business decisions.
Google is recognized as a market leader in AI and has built a range of solutions incorporating NLP to address a myriad of business challenges. This talk will introduce a few possible solutions, as well as some business use cases on how to incorporate them in a variety of industries.
Target Audience: Middle and upper-level management, Business users with AI/machine learning challenges, BI/Data professionals
Prerequisites: Basic knowledge of machine learning and cloud technology, interest in NLP
Level: Intermediate
Catherine King is a Customer Engineer at Google Cloud and is a Google Cloud Certified Professional Data Engineer. She works with customers in the Public Sector and supports them in digital transformations, big data analytics, and artificial intelligence implementations. Before Google, she worked for many years in the Translation Industry designing Machine Translation models for enterprise clients.
Catherine holds an MSc in Data Science and is passionate about decision science and data-driven cultures.
Vortrag Teilen
Vortrag Teilen
This session introduces AI-driven automation and looks at the building blocks needed to automate operational tasks and decisions.
It discusses ground-breaking innovation that opens up the next stage in data and analytics for the data driven enterprise. It provides key information on how to use data, analytics and AI to automate decisions to significantly shorten time to reduce costs, reduce risks and seize opportunities to grow revenue.
Target Audience: Chief Analytics Officer, Chief Data Officer, Data Architects, Data Scientists, Business Analysts
Prerequisites: Basic knowledge of analytics and machine learning
Level: Advanced
Extended Abstract:
According to some analysts, the hyper-automation software market opportunity in 2025 will be as much as $850Bn. There is no doubt that if you can scale automation it will help companies significantly reduce costs and outperform their competitors in revenue growth. There are many things that can be automated including tasks, processes, IT and DevOps operations. However, there are so many things needed to make this happen. Given this opportunity, this session introduces AI-driven automation, looks at the building blocks needed to make it happen.
- What is AI-driven automation and what can it do?
- Size of the AI marketplace
- Use case opportunities
- Automating human tasks using AI-driven robotic process automation
- Intelligent document processing
- The power of human and AI-driven orchestration
- Automation building blocks
- Business goals
- Process mining
- Data Events, business conditions and event detection
- Data integration
- Machine learning model services to predict outcomes
- Decision services
- Action services (skills that can be automated)
- Intelligent Orchestration - goal driven closed loop automation
- The AI-driven automation process - capture, prepare, analyse, decide, act, optimise
- Human and AI-driven decision and action automation
- Getting started - what needs to be considered?
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Vortrag Teilen
Am Beispiel der Instandhaltung von ICE’s der Deutschen Bahn gibt der Vortrag Impulse wie scheinbar unvereinbare Vorgehen aus dem Bauwesen bzw. dem Maschinenbau mit agilen Ansätzen der IT kombiniert werden können, um Nutzen aus künstlicher Intelligenz und digitalen Zwillingen zu ziehen.
Zielpublikum: Alle, für die AI, Advanced Analytics und Machine Learning mehr als nur ein Hype sein soll und sich fragen, wie der Return für die getätigten Investitionen aussehen kann.
Voraussetzungen: Erste Erfahrung mit Initiativen im Bereich der Datenanalyse und dem Daten orientierten Unternehmen ist wünschenswert. Grundkenntnisse in Statistik sind hilfreich.
Schwierigkeitsgrad: Fortgeschritten
Jürgen Boiselle ist Lead Architect Big Data & Data Strategy bei der DB Systel GmbH. Seine mehr als 20-jährige Erfahrung im Bereich Big Data, Machine Learning und Artificial Intelligence spannt sich von frühen Data Warehouses bis zur aktuellen, AI gestützten Instandhaltung der ICE Flotte der Deutschen Bahn. Er ist Diplom-Ingenieur und hat Technische Informatik studiert. Seine reichhaltige Erfahrung in AI- und Big Data Projekten sammelte er als Berater und in leitenden Positionen u.A. bei Deutsche Bahn, Microsoft und Teradata.
Leider entfällt dieser Vortrag kurzfristig. Wir bitten um Verständnis.
Kyana ist ein virtueller Assistent, der Performance-Daten, Optimierungsmöglichkeiten, digitalen Service-Support mit augmentierten sowie sprachunterstützenden Funktionen bietet.
Ziel war es einen "virtuellen" Mitarbeiter von Koenig & Bauer zu kreieren und diesen in den täglichen Produktionsablauf zu integrieren.
Best Practise Studie mit detaillierten Informationen zur Umsetzung - von der Idee bis hin zur Implementierung
Zielpublikum: Verantwortliche für digitale Transformation, digitale Business Modelle, Industrie 4.0
Schwierigkeitsgrad: Anfänger
Sandra Wagner leitet bei der Koenig & Bauer AG als Vice President Digitalization die konzernweite digitale Transformation.
Von der Entwicklung der jeweiligen Idee bis hin zur Realisierung und Vermarktung von digitale Produkten, neue Geschäftsmodelle und das Vorantreiben der kulturellen Transformation sind hierbei ihre Hauptaufgaben.
Frau Wagner hat in der Business Unit Coding von Koenig & Bauer 10 Jahre den Vertrieb und das Marketing erfolgreich geleitet und hier bereits diverse digitale Produkte, Geschäftsmodelle und neue Marktansätze entwickelt und umgesetzt.
Sie hat in ihrem Werdegang in diversen Maschinenbauunternehmen, aber auch in IT-Unternehmen wie z.B. HP verschiedenste Funktionen ausgefüllt und hier bereits die erste Grundsteine für digitale Geschäftsmodelle und digitale Produkte kennengelernt, begleitet und umgesetzt.
Vortrag Teilen
Vortrag Teilen
Viele Versicherer versuchen, Kundeninteraktionen mithilfe von Data Science-Methoden zu optimieren. Wir zeigen einen systematischen Ansatz, wie Customer und Sales Analytics effizient entlang der gesamten Customer Journey eingesetzt werden können.
Zielpublikum: Vertrieb, Kundenmanagement, Business Development, Data Analytics
Voraussetzungen: keine spezifischen
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Der heutige Versicherungskunde erwartet maximalen Komfort, d. h. passgenauen individualisierten Service zum richtigen Zeitpunkt über den bevorzugten Kanal.
Im Rahmen dieses Vortrags geben wir Ihnen einen strukturierten Lösungsansatz für die nachhaltige Nutzung von Customer Analytics an die Hand, um den gestiegenen Anforderungen der Versicherungskunden zu begegnen. Wir orientieren uns dabei an vier Schritten:
1) Datenstrukturierung und Sammlung aller Kundendaten und Touchpoints stellen den ersten Schritt dar und bieten Transparenz über die Kundeninteraktionen.
2) Ist die technische Basis vorhanden, prognostizieren Machine Learning-Modelle das Kundenverhalten und die Kundenbedürfnisse entlang der Customer Journey.
Wir zeigen Ihnen hierzu Architekturoptionen zur Datenzentralisierung sowie mögliche Vorgehensweisen anhand konkreter Use-Cases aus Praxisprojekten.
3) Die Erklärung der Vorhersagen mittels Explainable AI schafft weiterführende Erkenntnisse und Hintergrundinformationen zu den Prognosen.
4) Den finalen Schritt stellt die Zusammenführung aller über die vorherigen Aktivitäten gesammelten Erkenntnisse hin zur nächsten besten Aktion für die individuelle Customer Journey des Kunden dar.
Wie diese Technologien Kunden individuelle Ausgestaltung der maschinellen Empfehlungen und somit eine kundenzentrierte Perspektive ermöglichen, ist der Schwerpunkt dieses Vortragsabschnitts. Dazu thematisieren wir Ansätze zur Ermittlung der 'Next Best Action', mit denen Versicherer den gestiegenen Erwartungen der Kunden gerecht werden und ihre Bedürfnisse optimal bedienen.
Janera Kronsbein, Bachelor of Science der Wirtschaftsmathematik, Studium an der Universität Bielefeld. Seit 2014 als Business Analyst, Data Science Consultant und Produktmanagerin tätig. Als Projektleiterin verantwortet sie seit Anfang 2021 Data Analytics-Projekte bei der Informationsfabrik - hier insbesondere mit dem Schwerpunkt Customer Analytics.
Thomas Löchte ist Geschäftsführer und Gründer der IKOR Informationsfabrik GmbH. Er arbeitet seit 25 Jahren im Data Analytics-Umfeld und war in vielen verschiedenen Projekten und Rollen tätig. Heute unterstützt er das Lösungsdesign und coacht Manager und Führungskräfte technologisch und organisatorisch zu Data Analytics und KI-Themen.
Es gibt 2 große Show Stopper für KI:
- Banken benötigen Transparenz, warum KI was empfiehlt, bspw. die Annahme eines Kredites. Eher einfache Datenanalysemethoden, wie Entscheidungsbäume, geben diese Transparenz.
- Aber sie sind recht starr. Jedoch wird Flexibilität benötigt Deep Learning ist adaptiv, aber eine Black Box. Daher wurde das Positive „beider Welten“ vereint in Deep Learing (DL) mit SEMANTISCHEN Netzen.
Diese Präsentation beschreibt semantisches DL in der Kredit-/Förderbearbeitung.
Zielpublikum: Representatives from Banking or Insurance
Voraussetzungen: Keine
Schwierigkeitsgrad: Einsteiger
Britta Hilt beschäftigt sich seit 2011 mit der Anwenderseite von Künstlicher Intelligenz. Sie ist Mitbegründerin und Geschäftsführerin der KI-Firma IS Predict, die sich einen Namen gemacht durch ihre Automatisierung von Data Science sowie durch erklärende KI. Vor der Gründung von IS Predict war sie über 15 Jahre in einer internationalen IT-Firma (IDS Scheer / Software AG) tätig, zuletzt als Director verantwortlich für Product Management und Solution Marketing.
Vortrag Teilen
Vortrag Teilen
Got great ML, analytics, and engineering talent, but need to increase the adoption of the ML and analytics solutions your team produces? Wondering how to design decision support applications and data products that actually get used and generate business value? If you're tired of making 'technically right, effectively wrong' data products that don't get used, this session will help!
Before you can generate business value, your data product first has to be used and adopted. That success boils down in part to the UX you afford users. After all, the UX is the perceived reality of your data product. However, the skills for designing a great UI/UX are different than those required to do the technical side of analytics, AI/ML, and engineering. Users don't want your data outputs; they want clear answers and actionable decision support—and that’s what we’ll learn how to do together.
The workshop is a reduction of my full 8 week training seminar. In the ½ day workshop, we will focus on learning 3 main skills via a mixture of lecture, peer discussion, and active exercises/participation. You will learn:
- How to measure your data product’s utility and usability so that everyone on the team has a shared understanding of what a “good UX” is and how it will lead to business value
- How to use 1x1 interview research to uncover hidden stakeholder and user needs before it’s too late (and your solution can’t be easily changed)
- How to use low-fidelity prototyping and sketching as a means to get aligned with your users and stakeholders and avoid building an incorrect “requirements-driven” solution
MAXIMUM ATTENDEES: 48
MATERIALS YOU WILL NEED:
- A laptop is required for participation
- Willingness to participate in activities that require pair learning
- Willingness to be open and share with your table and the room when called upon to contribute
- For best results, you should have some sort of strategic decision support application, data tool, or data product in mind to which you hope this training can be applied when you return to work. Design is best learned through doing, and having a real project to apply it to will accelerate that learning.
Target Audience: Directors, VPs, and principal data product leaders building custom enterprise data products and decision support applications for which adoption is critical to success and the generation of business value. Participants often come from ML and software engineering, analytics, and data science domains, yet also have a responsibility to ensure solutions are useful, usable, and valuable to the business. The training will not help you if you're interested in only working alone on implementation, coding, statistics, modeling and making outputs without any regard for whether they serve the audience they are intended to help.
Prerequisites: You're ready to approach your data work differently, with a human-first, data-second approach. You don't think that the reason that data tools/apps/dashboards go unused is because the users aren't 'smart enough' to understand them. You believe it's more interesting, fun, and valuable to produce data products that actually get used, produce value, and change people's lives. You're curious and open to non-analytical approaches to problem solving.
Level: Expert (you can be a design novice but should be a leader in your core field)
Extended Abstract:
Want to increase the adoption of your enterprise data products?
It's simple: your team's AI/ML applications, dashboards, and other data products will be meaningless if the humans in the loop cannot or will not use them.
Yes, they may have asked your team for those ML models or dashboards.
Unfortunately, giving stakeholders what they asked for doesn't always result in meaningful engagement with AI and analytics -- and data products cannot produce value until the first hurdle is crossed: engagement.
Until users actually use, trust, and believe your ML and analytics solutions, they won't produce value.
'Just give me the CSV/excel export.' How many times have you heard that -- even after you thought your team gave them the exact ML model, dashboard, or application they asked for?
No customers want a technically right, effectively wrong data product from your team, but this is what many data science and analytics teams are routinely producing -- because the focus is on producing outputs instead of outcomes. The thing is, the technical outputs are often only about 30% of the solution; the other 70% of the work is what is incorrectly framed as 'change management' or 'operationalization' -- and it all presumes that the real end-user needs have actually been surfaced up front.
If you want to move your team from 'cost center' to 'innovation partner,' your team will need to adopt a mindset that is relentlessly customer-centered and measures its success based on delivering outcomes. However, this is a different game: it's a human game where ML/AI and analytics is behind the scenes and customers' pains, problems, jobs to be done, and tasks are at the forefront. Enter human-centered design and data product management: the other skills that modern data science and analytics teams will need if they want to become indispensable technology partners to their business counterparts.
This talk is for data product leaders who have talented technical teams, but struggle to regularly deliver innovative, usable, useful data products that their customers find indispensable.
You've heard for 20 years how Gartner and other research studies continue to predict limited value creation from enterprise data science and analytics engagements, with 80% of projects on average failing to deliver value.
MIT Sloan/BCG's 2020 AI research shows that companies who are designing human-centered ML/AI experiences that enable co-learning between technology and people are realizing significant financial benefits.
Leaders aren't repeating yesterday.
If your data science and analytics requires human interaction before it can deliver any business value, you won't want to miss this session with Brian T. O'Neill -- the host of the Experiencing Data podcast and founder of Designing for Analytics.
Brian T. O'Neill helps data product leaders use design to create indispensable ML and analytics solutions. In addition to helping launch several successful startups, he's brought design-driven innovation to DellEMC, Tripadvisor, JP Morgan Chase, NetApp, Roche, Abbvie, and others. Brian also hosts the Experiencing Data podcast, advises at MIT Sandbox, and performs as a professional percussionist.
Kostensenkung durch weniger Wartungsarbeiten, ein effizienterer Support und zufriedenere Kunden: Das verspricht Predictive Maintenance. Der Vortrag führt in das Thema ein und beschreibt anhand von Kundenprojekten, wie mittels Machine Learning-Verfahren die Wartung optimiert werden kann. Die Referenten stellen dabei verschiedene Methoden vor (Rainflow-Analyse sowie Anomaly Detection) und geben Tipps für die Praxisanwendung von ML-Ansätzen im Bereich Predictive und Condition-Based Maintenance.
Zielpublikum: Entscheider, Data Scientists, Interessierte
Voraussetzungen: Interesse, Grundkenntnisse Statistik und Data Science
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
In vielen Unternehmen wird eine Vielzahl unterschiedlicher Daten gesammelt, ohne dass es dafür schon konkrete Anwendungsfälle gibt. Auf der Suche nach passenden Use-Cases, mit denen Kosten gesenkt, Einnahmen erhöht oder die Qualität verbessert werden soll, fällt häufig das Schlagwort Predictive Maintenance. Durch datengestützte Predictive Maintenance sollen Wartungsleistungen seltener anfallen, zielgerichteter sein und somit die Kundenzufriedenheit verbessert werden.
Im Vortrag werden zwei Projekte aus dem Maschinenbau vorgestellt, bei denen Predictive Maintenance in Kombination mit Machine Learning-Verfahren zum Einsatz kommt. Das erste Projekt beschreibt die Optimierung der Wartungsbetreuung, die auf dem tatsächlichen Zustand der Komponenten basiert (Condition-Based Maintenance).
Das zweite Projekt, das der Vortrag vorstellt, nimmt sich der Herausforderung von Datenanomalien im Machine Learning an. Dabei werden diese Ausreißer nicht als Störung interpretiert, sondern als Indikator für bisher unbekannte Muster. Wie eine Anomaly Detection in konkreten Predictive Maintenance-Projekten aussehen kann und welche Algorithmen dabei eingesetzt werden können, beschreiben die Referenten in ihrem Vortrag.
Für den Vortrag ist in erster Linie Interesse am Thema gefordert. Die Referenten führen in die jeweiligen Fragestellungen ein und entwickeln daraus praxisrelevante Lösungsansätze.
Nach seiner Promotion in theoretischer Physik ist Aman Steinberg als Consultant tätig und beschäftigt sich mit Data Science sowie Machine Learning im Business-Umfeld. Er betreut Kundenprojekte für Predictive Maintenance in der Maschinenbauindustrie.
Nach dem Masterstudium der Volkswirtschaftslehre an den Universitäten Mannheim und Bonn ist Benedikt Kauf als Consultant aktiv. Mit umfassenden Erfahrungen mit Datenvisualisierung, -transformation und -aufbereitung hat er sich auf Machine Learning im Business-Umfeld und Big Data-Engineering spezialisiert. Er ist in einem Kundenprojekt zu Predictive Maintenance in der Halbleiterindustrie tätig.
Vortrag Teilen
Das Verfahren der Sequenzanalyse ist in der Molekularbiologie State of the Art bei der Entschlüsselung der menschlichen DNA. Wir entwickeln ein Verfahren für den effizienten Einsatz der Sequenzanalyse für verschiedene Bedürfnisse unserer Kunden. Durch das Verfahren lässt sich nahezu jede Form von Verhaltens- und Ereignismustern klassifizieren, interpretieren und optimieren. Die Bandbreite der Einsatzmöglichkeiten reicht vom 'klassischen' Kundenverhalten im Online-Shop über das Churn & Fraud bis zur Analyse von personalisierten Kaufentscheidungen.
Zielpublikum: Data Scientist, Data Engineer, Project Leader, Decision Makers, Project Owner, Stakeholder, Project Manager, Big Data Analysten, eCommerce, Business-Analysten
Voraussetzungen: Erfahrung im Bereich Data Science, Big Data Analytics, AI, Geschäftsprozessoptimierung, Business Consulting, Untersuchungsdesign.
Schwierigkeitsgrad: Fortgeschritten
Der Diplom-Soziologe und Mathematiker Alexander Gorbach verfügt über 18 Jahre praktischer Erfahrung im Bereich Data Science. Im Rahmen von über 30 branchenübergreifenden Kundenprojekten befasst er sich mit wissenschaftlich geprägten statistischen Verfahren, um Businessprozesse und die damit verbundenen KPI seinen Kunden zu optimieren.
Vortrag Teilen
Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare 'Doppelgänger' einer Person zu erzeugen. TNG forscht seit 2019 intensiv an der KI rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. In dem Vortrag zeigen wir die verschiedenen Evolutionsschritte der Deepfake-Technologie inkl. Live-Demos, beginnend mit dem 'Ur'-Deepfake und endend mit Echtzeit-Deepfakes des gesamten Kopfes.
Zielpublikum: Software-Entwickler, Entscheider, Manager, IT-Fachkräfte, Arbeitende im HomeOffice
Voraussetzungen: Keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Seit ihrer Entstehung im Jahr 2017 haben sich Deepfakes von einer KI-Spielerei zu einem mächtigen Werkzeug weiterentwickelt. Auch Medienformate wie Leschs Kosmos, Galileo und anderen Sendungen arbeiten inzwischen mit TNG-Deepfakes.
Wir gehen in dem Vortrag auch auf die Cybersecurity-Aspekte ein, da Mitarbeitende durch Deepfakes in Zeiten von Corona schnell hinter das Licht geführt werden könnten, da sie z.B. einem vermeintlichen Deepfake in einer Videokonferenz vertrauliche Informationen weitergeben.
Martin Förtsch ist ein IT-Berater der TNG Technology Consulting GmbH mit Sitz in Unterföhring bei München und studierte Informatik. Seine Arbeitsschwerpunkte sind Agile Development (hauptsächlich) in Java, Suchmaschinentechnologien, Information Retrieval und Datenbanken. Als Intel Software Innovator und Intel Black Belt Software Developer ist er darüber hinaus intensiv in der Entwicklung von Open-Source-Software im Bereich der 3D-Kameratechnologien und dem Internet of Things involviert. Darüber hinaus hält er zahlreiche Vorträge auf nationalen und internationalen Konferenzen zu den Themen Künstliche Intelligenz, Internet der Dinge, Augmented Reality und Test-Driven Development. Er wurde u.a. mit dem Oracle JavaOne Rockstar ausgezeichnet.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/martin-foertsch/
Thomas Endres ist studierter Informatiker (TU München) und leidenschaftlicher Softwareentwickler. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/thomas-endres/
Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Deepfakes, Mixed Reality KI-Kunstwerken und autonom fliegenden Minidrohnen.
Vortrag Teilen
Der E-Commerce Markt zeichnet sich durch eine hohe Dynamik und Volatilität aus. Eine Chance, diesen Entwicklungen entgegenzuwirken, ist der gezielte Einsatz von künstlicher Intelligenz zur Prozessverbesserung und Prozessautomatisierung. Auch der Onlineversandhandel ist in Deutschland geprägt von mittelständischen Anbietern, die sich dem Vorurteil nach besonders schwertun mit dem KI-Einsatz. Anbieter von No-Code KI-Werkzeugen möchten Hürden einreißen und KI-Projekte für alle ermöglichen. In einer Einzelfallstudie wurde die Umsetzung von vier Anwendungsfällen für den Einsatz von künstlicher Intelligenz mit Hilfe einer No-Code Lösung untersucht. Die Ergebnisse legen nahe, dass auch Fachmitarbeiter mit geringen Vorkenntnissen zum Thema KI relevante Potenziale zur Prozessverbesserung realisieren können.
Daniel Kömpf ist Master of Science in technisch orientierter BWL. Im Rahmen seiner Abschlussarbeit hat er sich mit dem Thema No-Code-AI im Mittelstand auseinandergesetzt. Seit November 2021 ist er als IT-Projektmanager bei der Kömpf Onlineshops GmbH tätig. Er ist verantwortlich für den Einsatz von No-Code-AI zur Prozessoptimierung.
Microsoft Power BI wurde wiederholt von Gartner als führender Anbieter für Analytics und Business Intelligence Platforms ausgezeichnet. Diese Anwendung gehört zur Microsoft Power Platform; eine sogenannte Low-Code Development Platform (LCDP). Heutzutage gibt es eine Vielzahl von LCDPs, die Business und IT dabei unterstützen, Applikationen und Workflows mit wenig bis gar keinem Programmiercode zu entwickeln. Dabei spielt die Analyse von Daten eine große Rolle. Die neueste Publikation dieses Forschungsprojekts identifiziert die Herausforderungen bei der Implementierung und Anwendung von LCDPs in Wissenschaft und Praxis. Die Ergebnisse zeigen, dass insbesondere Praktiker die Einführung einer umfassenden LCDP-Governance (inkl. u.a. Entscheidungsprozessen, Daten und Access-Control Governance mit entsprechenden Rollen und Verantwortlichkeiten, und organisationsübergreifenden relationalen Mechanismen) als wesentliche Herausforderung ansehen. Die aktuellen Forschungsergebnisse und das weitere Forschungsvorhaben (hinsichtlich der Entwicklung einer LCDP-Governance) bilden zusammen den Inhalt des Vortrags.
Niculin Prinz ist IT Strategy Consultant bei der BITCO³ GmbH und promoviert nebenbei in Kooperation mit der HTWG Konstanz und der TU Bergakademie Freiberg über die Governance von Low-Code Development Plattformen. Als studierter Ingenieur und heutiger IT-Unternehmensberater entwickelt und vermittelt er dabei Methoden und Management-Ansätze für eine gemeinsame Sprache zwischen Business und IT. Die Forschungsergebnisse publiziert er regelmäßig in internationalen wissenschaftlichen Konferenzen.
Die visuelle Exploration von Daten durch BIA Applikationen stehen limitierenden Faktoren aus der Skalierbarkeit von visuellen Techniken, gestiegenen Anforderungen der menschlichen Wahrnehmung, breiten Verständnis für Datenmodellierung und einen hohem Technologie- und Ressourcenbedarf gegenüber. Einerseits greifen Data Analysten, Data Scientists, Information Designer und Data Journalisten auf ein stetig steigendes Datenaufkommen im Zuge von BI und Data Lake Architekturen zu und andererseits ist eine neue Herangehensweise an die Erkenntnisgewinnung durch Visual Analytics Tools erforderlich, um den Herausforderungen der Skalierung gerecht zu werden. Diese Herausforderungen im Erkenntnisprozess werden anhand von Fallbeispielen mit den entscheidenden Facetten in der visuellen Mustererkennung aufgezeigt.
Oliver Zimmert ist als Experte für Visual Analytics und Big Data Applikationen tätig. Hierbei fungiert er als Vice President für Data Analytics bei der Deutschen Bank und begleitete in den letzten 10 Jahren verschiedenste Big Data Projekte in seiner Beratungsfunktion bei T-Systems und Deloitte. Der Industrieschwerpunkt bildete die Finanz- und Automobilindustrie in der Projekte zu Telematik, Autonomes Fahren und Predictive Maintenance realisiert wurden. Dies wird auf internationalen Konferenzen als Speaker und mit Veröffentlichungen als Doktorand an der TU Bergakademie Freiberg kontinuierlich publiziert.
Vortrag Teilen
Vortrag Teilen
Vortrag Teilen
USE CASE: DKV Mobility
Das Tagesgeschäft der DKV Treasury-Abteilung ist von sehr hohen Ein- und Auszahlungen geprägt. Damit das Unternehmen weiterhin erfolgreich agieren und zahlungsfähig bleiben kann, ist eine gute operative Planung essenziell. In Zusammenarbeit mit avantum wurde diese Planung auf das nächste Level gehoben. Mithilfe von intelligenten Machine-Learning-Methoden wird täglich eine Prognose der Liquidität für die kommenden Wochen auf Tagesbasis erstellt. Wir stellen Ihnen die Ausgangslage, die Herausforderungen und die Lösungen vor.
Zielpublikum: Data Scientist, Controller, Planner, Finance, DWH Architects, Project Manager, CFO
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Fortführung des obigen Abstracts: [...] Die Planungslösung wurde mit einer Software auf Basis von IBM Planning Analytics with Watson und dem IBM SPSS Modeler implementiert. Zur Erhöhung der Prognosegüte wurden externe Variablen eingefügt und Muster in den Zahlungen der einzelnen Cashflow-Kategorien untersucht. In diesem Vortrag stellen wir Ihnen die Ausgangslage, die Herausforderungen und die Lösungen vor.
Thomas Olak ist Consultant bei der avantum consult GmbH. Seit 2020 berät er Kunden in diversen Predictive-Analytics- sowie Data-Science-Projekten. Sein Fokus liegt neben der Datenmodellierung vor allem auf der Prognose von Finanzkennzahlen und Predictive Maintenance.
Daniel Sabel ist Treasurer beim DKV EURO SERVICE GmbH + Co. KG mit dem Fokus auf das zentrale Liquiditäts- und Währungsmanagement, M&A Integration, verschiedene Projektarbeiten sowie der Weiterentwicklung der Treasury-Abteilung. Zuvor war Daniel bei KPMG im Finanz- und Treasury-Management für verschiedene nationale und internationale Projekte zuständig.
Die KI hält Einzug in vielen Bereichen der Autoindustrie, insbesondere autonomes Fahren oder intelligente Fertigungssysteme stehen im Fokus. Aber auch abseits dieser Hot Topics schreitet die datenbasierte Revolution voran. In diesem Vortrag legen wir den Fokus auf die Vertriebssteuerung.
Die Möglichkeiten eines datenbasierten Vertriebs aber auch die Herausforderungen auf dem Weg dorthin werden anhand einer konkreten Initiative bei unserem Mutterkonzern beleuchtet.
Hierbei beleuchten wir vor allem die Etablierung einer konzernweiten digitalen Plattform, die sowohl die Zentrale als auch die Märkte bei Reporting und Steuerung ihres Vertriebsgeschäfts unterstützt. Dabei ermöglicht die Plattform auf sämtliche vertriebsrelevante Daten (Sales, Finance, Wettbewerb) in einem Tool zuzugreifen und diese verknüpft auswerten zu können. Die Lösung wird zudem Schritt-für-Schritt interaktiver und intelligenter gestaltet, um KI-basierte Prognosen und Empfehlungen zu ermöglichen.
Als Fazit wollen wir aufzeigen, wie ein lernendes und flexibles Ökosystem aussehen könnte und welcher Weg für die Industrie ein sinnvoller sein könnte, um eine flexible, KI-basierte und maßgeschneiderte Vertriebssteuerung zu etablieren.
Zielpublikum: alle Interessierte
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Dr. Maximilian Hausmann ist Principal und Leiter des Data Science & Strategy Teams bei rpc - The Retail Performance Company, einem Joint Venture der BMW Group und der h&z Unternehmensberatung. Er arbeitet an der Schnittstelle zwischen Business und IT und entwickelt gemeinsam mit seinem Team kundenzentrierte Datenstrategien und generiert mit den richtigen Use Cases echten Mehrwert. Seit mehr als 12 Jahren berät er Unternehmen aus den unterschiedlichsten Branchen und unterstützt sie auf dem Weg zum datengetriebenen Unternehmen.
Als Berater, Trainer und Coach unterstützt Dr. Maximilian Hausmann seine Kunden bei der Konzeption und Umsetzung von unternehmensweiten Datenstrategien und befähigt Mitarbeiter, die Chancen einer datengetriebenen Arbeitsweise zu nutzen.
Vortrag Teilen
Vortrag Teilen
Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Oktober 2021 ist er Senior Advisor New Business & Strategy bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge zur Entwicklung des Data & Analytics-Marktes veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Klaus-Dieter Schulze ist seit 2012 Mitglied im Vorstand des TDWI e.V.
Vortrag Teilen
Ein live Use-Case aus der Immobilienwirtschaft:
Durch die gewachsenen, vielfältigen, teils proprietären Systemlandschaften bestehend aus diversen Applikationen und Lösungen, stehen Unternehmen branchenübergreifend vor den großen Herausforderungen einer effizienten Systemarchitektur, Schnittstellenkonfiguration, sowie eines qualitätsgesicherten, homogenen Datenaustauschs. Wir haben uns diesen Herausforderungen angenommen.
Der Trend geht von einem monolithischen Aufbau der Systemlandschaft in Richtung Micro-Services für mehr Autonomie, Skalierbarkeit und einer gesteigerten Datenqualität durch Automatisierung.
Gemeinsam mit unserem Kunden BMO Real Estate Partners Germany freuen wir uns Ihnen live einen intelligenten Lösungsansatz – eine Cloud-Basierte Plattform für Datenintegration und Datenaustausch – vorzustellen. Dank der agil entwickelten Anwendung namens IP:X konnten wir fehleranfällige, manuelle Prozesse zur Datenvalidierung von Mietvertragsdaten und Finanzinformationen der Immobilienportfolios durch vielfältige Automatisierungen ablösen. Neben der ausgezeichneten Datenqualität profitieren die Teams der Property-, Fonds- und Asset-Manager ebenso, wie das Datenmanagement nun von einer Reduktion der prozessualen Durchlaufzeiten und einer erheblichen Effizienzsteigerung.
In unserem Anwendungsfall verwenden wir eine effizient verzahnte Kombination aus gegenwärtig modernsten und solidesten Technologien: MEAN Stack (IBM Cloudant, Express, Angular, Node.js) im IBM Cloud Umfeld (Continuous Integration / Continuous Delivery, git, IBM Cloud Functions, Cloudant (NoSQL), REST API, Auth0).
Als ein Early-Adopter beleuchten wir das Zusammenspiel der jeweiligen Technologien, sowie die insgesamt erreichte Effizienzsteigerung und teilen hilfreiche Erfahrungswerte – auch zur agilen Entwicklungsmethode per CI/CD (Continuous Integration/Continuous Delivery).
Zielpublikum: Project leader, decision makers, Cloud Experts
Voraussetzungen: Basic knowledge in Cloud, Continuous Integration / Continuous Delivery. Experience in integration and exchange platforms
Schwierigkeitsgrad: Advanced
Alexander Gusser ist als Lead Expert Innovation & Technology für Business Intelligence und Data Analytics Projekte bei GMC² verantwortlich. Leidenschaftlich kombiniert er innovative Technologien miteinander und findet auf kreative und experimentelle Art neue Ansätze, um fachliche und technologische Herausforderungen erfolgreich zu lösen.
Besonders reizt ihn das Spannungsfeld zwischen der Entwicklung eines ganzheitlichen Lösungskonzepts und der hands-on Umsetzung, sowie dem tatsächlichen Go-live.
Holger Gerhards ist Gründer und geschäftsführender Gesellschafter der Business Intelligence und Data Analytics Beratung GMC² GmbH. Seit über 30 Jahren ist er im BI Kontext beratend tätig und für seine Kunden von Mittelstand bis Konzern im Einsatz. Gemeinsam mit seinem erfahrenen, interdisziplinären Team entwickelt er optimale BI-Strategien und findet passgenaue Lösungen.
Laut Gerhards sollten Entscheidungen intelligent und datengestützt sein. Gekonntes Information Design und eine aussagekräftige Datenvisualisierung liegen ihm dabei besonders am Herzen. Als Mitglied der IBCS® Association und als IBCS®-zertifizierter Consultant gibt er Impulse für zukunftsfähiges Reporting und Dashboarding.
André Tischer verantwortet als Director Corporate Development und Schlüsselperson die digitale Transformation des Fonds- und Immobilienunternehmens BMO Real Estate Partners Germany. Zusammen mit seinem Team entwickelt er wegweisende Lösungen für eine zukunftsfähige, agile Unternehmenssteuerung.
Einen besonderen Fokus legt er dabei auf das stetige Hinterfragen von Geschäftsprozessen, das Suchen nach innovativen Verbesserungsmöglichkeiten und deren zielgerichtetes Implementieren. Hierbei sollte stets der Mensch, sein Wesen und sein Handeln in den Fokus gerückt werden. Denn nur dadurch lassen sich aus Ideen - füreinander und miteinander - Lösungen zufriedenstellend gestalten.
Vortrag Teilen
Der Einsatz von Künstlicher Intelligenz zur Betrugserkennung bei Heilmittel- und Pflegeleistungen in der gesetzlichen Krankenversicherung. Von der Pseudonymisierung und Digitalisierung der Abrechnungsbögen bis zur Analyse, Auswertung und Darstellung der Anomalien - Ein Projektbericht!
Zielpublikum: Management, Data Scientists, Data Engineers
Voraussetzungen: Experience, Curiosity
Schwierigkeitsgrad: Fortgeschritten
Team Lead and Business Development in several companies.
Team Lead, Data Mining and Neural Network Specialist
The Coronavirus lockdowns altered public transport occupation data. Ultimately, these changes in occupation data are perfect examples of sudden concept drifts that can be blockers in most machine learning deployments. We managed to overcome the obstacles by developing methods and engineering features that allowed us to adjust forecasts based on unforeseen changes in the occupation data. In this talk, we give insights into our journey from idea development to the ways how we overcame the challenges and share our learnings.
Target Audience: Data Engineers, Software Architects, AI Architects, Data Scientists
Prerequisites: Experience in Time Series. Basic understanding of machine learning
Level: Expert
Extended Abstract:
Machine learning projects often view and predict a snapshot interval of reality. We machine learning engineers often forget that the real world is not static at all.
After all, we got hit by the Coronavirus reality rendering countless machine learning models useless.
The changes in public transport occupation out of Corona lockdowns is a perfect example of these so-called concept drifts.
The instability of the machine learning models when concept drifts are appearing result in immense problems for the reliability and predictability of the AI.
Therefore, we dig into this problem and show how we solved this challenge for the case of concept dirfts in public transport occupations.
Dr. Tim Frey is co-founder of the company iunera GmbH and Co. KG. Among other things, he holds a PhD from the University of Magdeburg and loves to design data-driven scenarios and applications. His computer science background is in the area of Business Intelligence and platform architecture.
Vortrag Teilen
Vortrag Teilen